{"id":65348,"date":"2024-12-14T14:54:10","date_gmt":"2024-12-14T19:54:10","guid":{"rendered":"https:\/\/einsteresante.com\/?p=65348"},"modified":"2024-12-14T14:54:11","modified_gmt":"2024-12-14T19:54:11","slug":"ia-penso-que-una-radiografia-de-rodilla-estaba-asociada-a-comer-frijoles-refritos-y-beber-cerveza","status":"publish","type":"post","link":"https:\/\/einsteresante.com\/index.php\/2024\/12\/14\/ia-penso-que-una-radiografia-de-rodilla-estaba-asociada-a-comer-frijoles-refritos-y-beber-cerveza\/","title":{"rendered":"IA pens\u00f3 que una radiograf\u00eda de rodilla estaba asociada a comer frijoles refritos y beber cerveza"},"content":{"rendered":"\n<p>Las im\u00e1genes m\u00e9dicas son la piedra angular del diagn\u00f3stico, y la Inteligencia Artificial (IA) promete revolucionar eso. Con el poder de detectar caracter\u00edsticas y tendencias invisibles para el ojo humano, la IA promete diagn\u00f3sticos m\u00e1s r\u00e1pidos y precisos.<\/p>\n\n\n\n<p>Pero debajo de esta promesa hay una falla preocupante: la tendencia de la IA a tomar atajos y sacar conclusiones precipitadas.<\/p>\n\n\n\n<p>Estos atajos pueden llevar a conclusiones enga\u00f1osas y a veces peligrosas. Como, por ejemplo, los algoritmos que creen que pueden &#8220;predecir&#8221; el resultado de una radiograf\u00eda bas\u00e1ndose en si alguien bebe cerveza o no.<\/p>\n\n\n\n<p>Los investigadores entrenaron redes neuronales convolucionales (CNN), uno de los tipos m\u00e1s populares de algoritmos de aprendizaje profundo, para realizar una tarea extra\u00f1a: predecir si un paciente evit\u00f3 comer frijoles refritos o beber cerveza simplemente mirando sus radiograf\u00edas de rodilla. El modelo hizo exactamente eso: logr\u00f3 una tasa de precisi\u00f3n del 63% para predecir la evitaci\u00f3n de los frijoles y una tasa de precisi\u00f3n del 73% para la evitaci\u00f3n de la cerveza.<\/p>\n\n\n\n<p>Obviamente, esto desaf\u00eda la l\u00f3gica. No hay conexi\u00f3n entre la anatom\u00eda de la rodilla y las preferencias diet\u00e9ticas. Sin embargo, los modelos produjeron resultados estad\u00edsticamente significativos. Pero este extra\u00f1o resultado no se debi\u00f3 a ning\u00fan conocimiento m\u00e9dico oculto. En cambio, fue un ejemplo cl\u00e1sico de aprendizaje por atajos.<\/p>\n\n\n\n<p><strong>Aprendizaje por atajos y variables de confusi\u00f3n<br><\/strong>Este estudio utiliz\u00f3 el conjunto de datos de la Iniciativa de Osteoartritis (OAI), una vasta colecci\u00f3n de m\u00e1s de 25.000 radiograf\u00edas de rodilla. El conjunto de datos inclu\u00eda varios factores de confusi\u00f3n, variables que podr\u00edan distorsionar el aprendizaje del modelo. Los investigadores descubrieron que los modelos de IA pod\u00edan predecir el sexo del paciente, la raza, el sitio cl\u00ednico e incluso el fabricante de la m\u00e1quina de rayos X con una precisi\u00f3n sorprendente. Por ejemplo:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Predicci\u00f3n de sexo: 98,7 % de precisi\u00f3n<\/li>\n\n\n\n<li>Predicci\u00f3n de sitio cl\u00ednico: 98,2 % de precisi\u00f3n<\/li>\n\n\n\n<li>Predicci\u00f3n de raza: 92,1 % de precisi\u00f3n<\/li>\n<\/ul>\n\n\n\n<p>Esta es una buena informaci\u00f3n, pero aqu\u00ed est\u00e1 la cuesti\u00f3n: la IA puede estar usando estos factores de confusi\u00f3n como atajos. Por ejemplo, si un centro cl\u00ednico en particular tiene m\u00e1s pacientes de un grupo demogr\u00e1fico espec\u00edfico, la IA podr\u00eda asociar ese grupo demogr\u00e1fico con ciertos diagn\u00f3sticos, un atajo que refleja sesgo en lugar de realidad m\u00e9dica.<\/p>\n\n\n\n<p>El aprendizaje por atajos ocurre cuando los modelos de IA explotan patrones superficiales en los datos en lugar de aprender relaciones significativas. En las im\u00e1genes m\u00e9dicas, el aprendizaje por atajos significa que el modelo no reconoce afecciones m\u00e9dicas, sino que se aferra a pistas irrelevantes.<\/p>\n\n\n\n<p>&#8220;Si bien la IA tiene el potencial de transformar las im\u00e1genes m\u00e9dicas, debemos ser cautelosos&#8221;, dice el autor principal del estudio, el Dr. Peter Schilling, cirujano ortop\u00e9dico en el Centro M\u00e9dico Dartmouth Hitchcock de Dartmouth Health y profesor adjunto de ortopedia en la Escuela de Medicina Geisel de Dartmouth.<\/p>\n\n\n\n<p>&#8220;Estos modelos pueden ver patrones que los humanos no pueden, pero no todos los patrones que identifican son significativos o confiables&#8221;, dice Schilling. &#8220;Es crucial reconocer estos riesgos para evitar conclusiones enga\u00f1osas y garantizar la integridad cient\u00edfica&#8221;.<\/p>\n\n\n\n<p><strong>Podr\u00eda convertirse en un problema mayor<br><\/strong>La sociedad en general todav\u00eda est\u00e1 decidiendo cu\u00e1l es la forma aceptable de usar la IA en la atenci\u00f3n m\u00e9dica. Los profesionales coinciden en que no se debe permitir que la IA interprete las im\u00e1genes m\u00e9dicas por s\u00ed sola; como mucho, se la debe utilizar como una muleta, y los resultados y la interpretaci\u00f3n deben ser analizados nuevamente por un experto. Pero, dado que el uso de la IA se est\u00e1 extendiendo cada vez m\u00e1s y que hay escasez de personal a gran escala, la IA puede asumir un papel m\u00e1s central. Por eso los hallazgos son tan preocupantes.<\/p>\n\n\n\n<p>Por ejemplo, la IA podr\u00eda identificar un sitio cl\u00ednico en particular bas\u00e1ndose en marcadores \u00fanicos en la imagen de rayos X, como la ubicaci\u00f3n de las etiquetas o las secciones en negro que se utilizan para ocultar la informaci\u00f3n del paciente. Estos marcadores pueden correlacionarse con la demograf\u00eda del paciente u otras variables latentes como la edad, la raza o la dieta, factores que no deber\u00edan afectar el diagn\u00f3stico pero que pueden sesgar las predicciones de la IA.<\/p>\n\n\n\n<p>Imaginemos una IA entrenada para detectar una enfermedad en radiograf\u00edas de t\u00f3rax. Si la IA aprende a asociar el estilo de etiquetado de un hospital en particular con la prevalencia de la enfermedad, sus predicciones no ser\u00e1n confiables cuando se apliquen a im\u00e1genes de otros hospitales. Este tipo de sesgo puede dar lugar a diagn\u00f3sticos err\u00f3neos y resultados de investigaci\u00f3n defectuosos.<\/p>\n\n\n\n<p>El aprendizaje por atajos tambi\u00e9n socava la credibilidad de los descubrimientos impulsados \u200b\u200bpor la IA. Los investigadores y los m\u00e9dicos pueden verse enga\u00f1ados al pensar que la IA ha identificado un descubrimiento m\u00e9dico revolucionario cuando, de hecho, simplemente ha explotado un patr\u00f3n sin sentido.<\/p>\n\n\n\n<p>\u201cEsto va m\u00e1s all\u00e1 del sesgo basado en pistas de raza o g\u00e9nero\u201d, dice Brandon Hill, coautor del estudio y cient\u00edfico de aprendizaje autom\u00e1tico en Dartmouth Hitchcock. \u201cDescubrimos que el algoritmo incluso pod\u00eda aprender a predecir el a\u00f1o en que se tom\u00f3 una radiograf\u00eda. Es pernicioso: cuando se le impide aprender uno de estos elementos, en su lugar aprender\u00e1 otro que antes ignoraba. Este peligro puede dar lugar a algunas afirmaciones realmente dudosas, y los investigadores deben ser conscientes de la facilidad con la que esto sucede cuando se utiliza esta t\u00e9cnica\u201d.<\/p>\n\n\n\n<p><strong>\u00bfPodemos solucionarlo?<br><\/strong>Es muy dif\u00edcil eliminar el aprendizaje abreviado. Incluso con un preprocesamiento y una normalizaci\u00f3n extensivos de las im\u00e1genes, la IA segu\u00eda identificando patrones que los humanos no pod\u00edan ver y tend\u00eda a hacer interpretaciones basadas en ellos. Esta capacidad de \u201chacer trampa\u201d al encontrar correlaciones irrelevantes pero estad\u00edsticamente significativas plantea un grave riesgo para las aplicaciones m\u00e9dicas.<\/p>\n\n\n\n<p>El desaf\u00edo del aprendizaje abreviado no tiene una soluci\u00f3n f\u00e1cil. Los investigadores han propuesto varios m\u00e9todos para reducir el sesgo, como equilibrar los conjuntos de datos o eliminar las variables de confusi\u00f3n. Pero este estudio muestra que estas soluciones a menudo no son suficientes. El aprendizaje abreviado puede involucrar m\u00faltiples factores entrelazados, lo que dificulta aislar y corregir cada uno de ellos.<\/p>\n\n\n\n<p>Los autores del estudio sostienen que la IA en las im\u00e1genes m\u00e9dicas necesita un mayor escrutinio. Los algoritmos de aprendizaje profundo no son pruebas de hip\u00f3tesis, son poderosas herramientas de reconocimiento de patrones. Cuando se utilizan para el descubrimiento cient\u00edfico, sus resultados deben validarse rigurosamente para garantizar que reflejen conocimientos m\u00e9dicos verdaderos en lugar de artefactos estad\u00edsticos. Esencialmente, necesitamos someter a las IA a un escrutinio mucho mayor, especialmente en un contexto m\u00e9dico.<\/p>\n\n\n\n<p>\u201cLa carga de la prueba aumenta considerablemente cuando se trata de utilizar modelos para el descubrimiento de nuevos patrones en medicina\u201d, afirma Hill. \u201cParte del problema es nuestro propio sesgo. Es incre\u00edblemente f\u00e1cil caer en la trampa de suponer que el modelo \u2018ve\u2019 de la misma manera que nosotros. Al final, no es as\u00ed\u201d.<\/p>\n\n\n\n<p>Los investigadores tambi\u00e9n advierten que no se debe tratar a la IA como a un colega experto.<\/p>\n\n\n\n<p>\u201cLa IA es casi como tratar con una inteligencia extraterrestre\u201d, contin\u00faa Hill. \u201cQueremos decir que el modelo est\u00e1 \u2018haciendo trampa\u2019, pero eso antropomorfiza la tecnolog\u00eda. Aprendi\u00f3 una forma de resolver la tarea que se le asign\u00f3, pero no necesariamente como lo har\u00eda una persona. No tiene l\u00f3gica ni razonamiento como los entendemos normalmente\u201d.<\/p>\n\n\n\n<p>Referencia de la revista: Ravi Aggarwal et al, Diagnostic accurate of deep learning in medical imaging: a systematic review and meta-analysis, npj Digital Medicine (2021). <a href=\"https:\/\/dx.doi.org\/10.1038\/s41746-021-00438-z\" target=\"_blank\" rel=\"noreferrer noopener\">DOI: 10.1038\/s41746-021-00438-z<\/a><\/p>\n\n\n\n<p>Fuente: <a href=\"https:\/\/www.zmescience.com\/future\/ai-medical-imaging-flaws\/\">ZME Science<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Las im\u00e1genes m\u00e9dicas son la piedra angular del diagn\u00f3stico, y la Inteligencia Artificial (IA) promete revolucionar eso. Con el poder de detectar caracter\u00edsticas y tendencias invisibles para el ojo humano, la IA promete diagn\u00f3sticos m\u00e1s r\u00e1pidos y precisos. Pero debajo de esta promesa hay una falla preocupante: la tendencia de la IA a tomar atajos [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":["post-65348","post","type-post","status-publish","format-standard","hentry","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/65348","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/comments?post=65348"}],"version-history":[{"count":9,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/65348\/revisions"}],"predecessor-version":[{"id":65357,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/65348\/revisions\/65357"}],"wp:attachment":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media?parent=65348"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/categories?post=65348"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/tags?post=65348"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}