La unión humanos-IA realiza los diagnósticos médicos más precisos

Tecnología

La inteligencia artificial (IA) puede ayudar eficazmente a los médicos a realizar diagnósticos. Comete errores diferentes a los humanos, y esta complementariedad representa una fortaleza previamente desaprovechada. Un equipo internacional ha demostrado sistemáticamente por primera vez que la combinación de la experiencia humana con modelos de IA permite obtener los diagnósticos más precisos y de respuesta abierta. Su artículo se publicó en Proceedings of the National Academy of Sciences.

Los errores de diagnóstico se encuentran entre los problemas más graves de la práctica médica diaria. Los sistemas de IA, especialmente los grandes modelos de lenguaje (LLM) como ChatGPT-4, Gemini o Claude 3, ofrecen nuevas maneras de respaldar eficazmente los diagnósticos médicos. Sin embargo, estos sistemas también conllevan riesgos considerables; por ejemplo, pueden generar alucinaciones y generar información falsa. Además, reproducen sesgos sociales o médicos existentes y cometen errores que a menudo resultan desconcertantes para los humanos.

El equipo de investigación internacional, dirigido por el Instituto Max Planck para el Desarrollo Humano y en colaboración con socios del Proyecto de Diagnóstico Humano (San Francisco) y el Instituto de Ciencias y Tecnologías Cognitivas del Consejo Nacional de Investigación Italiano (CNR-ISTC Roma), investigó cómo los humanos y la IA pueden colaborar mejor.

El resultado: los colectivos de diagnóstico híbridos (grupos compuestos por expertos humanos y sistemas de IA) son significativamente más precisos que los colectivos compuestos únicamente por humanos o IA. Esto se aplica especialmente a preguntas de diagnóstico complejas y abiertas con numerosas soluciones posibles, en lugar de simples decisiones de sí o no.

“Nuestros resultados muestran que la cooperación entre humanos y modelos de IA tiene un gran potencial para mejorar la seguridad del paciente“, afirma el autor principal Nikolas Zöller, investigador postdoctoral en el Centro de Racionalidad Adaptativa del Instituto Max Planck para el Desarrollo Humano.

Los investigadores utilizaron datos del Proyecto de Diagnóstico Humano, que proporciona viñetas clínicas (breves descripciones de casos clínicos) junto con los diagnósticos correctos. Utilizando más de 2100 de estas viñetas, el estudio comparó los diagnósticos realizados por profesionales médicos con los de cinco modelos líderes de IA.

En el experimento central, se simularon diversos colectivos de diagnóstico: individuos, colectivos humanos, modelos de IA y colectivos mixtos de humanos e IA. En total, los investigadores analizaron más de 40.000 diagnósticos. Cada uno se clasificó y evaluó según estándares médicos internacionales (SNOMED CT).

Los humanos y las máquinas se complementan, incluso en sus errores.

El estudio muestra que la combinación de múltiples modelos de IA mejoró la calidad del diagnóstico. En promedio, los equipos de IA superaron al 85% de los diagnosticadores humanos. Sin embargo, hubo numerosos casos en los que los humanos obtuvieron mejores resultados. Curiosamente, cuando la IA falló, los humanos a menudo conocían el diagnóstico correcto.

La mayor sorpresa fue que la combinación de ambos mundos condujo a un aumento significativo de la precisión. Incluso añadir un sólo modelo de IA a un grupo de diagnosticadores humanos, o viceversa, mejoró sustancialmente el resultado. Los resultados más fiables se obtuvieron a partir de decisiones colectivas que involucraron a múltiples humanos y múltiples IA.

La explicación es que los humanos y la IA cometen errores sistemáticamente diferentes. Cuando la IA falla, un profesional humano puede compensar el error, y viceversa. Esta denominada complementariedad de errores hace que los colectivos híbridos sean tan poderosos. “No se trata de reemplazar a los humanos por máquinas. Más bien, deberíamos ver la inteligencia artificial como una herramienta complementaria que despliega todo su potencial en la toma de decisiones colectiva”, afirma el coautor Stefan Herzog, investigador principal del Instituto Max Planck para el Desarrollo Humano.

Sin embargo, los investigadores también enfatizan las limitaciones de su trabajo. El estudio solo consideró viñetas de casos textuales, no pacientes reales en entornos clínicos reales. La posibilidad de aplicar los resultados directamente a la práctica clínica es una cuestión que se abordará en futuros estudios. Asimismo, el estudio se centró únicamente en el diagnóstico, no en el tratamiento, y un diagnóstico correcto no garantiza necesariamente un tratamiento óptimo.

También sigue siendo incierto cómo los sistemas de apoyo basados ​​en IA serán aceptados en la práctica por el personal médico y los pacientes. Los posibles riesgos de sesgo y discriminación, tanto por parte de la IA como de los humanos, en particular en relación con las diferencias étnicas, sociales o de género, también requieren mayor investigación.

Amplia gama de aplicaciones para colectivos híbridos humanos-IA

El estudio forma parte del proyecto Inteligencia Colectiva Híbrida Humano-Artificial en la Toma de Decisiones Abierta (HACID), cuyo objetivo es promover el desarrollo de futuros sistemas de apoyo a la toma de decisiones clínicas mediante la integración inteligente de la inteligencia humana y artificial. Los investigadores ven un potencial particular en regiones con acceso limitado a la atención médica. Los colectivos híbridos humano-IA podrían contribuir de forma crucial a una mayor equidad en la atención sanitaria en dichas zonas.

Este enfoque también puede aplicarse a otras áreas críticas, como el sistema legal, la respuesta a desastres o la política climática, donde sea necesario tomar decisiones complejas y de alto riesgo. Por ejemplo, el proyecto HACID también está desarrollando herramientas para mejorar la toma de decisiones en materia de adaptación climática, afirma Vito Trianni, coautor y coordinador del proyecto HACID.

Fuente: Medical Xpress.

 .

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *