Nueva herramienta detecta artículos científicos falsos generados por IA

Tecnología

Cuando ChatGPT y otras inteligencias artificiales generativas pueden producir artículos científicos que parecen reales, especialmente para alguien fuera de ese campo de investigación, ¿cuál es la mejor manera de averiguar cuáles son falsos?

Ahmed Abdeen Hamed, investigador visitante en la Facultad de Ingeniería y Ciencias Aplicadas Thomas J. Watson de la Universidad de Binghamton, ha creado un algoritmo de aprendizaje automático al que llama xFakeSci que puede detectar hasta el 94% de los artículos falsos, casi el doble de éxito que las técnicas de minería de datos más comunes.

“Mi investigación principal es la informática biomédica, pero como trabajo con publicaciones médicas, ensayos clínicos, recursos en línea y minería de datos en las redes sociales, siempre me preocupa la autenticidad del conocimiento que alguien está propagando”, dijo Hamed, que forma parte del Laboratorio de Sistemas Adaptativos Complejos e Inteligencia Computacional del Profesor de Ciencias de Sistemas George J. Klir Luis M. Rocha.

“Los artículos biomédicos en particular se vieron muy afectados durante la pandemia mundial porque algunas personas estaban publicitando investigaciones falsas”.

En un nuevo artículo publicado en la revista Scientific Reports, Hamed y su colaborador Xindong Wu, profesor de la Universidad de Tecnología de Hefei en China, crearon 50 artículos falsos para cada uno de tres temas médicos populares (Alzheimer, cáncer y depresión) y los compararon con la misma cantidad de artículos reales sobre los mismos temas.

Hamed dijo que cuando le pidió a ChatGPT los artículos generados por IA, “traté de usar exactamente las mismas palabras clave que usé para extraer la literatura de la base de datos PubMed [de los Institutos Nacionales de Salud], para que tuviéramos una base común de comparación. Mi intuición era que debía haber un patrón exhibido en el mundo falso versus el mundo real, pero no tenía idea de cuál era ese patrón”.

Después de algunos experimentos, programó xFakeSci para analizar dos características principales asociadas con la forma en que se escribieron los artículos. Una es la cantidad de bigramas, que son dos palabras que aparecen juntas con frecuencia, como “cambio climático”, “ensayos clínicos” o “literatura biomédica”. El segundo es cómo esos bigramas se vinculan con otras palabras y conceptos en el texto.

“Lo primero que me llamó la atención fue que la cantidad de bigramas era muy escasa en el mundo falso, pero en el mundo real, los bigramas eran mucho más ricos”, dijo Hamed. “Además, en el mundo falso, a pesar del hecho de que había muy pocos bigramas, estaban muy conectados con todo lo demás”.

Hamed y Wu teorizan que los estilos de escritura son diferentes porque los investigadores humanos no tienen los mismos objetivos que las IA a las que se les pide que produzcan un artículo sobre un tema determinado.

“Como ChatGPT todavía tiene un conocimiento limitado, intenta convencerte utilizando las palabras más significativas”, dijo Hamed. “No es el trabajo de un científico presentarte un argumento convincente. Un artículo de investigación real informa honestamente sobre lo que sucedió durante un experimento y el método utilizado. ChatGPT se basa en la profundidad de un solo punto, mientras que la ciencia real se basa en la amplitud”.

El distinguido profesor y director del Departamento de Ciencias de Sistemas e Ingeniería Industrial, Mohammad T. Khasawneh, elogió la investigación de Hamed.

“Estamos muy contentos de que la última incorporación a nuestra sólida lista de profesores visitantes, el Dr. Ahmed Abdeen Hamed, esté trabajando en ideas tan novedosas”, dijo. “En una era en la que los ‘deepfakes’ forman parte de la conversación pública general, su trabajo es increíblemente oportuno y relevante en muchos niveles. Estamos entusiasmados con la promesa de su trabajo y esperamos seguir colaborando con él”.

Para seguir desarrollando xFakeSci, Hamed planea ampliar la gama de temas para ver si los patrones de palabras reveladores se aplican a otras áreas de investigación, yendo más allá de la medicina para incluir la ingeniería, otros temas científicos y las humanidades. También prevé que las IA se volverán cada vez más sofisticadas, por lo que determinar qué es real y qué no lo es será cada vez más difícil.

“Siempre vamos a estar tratando de ponernos al día si no diseñamos algo integral”, dijo. “Tenemos mucho trabajo por delante para buscar un patrón general o un algoritmo universal que no dependa de qué versión de IA generativa se utilice”.

Porque, aunque su algoritmo detecta el 94% de los artículos generados por IA, añadió, eso significa que 6 de cada 100 artículos falsos siguen pasando: “Tenemos que ser humildes respecto a lo que hemos logrado. Hemos hecho algo muy importante al generar conciencia”.

Fuente: Tech Xplore.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *