La investigación generada por IA es una amenaza, tanto para el conocimiento de la sociedad como para la confianza pública en la ciencia. Esta es la conclusión a la que llegaron los investigadores de la Escuela Sueca de Bibliotecología y Ciencias de la Información de la Universidad de Borås (Suecia), que recientemente identificaron más de cien artículos sospechosos de ser generados por IA en el motor de búsqueda Google Scholar.
Su investigación informa de que los artículos científicos falsos generados por IA han inundado el motor de búsqueda Google Scholar. Los hallazgos del estudio sobre ciencia basura fabricada por IA significan que la ciencia falsa se ha puesto a disposición y puede difundirse ampliamente y a un coste mucho menor para los actores maliciosos. El trabajo se publica en la revista Harvard Kennedy School Misinformation Review. Esto supone un peligro tanto para la sociedad como para la comunidad científica, según Jutta Haider y Björn Ekström de la Escuela Sueca de Bibliotecología y Ciencias de la Información, que están detrás del estudio junto con Kristofer Söderström de la Universidad de Lund y Malte Rödl de la Universidad Sueca de Ciencias Agrícolas.
Mayor riesgo de piratería de pruebas
Uno de los principales problemas relacionados con la investigación generada por IA es el riesgo de piratería de pruebas, es decir, de que se utilicen investigaciones falsas para manipulaciones estratégicas.
“El riesgo de lo que llamamos ‘piratería de pruebas’ aumenta significativamente cuando la investigación generada por IA se difunde en los motores de búsqueda. Esto puede tener consecuencias tangibles, ya que los resultados incorrectos pueden filtrarse más en la sociedad y, posiblemente, también en cada vez más dominios”, dijo Ekström, que tiene un doctorado en Bibliotecología y Ciencias de la Información.
Los investigadores detrás del estudio ya han visto que estos artículos problemáticos se han extendido a otras partes de la infraestructura de investigación en la web, en varios archivos, redes sociales y similares. La propagación es rápida y Google Scholar hace visibles los artículos problemáticos. Incluso si los artículos se retiran, existe el riesgo de que ya hayan tenido tiempo de difundirse y sigan haciéndolo. Además, la investigación generada por IA causa problemas para el ya de por sí presionado sistema de revisión por pares.
La alfabetización informacional es más exigente
El hecho de que la investigación generada por inteligencia artificial se esté extendiendo en las bases de datos de los motores de búsqueda plantea mayores exigencias a quienes participan en la investigación en línea.
“Si no podemos confiar en que la investigación que leemos sea auténtica, corremos el riesgo de tomar decisiones basadas en información incorrecta. Pero, por mucho que se trate de una cuestión de mala conducta científica, es una cuestión de alfabetización mediática e informativa”, afirma Haider, catedrática de Bibliotecología y Ciencias de la Información.
Señala que Google Scholar no es una base de datos académica. El motor de búsqueda es fácil de usar y rápido, pero carece de procedimientos de control de calidad. Esto ya es un problema con los resultados habituales de Google, pero es aún más problemático cuando se trata de hacer accesible la ciencia.
“La capacidad de las personas para decidir qué revistas y editoriales, en su mayoría, publican investigaciones revisadas de calidad es importante para encontrar y determinar qué constituye una investigación fiable y es de gran importancia para la toma de decisiones y la formación de opiniones”, concluye Haider.
Fuente: Phys.org.