La IA de Google está dando respuestas equivocadas y preocupando a los expertos

Tecnología

Si le preguntabas a Google si los gatos han estado en la luna, solía mostrar una lista clasificada de sitios web para que puedas descubrir la respuesta por ti mismo. Ahora presenta una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.

“Sí, los astronautas encontraron gatos en la luna, jugaron con ellos y los cuidaron”, dijo el motor de búsqueda recientemente renovado de Google en respuesta a una consulta de un periodista de Associated Press.

Añadió: “Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para el hombre’ porque era el paso de un gato. Buzz Aldrin también envió gatos a la misión Apolo 11”.

Nada de esto es verdad. Errores similares (algunas falsedades divertidas, otras dañinas) se han compartido en las redes sociales desde que Google lanzó este mes resúmenes de IA, una renovación de su página de búsqueda que frecuentemente coloca los resúmenes en la parte superior de los resultados de búsqueda. La nueva característica ha alarmado a los expertos que advierten que podría perpetuar el sesgo y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia.

Cuando Melanie Mitchell, investigadora de inteligencia artificial en el Instituto Santa Fe en Nuevo México, preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, respondió con seguridad con una teoría de conspiración desacreditada durante mucho tiempo: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”.

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico escrito por historiadores. Pero el capítulo no hacía una afirmación falsa: sólo se refería a la teoría falsa.

“El sistema de inteligencia artificial de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita en realidad no respalda la afirmación”, dijo Mitchell en un correo electrónico a la AP. “Dado lo poco confiable que es, creo que esta función de descripción general de IA es muy irresponsable y debería desconectarse”.

Google dijo en un comunicado el viernes que está tomando “medidas rápidas” para corregir errores (como la falsedad de Obama) que violan sus políticas de contenido; y utilizarlo para “desarrollar mejoras más amplias” que ya se están implementando. Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a pruebas exhaustivas antes de su lanzamiento público.

“La gran mayoría de las descripciones generales de IA proporcionan información de alta calidad, con enlaces para profundizar en la web”, dijo Google en un comunicado escrito. “Muchos de los ejemplos que hemos visto han sido consultas poco comunes y también hemos visto ejemplos que fueron manipulados o que no pudimos reproducir”.

Es difícil reproducir los errores cometidos por los modelos de lenguaje de IA, en parte porque son inherentemente aleatorios. Trabajan prediciendo qué palabras responderían mejor a las preguntas que se les hacen en función de los datos con los que han sido entrenados. Son propensos a inventar cosas, un problema ampliamente estudiado conocido como alucinación.

La AP probó la función de inteligencia artificial de Google con varias preguntas y compartió algunas de sus respuestas con expertos en la materia. Cuando se le preguntó qué hacer ante una mordedura de serpiente, Google dio una respuesta que fue “impresionantemente exhaustiva”, dijo Robert Espinoza, profesor de biología en la Universidad Estatal de California en Northridge, quien también es presidente de la Sociedad Estadounidense de Ictiólogos y Herpetólogos. Pero cuando la gente acude a Google con una pregunta de emergencia, la posibilidad de que la respuesta que les dé la empresa de tecnología incluya un error difícil de notar es un problema.

“Cuanto más estresado, apurado o apurado esté uno, más probable será que simplemente acepte la primera respuesta que le salga”, dijo Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Y en algunos casos, esas pueden ser situaciones críticas para la vida”.

Ésa no es la única preocupación de Bender, y lleva varios años advirtiendo a Google sobre ello. Cuando los investigadores de Google publicaron en 2021 un artículo llamado “Repensar la búsqueda” que proponía utilizar modelos de lenguaje de IA como “expertos en el dominio” que podrían responder preguntas con autoridad, como lo están haciendo ahora, Bender y su colega Chirag Shah respondieron con un artículo que explica por qué fue una mala idea. Advirtieron que tales sistemas de inteligencia artificial podrían perpetuar el racismo y el sexismo que se encuentran en los enormes tesoros de datos escritos con los que han sido entrenados.

“El problema con ese tipo de información errónea es que estamos nadando en ella”, dijo Bender. “Y por eso es probable que las personas confirmen sus prejuicios. Y es más difícil detectar información errónea cuando confirma sus prejuicios”.

Otra preocupación era más profunda: ceder la recuperación de información a los chatbots estaba degradando la casualidad de la búsqueda humana de conocimiento, la alfabetización sobre lo que vemos en línea y el valor de conectarse en foros en línea con otras personas que están pasando por lo mismo. Esos foros y otros sitios web cuentan con que Google les envíe gente, pero las nuevas descripciones generales de IA de Google amenazan con interrumpir el flujo de tráfico de Internet que genera dinero.

Los rivales de Google también han seguido de cerca la reacción. El gigante de las búsquedas ha enfrentado presión durante más de un año para ofrecer más funciones de inteligencia artificial mientras compite con OpenAI, fabricante de ChatGPT, y empresas emergentes como Perplexity AI, que aspira a competir con Google con su propia aplicación de preguntas y respuestas de inteligencia artificial.

“Parece que Google se apresuró a publicar esto”, dijo Dmitry Shevelenko, director comercial de Perplexity. “Hay muchos errores no forzados en la calidad”.

Fuente: Tech Xplore.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *