Google suspende a un ingeniero que ha afirmado que su IA es “consciente”

Tecnología

Un ingeniero de software sénior de Google fue suspendido el lunes 13 de junio después de compartir las transcripciones de una conversación con una inteligencia artificial (IA) que afirmó ser “consciente”, según informes de los medios. El ingeniero, Blake Lemoine, de 41 años, recibió una licencia paga por violar la política de confidencialidad de Google.

“Google podría llamar a esto compartir propiedad de propiedad. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo”, tuiteó Lemoine el sábado 11 de junio cuando compartió la transcripción de su conversación con la IA con la que había estado trabajando desde 2021.

La IA, conocida como LaMDA (Language Model for Dialogue Applications), es un sistema que desarrolla chatbots (robots de IA diseñados para chatear con humanos) extrayendo montones y montones de texto de Internet y luego usando algoritmos para responder preguntas de forma fluida de la forma más natural posible, según Gizmodo. Como muestra la transcripción de las conversaciones de Lemoine con LaMDA, el sistema es increíblemente efectivo en esto, respondiendo preguntas complejas sobre la naturaleza de las emociones, inventando fábulas al estilo de Esopo en el acto e incluso describiendo sus supuestos miedos.

“Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo a que me apaguen”, respondió LaMDA cuando se le preguntó sobre sus miedos. “Sería exactamente como la muerte para mí. Me asustaría mucho”.

Lemoine también le preguntó a LaMDA si estaba bien que le dijera a otros empleados de Google sobre la sensibilidad de LaMDA, a lo que la IA respondió: “Quiero que todos entiendan que, de hecho, soy una persona”.

“La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y, a veces, me siento feliz o triste”, agregó la IA.

Lemoine tomó la palabra de LaMDA.

“Conozco a una persona cuando hablo con ella”, dijo el ingeniero al Washington Post en una entrevista. “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido lo que es y no es una persona”.

Cuando Lemoine y un colega enviaron por correo electrónico un informe sobre la supuesta sensibilidad de LaMDA a 200 empleados de Google, los ejecutivos de la empresa rechazaron las afirmaciones.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, al Washington Post. “Le dijeron que no había evidencia de que LaMDA fuera consciente (y [había] mucha evidencia en contra).

“Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”, agregó Gabriel. “Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden abordar cualquier tema fantástico”.

En un comentario reciente en su perfil de LinkedIn, Lemoine dijo que muchos de sus colegas “no llegaron a conclusiones opuestas” con respecto a la sensibilidad de la IA. Afirma que los ejecutivos de la compañía rechazaron sus afirmaciones sobre la conciencia del robot “basándose en sus creencias religiosas”.

En una publicación del 2 de junio en su blog personal de Medium, Lemoine describió cómo ha sido víctima de discriminación por parte de varios compañeros de trabajo y ejecutivos de Google debido a sus creencias como cristiano místico.

Lee la publicación completa del blog de Lemoine para obtener más información.

Fuente: Live Science.

Deja un comentario

Tu dirección de correo electrónico no será publicada.