Gigantes tecnológicas piden una pausa en la investigación de IA temiendo “riesgos para la sociedad”

Tecnología

El magnate multimillonario Elon Musk y una variedad de expertos pidieron el miércoles una pausa en el desarrollo de poderosos sistemas de inteligencia artificial (IA) para dar tiempo a asegurarse de que sean seguros. Una carta abierta, firmada por más de 1,000 personas hasta el momento, incluidos Musk y el cofundador de Apple, Steve Wozniak, fue impulsada por el lanzamiento de GPT-4 de la firma OpenAI respaldada por Microsoft. La compañía dice que su último modelo es mucho más poderoso que la versión anterior, que se usó para impulsar ChatGPT, un bot capaz de generar fragmentos de texto a partir de las indicaciones más breves.

“Los sistemas de IA con inteligencia humana-competitiva pueden plantear profundos riesgos para la sociedad y la humanidad”, decía la carta abierta titulada “Pause Giant AI Experiments“.

“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, dijo.

Musk fue un inversionista inicial en OpenAI, pasó años en su directorio y su empresa de automóviles, Tesla, desarrolla sistemas de inteligencia artificial para ayudar a impulsar su tecnología de conducción autónoma, entre otras aplicaciones. La carta, organizada por el Future of Life Institute, financiado por Musk, fue firmada por destacados críticos y competidores de OpenAI como el jefe de Stability AI, Emad Mostaque.

El pionero canadiense de la IA, Yoshua Bengio, también signatario, en una conferencia de prensa virtual en Montreal advirtió “que la sociedad no está preparada” para esta poderosa herramienta y sus posibles usos indebidos.

“Reduzcamos la velocidad. Asegurémonos de desarrollar mejores barandillas”, dijo, y pidió una discusión internacional exhaustiva sobre la IA y sus implicaciones, “como lo hemos hecho con la energía nuclear y las armas nucleares”.

‘Digno de confianza y leal’
La carta citaba un blog escrito por el fundador de OpenAI, Sam Altman, quien sugirió que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros”.

“Estamos de acuerdo. Ese punto es ahora”, escribieron los autores de la carta abierta.

“Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.

Pidieron a los gobiernos que intervengan e impongan una moratoria si las empresas no llegan a un acuerdo. Los seis meses deben usarse para desarrollar protocolos de seguridad, sistemas de gobierno de IA y reenfocar la investigación para garantizar que los sistemas de IA sean más precisos, seguros, “confiables y leales”.

La carta no detallaba los peligros revelados por GPT-4. Pero investigadores como Gary Marcus de la Universidad de Nueva York, quien firmó la carta, han argumentado durante mucho tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser súper propagadores de desinformación.

​Sin embargo, el autor Cory Doctorow comparó la industria de la IA con un esquema de “bomba y descarga”, argumentando que tanto el potencial como la amenaza de los sistemas de IA se han exagerado enormemente.

Fuente: Science Alert.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *