Padrino de la IA dice que hay una probabilidad de apocalipsis de IA del 10-20% en 30 años

Tecnología

Sería difícil encontrar a alguien más influyente en el campo de la IA que Geoffrey Hinton. Su trabajo sobre redes neuronales sentó las bases de los sistemas de IA modernos, demostrando cómo las computadoras podían aprender y usar datos de nuevas maneras. También le preocupa la IA. Hablando en BBC Radio 4, a Hinton le preguntaron cómo evalúa el potencial apocalipsis de la IA, y ofreció una respuesta escalofriante: “Del 10% al 20%”.

Somos los niños de tres años en esta relación
Hinton recibió el Premio Nobel y el Premio Turing (un premio similar al Nobel para la ciencia informática) por su trabajo en IA. Forma parte de los tres “Padrinos de la IA”, dos de los cuales han expresado temores de que la IA pueda representar una amenaza existencial para la humanidad. El gran problema, dice Hinton, es que las IA están en camino de volverse más inteligentes que cualquiera de nosotros en algunos aspectos.

“Verás, nunca antes hemos tenido que lidiar con cosas más inteligentes que nosotros. ¿Y cuántos ejemplos conoces de un ser más inteligente controlado por otro menos inteligente? Hay muy pocos ejemplos. Hay una madre y un bebé. La evolución ha puesto mucho empeño en permitir que el bebé controle a la madre, pero ese es el único ejemplo que conozco”.

“Me gusta pensar en ello como: imagínate a ti mismo y a un niño de tres años. Nosotros seremos los niños de tres años”, dijo.

No es la primera vez que Hinton expresa tales temores. Anteriormente evaluó el riesgo de un apocalipsis de la IA en los próximos 30 años en un 10%, y parece que ahora ha aumentado. La razón es que la IA está progresando mucho más rápido de lo que pensaba y no tenemos ni de lejos suficiente regulación política.

Es cierto que las IA no son más inteligentes que nosotros ahora, pero hay una buena posibilidad de que lo sean en un par de décadas. Mientras tanto, las empresas están tomando las riendas y no garantizando suficientes barandillas para un uso seguro de la IA, dice Hinton.

“Mi preocupación es que la mano invisible no nos va a mantener seguros. Así que dejarlo en manos del afán de lucro de las grandes empresas no va a ser suficiente para garantizar que lo desarrollen de forma segura”, dijo. “Lo único que puede obligar a esas grandes empresas a investigar más sobre seguridad es la regulación gubernamental”.

Incluso sin un apocalipsis, nuestras vidas están a punto de cambiar drásticamente

Geoffrey Hinton es considerado uno de los pioneros de la IA. Créditos de la imagen: Wiki Commons.

Incluso los escenarios más optimistas de Hinton no son exactamente alentadores. El problema principal se reduce, una vez más, a la inteligencia. La IA simplemente está reemplazando a la inteligencia humana y haciendo que los humanos “ya no estén a la vanguardia”.

Lo que estamos a punto de ver es un cambio en el orden de la Revolución Industrial. Sin embargo, al igual que la Revolución Industrial, la IA no va a mejorar la situación de todos.

“Mi preocupación es que, aunque provocará enormes aumentos en la productividad, lo que debería ser bueno para la sociedad, puede terminar siendo muy malo para la sociedad si todo el beneficio va a parar a los ricos y mucha gente pierde su trabajo y se vuelve más pobre”, añadió.

Este tipo de desigualdad es también lo que abre paso al extremismo y al fascismo, advirtió Hinton. Dijo que tiene algunos remordimientos sobre la tecnología. Volvería a hacer lo mismo, pero le preocupa mucho cómo resultará la IA.

“Hay dos tipos de arrepentimiento. Está el tipo en el que te sientes culpable porque haces algo que sabes que no deberías haber hecho, y luego está el arrepentimiento en el que haces algo que volverías a hacer en las mismas circunstancias, pero al final puede que no salga bien.

“Ese segundo arrepentimiento lo tengo. En las mismas circunstancias, volvería a hacer lo mismo, pero me preocupa que la consecuencia general de esto sea que sistemas más inteligentes que nosotros finalmente tomen el control.

Fuente: ZME Science.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *