El premio Nobel de Física 2024 ha sido otorgado a John Hopfield y Geoffrey Hinton por su trabajo en redes neuronales artificiales y los algoritmos fundamentales que permiten que las máquinas aprendan, que son clave para los grandes modelos de lenguaje actuales como ChatGPT.
“Estoy estupefacto, no tenía idea de que esto sucedería”, dijo Hinton al comité Nobel al escuchar el anuncio del premio. “Estoy muy sorprendido”. Hinton, quien ha expresado abiertamente sus temores en torno al desarrollo de la inteligencia artificial, también reiteró que lamentaba el trabajo que había realizado. “En las mismas circunstancias, volvería a hacer lo mismo, pero me preocupa que las consecuencias generales de esto puedan ser sistemas más inteligentes que nosotros que eventualmente tomen el control”, dijo.
Si bien la IA puede no parecer un candidato obvio para el Nobel de Física, el descubrimiento de redes neuronales que pueden aprender y sus aplicaciones son dos áreas que están íntimamente conectadas con la física, dijo Ellen Moons, presidenta del Comité Nobel de Física, durante el anuncio. “Estas redes neuronales artificiales se han utilizado para hacer avanzar la investigación en temas de física tan diversos como la física de partículas, la ciencia de los materiales y la astrofísica”.
Muchos de los primeros enfoques de la inteligencia artificial implicaban dar a los programas informáticos reglas lógicas que debían seguir para ayudar a resolver problemas, pero esto dificultaba que aprendieran sobre nueva información o se encontraran con situaciones que no habían visto antes. En 1982, Hopfield, en la Universidad de Princeton, creó una arquitectura para un ordenador llamada red Hopfield, que es una colección de nodos, o neuronas artificiales, que pueden cambiar la fuerza de sus conexiones con un algoritmo de aprendizaje que Hopfield inventó.
Ese algoritmo se inspiró en el trabajo de la física que encuentra la energía de un sistema magnético describiéndolo como colecciones de pequeños imanes. La técnica implica cambiar iterativamente la fuerza de las conexiones entre los imanes en un intento de encontrar un valor mínimo para la energía del sistema.
En el mismo año, Hinton, en la Universidad de Toronto, comenzó a desarrollar la idea de Hopfield para ayudar a crear una estructura de aprendizaje automático estrechamente relacionada llamada máquina de Boltzmann. “Recuerdo haber asistido a una reunión en Rochester donde habló John Hopfield y aprendí por primera vez sobre redes neuronales. Después de eso, Terry [Sejnowski] y yo trabajamos febrilmente para descubrir cómo generalizar las redes neuronales”, dijo.
Hinton y sus colegas demostraron que, a diferencia de las arquitecturas de aprendizaje automático anteriores, las máquinas de Boltzmann podían aprender y extraer patrones de grandes conjuntos de datos. Este principio, cuando se combina con grandes cantidades de datos y potencia de cálculo, ha llevado al éxito de muchos sistemas de inteligencia artificial actuales, como las herramientas de reconocimiento de imágenes y traducción de idiomas.
Sin embargo, aunque la máquina de Boltzmann demostró ser capaz, también era ineficiente y lenta, y no se utiliza en los sistemas modernos de hoy. En su lugar, se utilizan arquitecturas de aprendizaje automático más rápidas y modernas, como los modelos de transformadores, que impulsan grandes modelos de lenguaje como ChatGPT.
En la conferencia de los premios Nobel, Hinton se mostró optimista sobre el impacto que tendrían sus descubrimientos y los de Hopfield. “Será comparable con la revolución industrial, pero en lugar de superar a las personas en fuerza física, superará a las personas en capacidad intelectual”, dijo. “No tenemos experiencia de lo que es tener cosas más inteligentes que nosotros. Va a ser maravilloso en muchos aspectos… pero también tenemos que preocuparnos por una serie de consecuencias negativas, en particular la amenaza de que estas cosas se salgan de control”.
Fuente: New Scientist.