Investigadores dicen que las habilidades emergentes de la IA son un “espejismo”

Tecnología

Parece no haber fin a las predicciones de nubes de tormenta cuando las computadoras eventualmente deciden tomar el asunto en sus propias manos (o deberíamos decir, sus propios procesadores).

“El desarrollo de la inteligencia artificial podría significar el fin de la raza humana”, advirtió Stephen Hawking.

“[La IA] me asusta muchísimo. Es capaz de mucho más de lo que casi nadie sabe, y la tasa de mejora es exponencial”, dijo el cofundador de OpenAI, Elon Musk.

Las tecnologías de IA presentan “riesgos profundos para la sociedad y la humanidad”, según una carta firmada a principios de este año por más de 1,000 líderes tecnológicos que instaban a una moratoria en la investigación de IA hasta que se entienda más sobre los riesgos potenciales.

“Tenemos que tener mucho cuidado”, dijo Yoshua Bengio, profesor e investigador de IA en la Universidad de Montreal.

Sin ignorar la promesa del tremendo bien que la IA traerá a una amplia gama de sectores en la industria, la economía, la educación, la ciencia, la agricultura, la medicina y la investigación, los informes de los medios están haciendo sonar cada vez más una alarma sobre las consecuencias no deseadas de esta floreciente tecnología disruptiva. Un área de preocupación es el comportamiento emergente, definido como una serie de interacciones no programadas e imprevistas dentro de un sistema derivadas de comportamientos programados más simples por partes individuales. Los investigadores dicen que la evidencia de tal comportamiento se ve en modelos que aprenden idiomas por sí mismos, cuando los sistemas entrenados para jugar ajedrez y Go generan estrategias originales para avanzar, o cuando los robots muestran variabilidad en los patrones de movimiento que no fueron programados originalmente.

“A pesar de tratar de esperar sorpresas, estoy sorprendido por las cosas que estos modelos pueden hacer”, dijo Ethan Dyer, científico informático de Google, en respuesta a un experimento de IA en el que una computadora dedujo inesperadamente por sí sola el título de una película basada en una cadena de emojis

Pero el propio Dyer puede sorprenderse al saber que un equipo de investigación de la Universidad de Stanford está arrojando agua fría sobre los informes de comportamiento emergente. Ryan Schaeffer, Brando Miranda y Sanmi Koyejo dijeron en un artículo publicado la semana pasada que la evidencia de comportamientos emergentes se basa en estadísticas que probablemente fueron malinterpretadas.

“Nuestro mensaje es que las habilidades emergentes afirmadas anteriormente… probablemente podrían ser un espejismo inducido por los análisis de los investigadores”, dijeron.

En su artículo publicado en el servidor de preimpresión arXiv, los investigadores explicaron que las habilidades de los grandes modelos de lenguaje se miden determinando el porcentaje de sus predicciones correctas. Los análisis estadísticos se pueden representar de muchas maneras. Los investigadores sostienen que cuando los resultados se informan en métricas no lineales o discontinuas, parecen mostrar cambios bruscos e impredecibles que se interpretan erróneamente como indicadores de un comportamiento emergente.

Sin embargo, un medio alternativo de medir los datos idénticos mediante métricas lineales muestra cambios “suaves y continuos” que, a diferencia de la medida anterior, revelan un comportamiento predecible, no emergente. El equipo de Stanford agregó que la falta de uso de muestras lo suficientemente grandes también contribuye a conclusiones erróneas.

“Las afirmaciones existentes de habilidades emergentes son creaciones de los análisis del investigador, no cambios fundamentales en el comportamiento del modelo en tareas específicas”, dijo el equipo.

Agregaron que si bien la metodología en investigaciones anteriores probablemente arrojó conclusiones engañosas, “nada en este documento debe interpretarse como una afirmación de que los grandes modelos de lenguaje no pueden mostrar habilidades emergentes”, lo que sugiere que la metodología adecuada bien puede revelar tales capacidades.

“La conclusión principal”, dijeron los investigadores, “es para una tarea fija y una familia de modelos fijos, el investigador puede elegir una métrica para crear una habilidad emergente o elegir una métrica para eliminar una habilidad emergente”.

O como dijo un comentarista notable: “El resultado del algoritmo es tan bueno como los parámetros que establecieron sus creadores, lo que significa que hay espacio para posibles sesgos dentro de la propia IA”.

¿Y quién era ese notable comentarista? ChatGPT de Microsoft Bing.

Fuente: Tech Xplore.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *