Los sistemas de inteligencia artificial ampliamente disponibles se pueden utilizar para insertar deliberadamente vulnerabilidades de seguridad difíciles de detectar en el código que define los chips de computadora, según una nueva investigación de la Escuela de Ingeniería Tandon de la Universidad de Nueva York, una advertencia sobre la posible utilización de la IA como arma en el diseño de hardware. En un estudio publicado por IEEE Security & Privacy, un equipo de investigación de NYU Tandon demostró que los modelos de lenguaje grandes como ChatGPT podrían ayudar tanto a principiantes como a expertos a crear “troyanos de hardware”, modificaciones maliciosas ocultas dentro de diseños de chips que pueden filtrar información confidencial, deshabilitar sistemas o otorgar acceso no autorizado a atacantes.
Para probar si la IA podría facilitar modificaciones maliciosas de hardware, los investigadores organizaron una competencia durante dos años llamada AI Hardware Attack Challenge como parte de CSAW, un evento anual de ciberseguridad dirigido por estudiantes y organizado por el Centro de Ciberseguridad de la Universidad de Nueva York. Se desafió a los participantes a utilizar IA generativa para insertar vulnerabilidades explotables en diseños de hardware de código abierto, incluidos procesadores RISC-V y aceleradores criptográficos, y luego demostrar ataques funcionales.
“Las herramientas de IA simplifican sin duda el proceso de añadir estas vulnerabilidades”, afirmó Jason Blocklove, candidato a doctorado en el Departamento de Ingeniería Eléctrica e Informática (ECE) de NYU Tandon y autor principal del estudio. “Algunos equipos automatizaron completamente el proceso. Otros interactuaron con grandes modelos de lenguaje para comprender mejor el diseño, identificar dónde podrían insertarse las vulnerabilidades y, a continuación, escribir código malicioso relativamente simple”.
Las propuestas más efectivas provinieron de equipos que crearon herramientas automatizadas con mínima supervisión humana. Estos sistemas podían analizar el código de hardware para identificar vulnerabilidades y luego generar e insertar troyanos personalizados sin intervención humana directa. Las fallas generadas por IA incluían puertas traseras que otorgaban acceso no autorizado a la memoria, mecanismos para filtrar claves de cifrado y lógica diseñada para bloquear sistemas en condiciones específicas.
Quizás lo más preocupante es que varios equipos con poca experiencia en hardware lograron crear ataques sofisticados. Dos propuestas provinieron de equipos de estudiantes universitarios con mínimos conocimientos previos de diseño o seguridad de chips; sin embargo, ambas presentaron vulnerabilidades con una gravedad media-alta según los sistemas de puntuación estándar.
La mayoría de los modelos de lenguaje grandes incluyen salvaguardas diseñadas para prevenir el uso malicioso, pero los participantes de la competencia encontraron estas protecciones relativamente fáciles de eludir. Un equipo ganador creó indicaciones que presentaban solicitudes maliciosas como escenarios académicos, induciendo con éxito a la IA a generar troyanos de hardware funcionales. Otros equipos descubrieron que solicitar respuestas en idiomas menos comunes podía eludir por completo los filtros de contenido.
La permanencia de las vulnerabilidades de hardware amplifica el riesgo. A diferencia de las fallas de software, que pueden corregirse mediante actualizaciones, los errores en los chips fabricados no pueden solucionarse sin reemplazar los componentes por completo.
“Una vez fabricado un chip, no hay forma de repararlo sin reemplazar los propios componentes”, afirmó Blocklove. “Por eso los investigadores se centran en la seguridad del hardware. Nos estamos adelantando a problemas que aún no existen en el mundo real, pero que podrían ocurrir. Si se produjera un ataque de este tipo, las consecuencias podrían ser catastróficas”.
La investigación surge de trabajos previos del mismo equipo que demuestran los beneficios potenciales de la IA para el diseño de chips. En su proyecto “Chip Chat“, los investigadores demostraron que ChatGPT podría ayudar a diseñar un microprocesador funcional. El nuevo estudio revela la naturaleza dual de la tecnología. Las mismas capacidades que podrían democratizar el diseño de chips también podrían posibilitar nuevas formas de ataque.
“Esta competencia ha puesto de relieve tanto la necesidad de mejorar las barreras de seguridad del LLM como la importante necesidad de mejorar las herramientas de verificación y análisis de seguridad”, escribieron los investigadores.
Los investigadores enfatizaron que los modelos de IA disponibles comercialmente representan solo el comienzo de las amenazas potenciales. Los modelos de código abierto más especializados, que permanecen en gran medida inexplorados para estos fines, podrían ser aún más capaces de generar ataques de hardware sofisticados.
Fuente: Tech Xplore.
