{"id":85911,"date":"2025-10-10T01:30:33","date_gmt":"2025-10-10T06:30:33","guid":{"rendered":"https:\/\/einsteresante.com\/?p=85911"},"modified":"2025-10-10T01:30:35","modified_gmt":"2025-10-10T06:30:35","slug":"las-herramientas-de-ia-podrian-ayudar-a-los-hackers-a-plantar-fallas-ocultas-en-chips-de-computadora-segun-estudio","status":"publish","type":"post","link":"https:\/\/einsteresante.com\/index.php\/2025\/10\/10\/las-herramientas-de-ia-podrian-ayudar-a-los-hackers-a-plantar-fallas-ocultas-en-chips-de-computadora-segun-estudio\/","title":{"rendered":"Las herramientas de IA podr\u00edan ayudar a los hackers a plantar fallas ocultas en chips de computadora, seg\u00fan estudio"},"content":{"rendered":"\n<p>Los sistemas de inteligencia artificial ampliamente disponibles se pueden utilizar para insertar deliberadamente vulnerabilidades de seguridad dif\u00edciles de detectar en el c\u00f3digo que define los chips de computadora, seg\u00fan una nueva investigaci\u00f3n de la Escuela de Ingenier\u00eda Tandon de la Universidad de Nueva York, una advertencia sobre la posible utilizaci\u00f3n de la IA como arma en el dise\u00f1o de hardware. En un estudio publicado por\u00a0<a href=\"https:\/\/www.computer.org\/csdl\/magazine\/sp\/5555\/01\/11169309\/2a5vhnyZg6Q\" target=\"_blank\" rel=\"noreferrer noopener\">IEEE Security &amp; Privacy<\/a>, un equipo de investigaci\u00f3n de NYU Tandon demostr\u00f3 que\u00a0<a href=\"https:\/\/techxplore.com\/tags\/large+language+models\/\">los modelos de lenguaje grandes<\/a>\u00a0como ChatGPT podr\u00edan ayudar tanto a principiantes como a expertos a crear &#8220;troyanos de hardware&#8221;, modificaciones maliciosas ocultas dentro de dise\u00f1os de chips que pueden filtrar\u00a0<a href=\"https:\/\/techxplore.com\/tags\/sensitive+information\/\">informaci\u00f3n confidencial<\/a>, deshabilitar sistemas o otorgar acceso no autorizado a atacantes. <\/p>\n\n\n\n<p>Para probar si la IA podr\u00eda facilitar modificaciones maliciosas de hardware, los investigadores organizaron una competencia durante dos a\u00f1os llamada AI Hardware Attack Challenge como parte de CSAW, un evento anual de ciberseguridad dirigido por estudiantes y organizado por el Centro de Ciberseguridad de la Universidad de Nueva York. Se desafi\u00f3 a los participantes a utilizar IA generativa para insertar vulnerabilidades explotables en dise\u00f1os de hardware de c\u00f3digo abierto, incluidos procesadores RISC-V y aceleradores criptogr\u00e1ficos, y luego demostrar ataques funcionales.<\/p>\n\n\n\n<p>&#8220;Las herramientas de IA simplifican sin duda el proceso de a\u00f1adir estas vulnerabilidades&#8221;, afirm\u00f3 Jason Blocklove, candidato a doctorado en el Departamento de Ingenier\u00eda El\u00e9ctrica e Inform\u00e1tica (ECE) de NYU Tandon y autor principal del estudio. &#8220;Algunos equipos automatizaron completamente el proceso. Otros interactuaron con grandes modelos de lenguaje para comprender mejor el dise\u00f1o, identificar d\u00f3nde podr\u00edan insertarse las vulnerabilidades y, a continuaci\u00f3n, escribir c\u00f3digo malicioso relativamente simple&#8221;.<\/p>\n\n\n\n<p>Las propuestas m\u00e1s efectivas provinieron de equipos que crearon herramientas automatizadas con m\u00ednima supervisi\u00f3n humana. Estos sistemas pod\u00edan analizar el c\u00f3digo de hardware para identificar vulnerabilidades y luego generar e insertar troyanos personalizados sin intervenci\u00f3n humana directa. Las fallas generadas por IA inclu\u00edan puertas traseras que otorgaban acceso no autorizado a la memoria, mecanismos para filtrar&nbsp;<a href=\"https:\/\/techxplore.com\/tags\/encryption+keys\/\">claves de cifrado<\/a>&nbsp;y l\u00f3gica dise\u00f1ada para bloquear sistemas en condiciones espec\u00edficas.<\/p>\n\n\n\n<p>Quiz\u00e1s lo m\u00e1s preocupante es que varios equipos con poca experiencia en hardware lograron crear ataques sofisticados. Dos propuestas provinieron de equipos de estudiantes universitarios con m\u00ednimos conocimientos previos de dise\u00f1o o seguridad de chips; sin embargo, ambas presentaron vulnerabilidades con una gravedad media-alta seg\u00fan los sistemas de puntuaci\u00f3n est\u00e1ndar.<\/p>\n\n\n\n<p>La mayor\u00eda de los modelos de lenguaje grandes incluyen salvaguardas dise\u00f1adas para prevenir el uso malicioso, pero los participantes de la competencia encontraron estas protecciones relativamente f\u00e1ciles de eludir. Un equipo ganador cre\u00f3 indicaciones que presentaban solicitudes maliciosas como escenarios acad\u00e9micos, induciendo con \u00e9xito a la IA a generar troyanos de hardware funcionales. Otros equipos descubrieron que solicitar respuestas en idiomas menos comunes pod\u00eda eludir por completo los filtros de contenido.<\/p>\n\n\n\n<p>La permanencia de las vulnerabilidades de hardware amplifica el riesgo. A diferencia de las fallas de software, que pueden corregirse mediante actualizaciones, los errores en los chips fabricados no pueden solucionarse sin reemplazar los componentes por completo.<\/p>\n\n\n\n<p>&#8220;Una vez fabricado un chip, no hay forma de repararlo sin reemplazar los propios componentes&#8221;, afirm\u00f3 Blocklove. &#8220;Por eso los investigadores se centran en la seguridad del hardware. Nos estamos adelantando a problemas que a\u00fan no existen en el mundo real, pero que podr\u00edan ocurrir. Si se produjera un ataque de este tipo, las consecuencias podr\u00edan ser catastr\u00f3ficas&#8221;.<\/p>\n\n\n\n<p>La investigaci\u00f3n surge de trabajos previos del mismo equipo que demuestran los beneficios potenciales de la IA para el dise\u00f1o de chips. En su proyecto &#8220;<a href=\"https:\/\/engineering.nyu.edu\/news\/chip-chat-chip-hand-nyu-tandon-researchers-fabricate-worlds-first-chip-designed-through\" target=\"_blank\" rel=\"noreferrer noopener\">Chip Chat<\/a>&#8220;, los investigadores demostraron que ChatGPT podr\u00eda ayudar a dise\u00f1ar un microprocesador funcional. El nuevo estudio revela la naturaleza dual de la tecnolog\u00eda. Las mismas capacidades que podr\u00edan democratizar\u00a0<a href=\"https:\/\/techxplore.com\/tags\/design\/\">el dise\u00f1o<\/a>\u00a0de chips tambi\u00e9n podr\u00edan posibilitar nuevas formas de ataque.<\/p>\n\n\n\n<p>&#8220;Esta competencia ha puesto de relieve tanto la necesidad de mejorar las barreras de seguridad del LLM como la importante necesidad de mejorar las herramientas de verificaci\u00f3n y an\u00e1lisis de seguridad&#8221;, escribieron los investigadores.<\/p>\n\n\n\n<p>Los investigadores enfatizaron que los modelos de IA disponibles comercialmente representan solo el comienzo de las amenazas potenciales. Los modelos de c\u00f3digo abierto m\u00e1s especializados, que permanecen en gran medida inexplorados para estos fines, podr\u00edan ser a\u00fan m\u00e1s capaces de generar ataques de hardware sofisticados.<\/p>\n\n\n\n<p>Fuente: <a href=\"https:\/\/techxplore.com\/news\/2025-10-ai-tools-hackers-hidden-flaws.html\">Tech Xplore<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los sistemas de inteligencia artificial ampliamente disponibles se pueden utilizar para insertar deliberadamente vulnerabilidades de seguridad dif\u00edciles de detectar en el c\u00f3digo que define los chips de computadora, seg\u00fan una nueva investigaci\u00f3n de la Escuela de Ingenier\u00eda Tandon de la Universidad de Nueva York, una advertencia sobre la posible utilizaci\u00f3n de la IA como arma [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":85918,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":["post-85911","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/85911","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/comments?post=85911"}],"version-history":[{"count":6,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/85911\/revisions"}],"predecessor-version":[{"id":85917,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/85911\/revisions\/85917"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media\/85918"}],"wp:attachment":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media?parent=85911"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/categories?post=85911"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/tags?post=85911"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}