{"id":82802,"date":"2025-08-29T22:13:57","date_gmt":"2025-08-30T03:13:57","guid":{"rendered":"https:\/\/einsteresante.com\/?p=82802"},"modified":"2025-08-29T22:13:57","modified_gmt":"2025-08-30T03:13:57","slug":"nuevo-metodo-permite-que-modelos-de-ia-olviden-datos-privados-y-con-derechos-de-autor","status":"publish","type":"post","link":"https:\/\/einsteresante.com\/index.php\/2025\/08\/29\/nuevo-metodo-permite-que-modelos-de-ia-olviden-datos-privados-y-con-derechos-de-autor\/","title":{"rendered":"Nuevo m\u00e9todo permite que modelos de IA olviden datos privados y con derechos de autor"},"content":{"rendered":"\n<p>Un equipo de cient\u00edficos inform\u00e1ticos de la UC Riverside (UCR) ha desarrollado un m\u00e9todo para borrar datos privados y protegidos por derechos de autor de los modelos de inteligencia artificial, sin necesidad de acceder a los datos de entrenamiento originales. Este avance, detallado en un art\u00edculo presentado en julio en la Conferencia Internacional sobre Aprendizaje Autom\u00e1tico en Vancouver, Canad\u00e1, aborda una creciente preocupaci\u00f3n mundial sobre los materiales personales y protegidos por derechos de autor que permanecen en los modelos de IA indefinidamente (y, por lo tanto, son accesibles para los usuarios del modelo), a pesar de los esfuerzos de los creadores originales por eliminar o proteger su informaci\u00f3n con muros de pago y contrase\u00f1as. El estudio tambi\u00e9n fue\u00a0<a href=\"https:\/\/arxiv.org\/abs\/2506.06486\" target=\"_blank\" rel=\"noreferrer noopener\">publicado<\/a>\u00a0en el servidor de preimpresiones\u00a0arXiv.<\/p>\n\n\n\n<p>La innovaci\u00f3n de UCR obliga a los modelos de IA a &#8220;olvidar&#8221; informaci\u00f3n seleccionada, manteniendo su funcionalidad con los datos restantes. Se trata de un avance significativo que permite modificar los modelos sin tener que rehacerlos con los voluminosos datos de entrenamiento originales, lo cual es costoso y consume mucha energ\u00eda. Este enfoque tambi\u00e9n permite eliminar informaci\u00f3n privada de los modelos de IA incluso cuando los datos de entrenamiento originales ya no est\u00e1n disponibles.<\/p>\n\n\n\n<p>&#8220;En situaciones reales, no siempre es posible recuperar los datos originales&#8221;, afirm\u00f3 \u00dcmit Yi\u011fit Ba\u015faran, estudiante de doctorado en ingenier\u00eda el\u00e9ctrica e inform\u00e1tica de la UCR y autor principal del estudio. &#8220;Hemos creado un marco certificado que funciona incluso cuando esos datos ya no est\u00e1n disponibles&#8221;.<\/p>\n\n\n\n<p>La necesidad es apremiante. Las empresas tecnol\u00f3gicas se enfrentan a nuevas leyes de privacidad, como el Reglamento General de Protecci\u00f3n de Datos de la Uni\u00f3n Europea y la Ley de Privacidad del Consumidor de California, que rigen la seguridad de los datos personales integrados en sistemas de aprendizaje autom\u00e1tico a gran escala. Adem\u00e1s, The New York Times est\u00e1 demandando a OpenAI y Microsoft por el uso de sus numerosos art\u00edculos con derechos de autor para entrenar modelos Generative Pre-trained Transformer (GPT).<\/p>\n\n\n\n<p>Los modelos de IA &#8220;aprenden&#8221; los patrones de palabras a partir de grandes cantidades de texto extra\u00eddo de internet. Al ser consultados, los modelos predicen las combinaciones de palabras m\u00e1s probables, generando respuestas en lenguaje natural a las indicaciones del usuario. En ocasiones, generan reproducciones casi textuales de los textos de entrenamiento, lo que permite a los usuarios sortear los muros de pago de los creadores de contenido.<\/p>\n\n\n\n<p>El equipo de investigaci\u00f3n de UC Riverside, compuesto por Ba\u015faran, el profesor Amit Roy-Chowdhury y el profesor adjunto Ba\u015fak G\u00fcler, desarroll\u00f3 lo que denominan un m\u00e9todo de &#8220;desaprendizaje certificado sin fuente&#8221;. Esta t\u00e9cnica permite a los desarrolladores de IA eliminar datos espec\u00edficos mediante un conjunto de datos sustituto que se asemeja estad\u00edsticamente a los datos originales.<\/p>\n\n\n\n<p>El sistema ajusta los par\u00e1metros del modelo y agrega ruido aleatorio cuidadosamente calibrado para garantizar que la informaci\u00f3n buscada se borre y no se pueda reconstruir. Su marco se basa en un concepto de optimizaci\u00f3n de IA que aproxima eficazmente c\u00f3mo cambiar\u00eda un modelo si se hubiera reentrenado desde cero. El equipo de la UCR mejor\u00f3 este enfoque con un nuevo mecanismo de calibraci\u00f3n de ruido que compensa las discrepancias entre los conjuntos de datos originales y los sustitutos. Los investigadores validaron su m\u00e9todo usando conjuntos de datos sint\u00e9ticos y del mundo real y descubrieron que brindaba garant\u00edas de privacidad cercanas a las logradas con un reentrenamiento completo, pero requer\u00eda mucho menos poder de c\u00f3mputo.<\/p>\n\n\n\n<p>El trabajo actual se aplica a modelos m\u00e1s simples (a\u00fan ampliamente utilizados), pero eventualmente podr\u00eda escalar a sistemas complejos como ChatGPT, dijo Roy-Chowdhury, codirector del Instituto de Investigaci\u00f3n y Educaci\u00f3n en Inteligencia Artificial Riverside (RAISE) de la UCR y profesor en la Facultad de Ingenier\u00eda Marlan y Rosemary Bourns.<\/p>\n\n\n\n<p>M\u00e1s all\u00e1 del cumplimiento normativo, la t\u00e9cnica es prometedora para\u00a0<a href=\"https:\/\/techxplore.com\/tags\/media+organizations\/\">medios de comunicaci\u00f3n<\/a>, instituciones m\u00e9dicas y otros que gestionan datos sensibles integrados en modelos de IA, seg\u00fan los investigadores. Tambi\u00e9n podr\u00eda permitir a las personas exigir la eliminaci\u00f3n de contenido personal o protegido por derechos de autor de los sistemas de IA.<\/p>\n\n\n\n<p>&#8220;La gente merece saber que sus datos pueden borrarse de los modelos de aprendizaje autom\u00e1tico, no s\u00f3lo en teor\u00eda, sino de maneras pr\u00e1cticas y demostrables&#8221;, afirm\u00f3 G\u00fcler.<\/p>\n\n\n\n<p>Los pr\u00f3ximos pasos del equipo implican perfeccionar el m\u00e9todo para trabajar con tipos de modelos y conjuntos de datos m\u00e1s complejos y crear herramientas para que la tecnolog\u00eda sea accesible para los desarrolladores de IA de todo el mundo.<\/p>\n\n\n\n<p>El art\u00edculo se titula &#8220;Un enfoque de desaprendizaje certificado sin acceso a los datos fuente&#8221;. Se realiz\u00f3 en colaboraci\u00f3n con Sk Miraj Ahmed, investigador asociado en ciencias computacionales del Laboratorio Nacional Brookhaven en Upton, Nueva York, quien obtuvo su doctorado en la UCR.<\/p>\n\n\n\n<p>Tanto Roy-Chowdhury como G\u00fcler son miembros del profesorado del Departamento de Ingenier\u00eda El\u00e9ctrica e Inform\u00e1tica con nombramientos secundarios en el Departamento de Ciencias de la Computaci\u00f3n e Ingenier\u00eda.<\/p>\n\n\n\n<p>Fuente: <a href=\"https:\/\/techxplore.com\/news\/2025-08-scientists-private-ai.html\">Tech Xplore<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un equipo de cient\u00edficos inform\u00e1ticos de la UC Riverside (UCR) ha desarrollado un m\u00e9todo para borrar datos privados y protegidos por derechos de autor de los modelos de inteligencia artificial, sin necesidad de acceder a los datos de entrenamiento originales. Este avance, detallado en un art\u00edculo presentado en julio en la Conferencia Internacional sobre Aprendizaje [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":82815,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":["post-82802","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/82802","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/comments?post=82802"}],"version-history":[{"count":12,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/82802\/revisions"}],"predecessor-version":[{"id":82814,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/82802\/revisions\/82814"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media\/82815"}],"wp:attachment":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media?parent=82802"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/categories?post=82802"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/tags?post=82802"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}