Dinamarca podría convertirse en el primer país en prohibir los deepfakes

Tecnología

Primero fue Taylor Swift. Imágenes inventadas de la estrella del pop inundaron las redes sociales, vistas millones de veces antes de que las plataformas se apresuraran a contenerlas. Luego llegaron las voces de los directores ejecutivos, recreadas de forma tan convincente que se produjeron estafas de seis dígitos. Después llegaron las estafas generalizadas, cada vez más comunes.

Los deepfakes, falsificaciones generadas por IA que imitan rostros y voces con una precisión asombrosa, son un problema creciente. Dinamarca contraataca. El gobierno ha presentado una legislación que haría ilegal publicar deepfakes que muestren a personas reales sin su consentimiento, una medida que podría convertir al país en el primer país del mundo en implementar una prohibición total del contenido deepfake no autorizado.

Una amenaza muy real

“La legislación aquí tiene como objetivo principal proteger la democracia y garantizar que no se puedan difundir videos deepfake donde la gente dice cosas que jamás soñaría decir en la realidad”, declaró el ministro de Cultura de Dinamarca, Jakob Engel-Schmidt, durante un comunicado de prensa el 24 de abril.

Según el ministro, la legislación danesa actual, en particular la protección de los derechos de autor, carece de la redacción necesaria para abordar cómo la IA puede replicar la imagen de una persona. Esto ocurre actualmente en casi todos los países del mundo. La legislación propuesta actualizaría la legislación para otorgar a los ciudadanos derechos sobre su propio cuerpo, voz, rasgos faciales e imágenes.

Esta es una medida oportuna, ya que los deepfakes no son una preocupación teórica. Y, para Dinamarca, son un golpe muy cercano. El año pasado, el ministro de Asuntos Exteriores, Lars Løkke Rasmussen, fue atacado mediante una videollamada deepfake. El rostro y la voz en pantalla pertenecían, supuestamente, a Moussa Faki, presidente de la Unión Africana. Pero se trataba de una suplantación orquestada por un par de bromistas rusos.

Así pues, la amenaza es muy real, y Dinamarca parece dispuesta a tomar medidas decisivas. La mayoría del Parlamento firmó un acuerdo el pasado junio para restringir el uso de deepfakes en la comunicación política. Según el pacto, los partidos políticos acordaron utilizar únicamente contenido manipulado por IA cuando esté claramente etiquetado, y únicamente con el consentimiento de las personas representadas. La nueva ley nacional propuesta llevaría las cosas aún más lejos.

¿Cómo funcionaría una ley así?

Bajo las nuevas reglas, cualquier persona que publique contenido manipulado, como deepfakes, sin su permiso, tendrá la obligación de eliminarlo. Las plataformas tecnológicas, incluidas las principales redes sociales, estarán legalmente obligadas a eliminar el contenido deepfake marcado cuando se les solicite.

“Si una persona descubre que alguien ha hecho un video deepfake de ella sin permiso, la ley garantizará que los gigantes tecnológicos lo eliminen”, dijo Engel-Schmidt.

Es importante destacar que la ley incluye exenciones. La sátira y la parodia seguirán siendo legales, siempre que el contenido esté claramente etiquetado como artificial. Si hay desacuerdo sobre si algo se considera sátira o manipulación, dijo Engel-Schmidt, “esto sería una cuestión que correspondería a los tribunales”.

También rechazó las preocupaciones de que la propuesta vulnerara la libertad de expresión. «Esto es para proteger el discurso público», dijo. «El robo de identidad siempre ha sido ilegal».

Si se aprueba, la propuesta danesa podría colocar al país a la vanguardia de un nuevo tipo de marco de derechos digitales: uno que trate la imagen digital de una persona como una extensión de su identidad.

Pero la gran pregunta es si las empresas realmente harán cumplir tales demandas y cómo se identificaría ese contenido como un deepfake.

El dilema global de los deepfakes

El desafío que enfrenta Dinamarca se refleja en todo el mundo; otros países simplemente tardan más en reaccionar. En Estados Unidos, la indignación por la pornografía deepfake no consensuada, incluyendo imágenes falsas de desnudos de la estrella del pop Taylor Swift, impulsó a la Casa Blanca a tomar medidas. En abril de 2025, el Congreso aprobó la Ley de Eliminación de Contenidos (Take It Down Act), que exige a las plataformas eliminar contenido íntimo generado por IA en un plazo de 48 horas. Quienes incumplan esta norma se enfrentan a penas de prisión.

Corea del Sur ha ido aún más lejos. Desde finales de 2024, penaliza la creación, posesión o distribución de deepfakes sexualmente explícitos, con penas de hasta siete años de prisión. China, por su parte, introdujo normas en 2023 que exigen que todos los medios sintéticos estén claramente etiquetados y sean rastreables hasta sus creadores. Los infractores pueden enfrentarse a procesos penales.

La Ley de Inteligencia Artificial de la Unión Europea, finalizada el año pasado, adopta una postura más amplia, pero menos agresiva. Exige que los deepfakes se etiqueten, pero no llega a prohibir su publicación. Esto refleja el enfoque regulatorio de la UE basado en el riesgo: el contenido sintético se considera de “riesgo limitado” a menos que se utilice con fines de desinformación o fraude.

En comparación, la propuesta de Dinamarca tiene un alcance más limitado, pero una aplicación más rigurosa. Se centra en la protección de los derechos individuales, no sólo en la transparencia. De aprobarse, iría más allá de la exigencia de etiquetas. Prohibiría publicar la imagen de otra persona en medios manipulados sin su consentimiento, lo que podría convertir a Dinamarca en el primer país en consagrar dicha prohibición en su legislación.

¿Se hará cumplir esto?

Pero incluso si se aprueba la ley, ¿funcionará?

Básicamente, dependemos de una carrera armamentística de IA capaz de identificar contenido deepfake y confirmar su autenticidad. En el centro de esta carrera se encuentra una técnica de aprendizaje automático llamada Redes Generativas Antagónicas (GAN). Estos modelos funcionan en oposición: uno genera deepfakes, el otro intenta detectarlos. Cada uno aprende del otro. Con el tiempo, el generador mejora, a menudo superando al detector.

“El principio de aprendizaje GAN se basa en una carrera armamentista entre dos modelos de IA… hasta que el modelo de detección ya no puede distinguir entre la realidad y lo falso”, dijo Morten Mørup, investigador de inteligencia artificial de la Universidad Técnica de Dinamarca.

“Esto es lo que hace que sea tan difícil para las personas y los modelos de IA distinguir entre lo real y lo falso”, añade el investigador.

Esta dinámica del gato y el ratón dificulta enormemente que las plataformas detecten con fiabilidad el contenido manipulado. Incluso cuando se detecta un deepfake, es posible que ya se haya viralizado para cuando se solucione.

No hay soluciones claras ni sencillas. Incluso si se aprueba la legislación, Mørup advierte que el público debería asumir que ningún medio es real a menos que esté autenticado por un actor fiable: «Seguirá habiendo gente que pueda generar contenido sin declararlo… Debemos practicar la crítica de las fuentes y comprender que vivimos en un mundo de desinformación».

Fuente: ZME Science.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *