Dos autores demandan a OpenAI por entrenar a ChatGPT con sus libros

Tecnología

Imagina que lees un libro. Memorizas los detalles del libro y reflexionas sobre las ideas contenidas en él. Entonces alguien te hace una pregunta sobre el libro. Le proporcionas las respuestas del libro.

¿Te sorprendería si el autor del libro intentara demandarte por infracción de derechos de autor?

OpenAI se enfrenta exactamente a esta situación. Los autores Mona Awad (Bunny, 13 Ways of Looking at a Fat Girl) y Paul Tremblay (The Cabin at the End of the World), presentaron una demanda contra OpenAI la semana pasada, alegando que los libros se usaron para entrenar a ChatGPT, su software de inteligencia artificial, sin su consentimiento. Es la primera demanda contra ChatGPT relacionada con los derechos de autor, informó The Guardian. La única diferencia con el escenario descrito anteriormente es que, en lugar de que un ser humano lea un libro, se acusa a OpenAI de permitir que su programa de IA copie un libro en su base de datos interna y se entrene en él.

¿Cuál es la probabilidad de éxito de la demanda?
OpenAI es un modelo de lenguaje grande (LLM). Estos LLM se entrenan con datos en forma de trabajos escritos para proporcionar respuestas en lenguaje natural a las indicaciones.

La base de la demanda es que OpenAI se entrenó en sus novelas y produjo resúmenes precisos de sus trabajos cuando se le solicitó. En particular, la demanda no especifica qué partes específicas de las novelas de Awad y Tremblay se han copiado y reproducido ilegalmente en los resúmenes.

La demanda alega que OpenAI usa “bibliotecas en la sombra” que publican ilegalmente miles de obras con derechos de autor (usando sistemas de torrent). Su afirmación se basa en un artículo de 2020 de OpenAI que revela que el 15% de su conjunto de datos de capacitación proviene de “dos corpus de libros basados en Internet”.

Pero la demanda enfrenta algunos obstáculos inmediatos. Los litigantes deberán demostrar que lo más probable es que OpenAI copió sus trabajos. También deberán demostrar la probabilidad de alguna pérdida económica. Fundamentalmente, la protección de los derechos de autor no se extiende a las ideas.

La protección de los derechos de autor se limita a la expresión escrita. Y aunque copiar algo en una base de datos puede ser un acto de infracción, es poco probable que ese acto por sí solo cause un daño significativo a los intereses económicos de los autores. El peligro real es que OpenAI puede hacer algunas de las cosas que pueden hacer los autores humanos.

¿Cómo se aplica la ley australiana?
OpenAI es solo la primera generación de cómo se ve esta tecnología. Sin duda, muchos autores (y otros productores creativos) están comenzando a preguntarse qué sucederá cuando OpenAI y tecnologías similares evolucionen.

La Ley de Moore, un cálculo que estima que la capacidad de la tecnología digital se duplica aproximadamente cada dos años, sugiere que la tasa de este desarrollo podría ser exponencial ¿Qué pasaría si se presentara un reclamo similar en Australia? ¿Nuestras leyes de trato justo intervendrían y protegerían el desarrollo de la tecnología, o nuestra ley se pondría del lado de los autores?

Los Estados Unidos tienen la doctrina del uso justo en sus leyes de derechos de autor. En el pasado, el uso legítimo se utilizó para establecer un equilibrio entre las nuevas tecnologías y los derechos de autor establecidos. La caja de la videograbadora de Sony es un ejemplo famoso.

En el caso de Sony, la mayoría de la Corte Suprema de EE. UU. permitió a los propietarios de viviendas grabar sus programas de televisión favoritos y verlos más tarde, siempre que no guardaran las grabaciones. En comparación, Australia no legalizó esto hasta 2006. El uso justo también permitió que el grupo de rap 2-Live Crew reelaborara radicalmente y parodiara la canción Pretty Woman de Roy Orbison.

Australia ha incluido efectivamente la esencia de algunas decisiones de uso justo en su Ley de derechos de autor. La Ley de derechos de autor de Australia contiene disposiciones sobre el cambio de hora y el trato justo para la parodia. Sin embargo, Australia se ha negado repetidamente a incluir el uso justo dentro de su ley.

En cambio, confiamos en su primo difícil de manejar, conocido como la doctrina del trato justo. Una afirmación como la que Mona Awad y Paul Tremblay están haciendo contra OpenAI probablemente fracasaría en Australia.

Las ideas no están protegidas
Al igual que los Estados Unidos, la ley australiana protege la expresión tangible, pero no las ideas. La gente necesita ser libre para usar ideas en trabajos posteriores.

La misma lógica debería aplicarse a los modelos de lenguaje grande como OpenAI. Y surge una barrera formidable en las ideas fundamentales de la ley de derechos de autor.

Los derechos de autor se concibieron y refinaron en una era en la que la escritura y la copia estaban a cargo de seres humanos. Esto significa que los conceptos fundamentales dentro de la ley relacionados con la subsistencia (demostrar la existencia continua de una obra), la infracción y las excepciones están centrados en el ser humano.

Esta es una gran montaña para escalar en cualquier litigio de derechos de autor. Si un actor humano no ha cometido un acto de infracción, puede ser difícil encontrar a otro ser humano responsable, aunque un autor se sienta agraviado.

Sin embargo, el problema básico es que la ley australiana no alberga una regla legal abierta como el uso justo, que puede generar un delicado equilibrio entre la tecnología y los autores. Y todavía tenemos el debate de política aquí sobre cómo manejaremos el conflicto que se avecina entre las tecnologías que avanzan rápidamente y los autores que dependen de su escritura para su sustento.

El litigio de OpenAI bien podría fracasar. Pero es solo la primera salva en un gran cambio de base impulsado por la IA en los derechos de autor.

Fuente: Tech Xplore.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *