PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Inteligencia artificial vs. derechos de autor

En Estados Unidos, el debate sobre la relación entre la inteligencia artificial y los derechos de autor se intensifica y resulta especialmente interesante, porque en la Unión Europea el tema todavía no se ha discutido a fondo. Veamos algunos casos:

Stability AI, DeviantArt y Midjourney

Sarah Andersen, Kelly McKernan y Karla Ortiz, tres ilustradoras, demandaron a las compañías Stability AI, DeviantArt y Midjourney, atribuyéndoles diversas infracciones relacionadas con derechos de autor y competencia desleal.

El conflicto surge por el uso del algoritmo Stable Diffusion, el cual genera imágenes nuevas a partir de una descripción de texto proporcionada por el usuario. Para lograrlo, el algoritmo se entrena con millones de imágenes, muchas de ellas protegidas por derechos de autor, que incluyen derechos exclusivos de reproducción, distribución, comunicación pública y transformación.

Las demandadas se ampararon en la cláusula «fair use» (uso justo) contemplada en la Sección nº 107 de la Copyright Act, que admite la posibilidad de realizar un uso legítimo de obras protegidas por derechos de autor para determinados fines, como críticas, comentarios, informes de noticias, enseñanza o investigación. Para determinar si un uso es justo, la norma dispone que se contemplen cuatro factores:

  1. El propósito y el carácter del uso, incluido si es de naturaleza comercial o tiene fines educativos sin ánimo de lucro.
  2. La naturaleza de la obra protegida por derechos de autor.
  3. La cantidad y sustancialidad de la porción utilizada en relación con la obra original.
  4. El efecto del uso en el mercado potencial o el valor de la obra original.

En octubre de 2023, el juez Orrick del Tribunal de Distrito Norte de California desestimó la demanda de McKernan y Ortiz porque no habían registrado previamente sus obras en la Oficina de Derechos de Autor de Estados Unidos, un requisito indispensable en este tipo de litigios. Andersen sí había registrado sus obras, por lo que su reclamo de infracción permitió continuar el procedimiento contra Stability AI por infracción de derechos de autor, competencia desleal y violaciones a la Lanham Act. Dejo enlazada aquí la resolución.

Andersen escribió un ensayo para The New York Times titulado La extrema derecha manipuló mi cómic. Luego, la IA lo reclamó, donde cuenta cómo su obra fue usada por Stable Diffusion sin permiso. En el texto relata que, al escribir su nombre en el generador de imágenes de Stable Diffusion, este generó nuevas ilustraciones con su característico estilo artístico. Las recreaciones no eran perfectas, pero tenían los rasgos más característicos de sus cómics, lo que la llevó a escribir: «Veo un monstruo formándose», en referencia a la posible amenaza de los generadores de imágenes para el sustento de artistas como ella.

En 2026, el procedimiento sigue su curso y podría establecer un precedente significativo sobre la utilización de materiales protegidos por derechos de autor en el entrenamiento de modelos de IA generativa.

OpenAI

Raw Story Media, Inc. y AlterNet Media, Inc., dos medios digitales estadounidenses, presentaron una demanda contra OpenAI por el uso no autorizado de sus artículos para entrenar ChatGPT. Los demandantes alegaron que OpenAI eliminó intencionadamente los metadatos de autoría (copyright management information o CMI) con el fin de dificultar la detección de infracciones de derechos de autor y permitir que el modelo reprodujera y redistribuyera sus obras protegidas sin permiso.

La demanda se fundamentó principalmente en la Sección 1202(b) de la Digital Millennium Copyright Act (DMCA), que protege la «información de gestión de derechos de autor» (como el nombre del autor, el título de la obra, términos de licencia y otros metadatos identificativos). Dicha disposición prohíbe:

  1. Eliminar o alterar intencionadamente esa información sin autorización, y
  2. Distribuir obras protegidas a sabiendas de que dicha información ha sido eliminada o alterada sin permiso.

La jueza Colleen McMahon, del Distrito Sur de Nueva York, desestimó íntegramente la demanda contra OpenAI el 7 de noviembre de 2024. En su sentencia, consideró que los demandantes no lograron demostrar un daño concreto y cuantificable derivado de la supuesta eliminación de los metadatos. La magistrada señaló, además, que los grandes modelos de lenguaje (LLM) como los de OpenAI no reproducen literalmente obras protegidas, sino que generan respuestas nuevas a partir de patrones estadísticos aprendidos durante el entrenamiento, lo que hace extremadamente difícil probar una infracción directa de copyright o un perjuicio específico causado por la ausencia de metadatos.

Este fallo sigue la misma línea que otros precedentes recientes en Estados Unidos, como las demandas contra GitHub Copilot (Microsoft) y Meta, en las que los tribunales han rechazado las pretensiones de violación de la DMCA al concluir que los demandantes no acreditaron un nexo causal suficiente entre la eliminación de metadatos y un daño real, ni lograron demostrar que las salidas de los modelos constituyeran copias sustancialmente similares de las obras originales.

Thomson Reuters Enterprise Centre GmbH vs. Ross Intelligence Inc. 

El 11 de febrero de 2025, el juez Stephanos Bibas, del Tribunal de Distrito de Delaware, tomó una decisión histórica: por primera vez, un tribunal resolvió que entrenar una IA con obras protegidas por derechos de autor no siempre está amparado por el fair use. Dejo enlazada aquí su resolución.

Thomson Reuters, dueña de Westlaw —la mayor base de datos jurídica del mundo— demandó a Ross Intelligence, una startup que quería competir con ella. Ross Intelligence creó un buscador legal basado en IA, pero para entrenarlo empleó los resúmenes originales (headnotes) que son redactados por los abogados de Westlaw y que son parte de su sistema de clasificación exclusivo (Key Number System). Para ello, Ross Intelligence contrató a una empresa externa (LegalEase) que generó miles de documentos que reproducían casi textualmente los headnotes protegidos. Después usó todo eso para entrenar su modelo de inteligencia artificial.

El juez analizó cuatro factores legales:

  1. Uso y propósito: el uso era comercial y competía directamente con Westlaw. El uso no era «transformador» porque Ross Intelligence básicamente quería ofrecer el mismo servicio que Westlaw, solo que con IA. Lo diferenció del caso Google vs. Oracle, donde sí se permitió copiar porque era necesario para crear algo nuevo y funcional.
  2. Naturaleza de la obra copiada: los headnotes tienen creatividad (un abogado elige qué es importante y cómo expresarlo), por lo tanto merecen protección. 
  3. Importancia de lo copiado: usaron los headnotes completos para entrenar la IA, aunque el usuario no los viera tal cual. El juez consideró que eso sigue siendo una copia.
  4. Efecto en el mercado: Si cualquiera puede copiar Westlaw para hacer un competidor gratuito, nadie pagará por Westlaw ni por licencias de datos para IA mañana. El juez lo llamó un “sustituto directo” del producto original.

En palabras sencillas del juez: «No basta con decir «es que lo usé para entrenar una IA» o «el usuario final nunca ve el texto copiado». Si lo haces con fines comerciales, sin transformarlo de verdad y compitiendo con el dueño original, el fair use no te protege».

El Juez consideró que la doctrina del fair use no era aplicable, concluyendo que el uso de los headnotes para el entrenamiento de modelos de IA no era transformador. Además, competía directamente con el producto original, afectando su mercado, por lo que dictó sentencia a favor de la parte demandante por infracción directa de los derechos de autor sobre los headnotes. La resolución no es firme y sigue su curso.

Anthropic

Wallace Johnson, Andrea Bartz y Charles Graeber demandaron a Anthropic, argumentando que la compañía había ignorado los derechos de autor que protegen sus obras en el entrenamiento de Claude.

El juez William Alsup, del Tribunal del Distrito Norte de California, dictaminó que Anthropic no infringió la ley al utilizar libros con derechos de autor para entrenar a su chatbot sin el consentimiento de los autores ni de los editores. Dejo enlazada aquí la sentencia. Argumentó que el uso de los libros por parte de Anthropic para entrenar a sus modelos lingüísticos era similar al de un aspirante a escritor que lee textos con derechos de autor no para adelantarse y replicar o suplantar esas obras, sino para dar un giro radical y crear algo diferente.

Aunque Anthropic obtuvo una victoria parcial en los tribunales, al confirmarse que el entrenamiento de sus modelos con libros adquiridos legalmente constituye un uso justo, la compañía tuvo que responder a las acusaciones de piratería digital a gran escala tras haber descargado millones de libros protegidos por derechos de autor desde sitios de piratería para conformar una biblioteca interna utilizada en el entrenamiento de Claude. El juez subrayó que el hecho de que Anthropic adquiriera posteriormente copias legales de parte de esas obras no la exime de la responsabilidad por la descarga y conservación inicial de copias ilegales.

Anthropic acordó pagar 1.500 millones de dólares para resolver la demanda colectiva presentada por autores afectados por la acción de pirateo. Este es un acuerdo histórico y puede marcar un punto de inflexión en futuras batallas por violación de los derechos de autor.

El juez Alsup se basó en precedentes como Google vs. Oracle (593 U.S. 1, 2021) que admite el fair use incluso en uso comercial si el fin es suficientemente transformador; Authors Guild vs. Google (804 F.3d 202, 2d Cir. 2015) que admite como uso justo el escaneo masivo de libros; Thomson Reuters vs. Ross (D. Del. 2025) que establece que el uso de textos jurídicos para IA no fue transformativo o White vs. West Pub. (S.D.N.Y. 2014) que consideró que constituye fair use usar textos jurídicos para convertir y reutilizar material público de manera transformativa en bases de datos comerciales.

Iniciativas políticas en Estados Unidos

El Subcomité Judicial de la Cámara de Representantes de Estados Unidos sobre Tribunales, Propiedad Intelectual e Internet ha celebrado varias audiencias sobre inteligencia artificial y derechos de autor.

La Oficina de Derechos de Autor de Estados Unidos (USCO) ha elaborado diversos informes sobre el uso de la inteligencia artificial para replicar apariencias, voces y otros aspectos de la identidad de las personas; sobre la protección por derechos de autor de obras que incorporan material generado por inteligencia artificial; y entrenamiento de modelos de inteligencia artificial con obras protegidas por derechos de autor. La USCO entiende que este uso no está amparado automáticamente por el fair use y sugiere explorar licencias colectivas o modelos obligatorios para regular el entrenamiento.

La USCO tiene prevista una actualización del Compendio de Prácticas de la Oficina de Derechos de Autor de Estados Unidos, tras una consulta pública que reunió más de 10.000 comentarios de artistas, abogados, docentes, editores y asociaciones comerciales que representan a los 50 estados y a 67 países. 

La inteligencia artificial generativa y los derechos de autor han sido objeto de más de dos docenas de demandas en Estados Unidos, mesas redondas con partes interesadas lideradas por la Comisión Federal de Comercio de Estados Unidos y varios proyectos de ley: en la Cámara de Representantes, el Proyecto de Ley 7913, de 9 de abril de 2024, de Divulgación de Derechos de Autor de IA Generativa (Generative AI Copyright Disclosure Act) y en el Senado, el Proyecto de Ley 4674, de 11 de julio de 2024, de Protección del Origen del Contenido y la Integridad de los Medios Editados y Deepfake (Content Origin Protection and Integrity from Edited and Deepfaked Media Act).

En Estados Unidos, la legislación sobre derechos de autor se desarrolló a partir de la Cláusula de Patentes y Derechos de Autor de la Constitución y, posteriormente, de la Ley de Derechos de Autor de 1976 que exige que todas las obras susceptibles de protección sean de autoría humana y originales. De hecho, la USCO se niega a registrar los derechos de autor de obras sin un autor humano (caso Matt Blaszczyk). No obstante, el uso de la inteligencia artificial en la creación de una obra no constituye por sí mismo un impedimento para lograr el registro de una obra. Si el software simplemente asiste en la expresión del autor, el resultado podría ser protegible. De igual manera, si el autor organiza creativamente los resultados de un sistema de inteligencia artificial o los edita significativamente, el resultado final también podría ser protegible. Hasta febrero de 2024, la USCO había emitido registros para más de 100 obras asistidas por inteligencia artificial generativa.

Para que los modelos de IA funcionen, necesitan participar en la minería de datos de texto (TDM). Se trata de un proceso que permite a la inteligencia artificial aprender de los datos, estructurarlos y revelar patrones. Cuando la inteligencia artificial extrae, descarga y procesa obras podría estar infringiendo el derecho de reproducción protegido por la ley de derechos de autor, si bien este derecho no es absoluto y está sujeto a limitaciones por la doctrina del «uso legítimo», aunque la prueba es compleja.

Algunas empresas han optado por firmar acuerdos de licencia con los titulares de derechos, otras están litigando y otras han decidido entrenar sus algoritmos con los datos que ya poseen.

Si quieren ampliar los detalles, les recomiendo el artículo de Matt Blaszczyk, Geoffrey McGovern y Karlyn D. Stanley sobre El impacto de la inteligencia artificial en la legislación sobre derechos de autor.

Otras iniciativas y regulaciones

En la Unión Europea tenemos la Directiva 2001/29/CE, de 22 de mayo de 2001, relativa a la armonización de determinados aspectos de los derechos de autor y derechos afines a los derechos de autor en la sociedad de la información que deja en manos de los Estados miembros establecer «en favor de los autores el derecho exclusivo a autorizar o prohibir cualquier comunicación al público de sus obras, por procedimientos alámbricos o inalámbricos, incluida la puesta a disposición del público de sus obras de tal forma que cualquier persona pueda acceder a ellas desde el lugar y en el momento que elija» (artículo 3). También encarga a los Estados miembros que regulen el derecho de distribución en favor de los autores, para que puedan «autorizar o prohibir toda forma de distribución al público, ya sea mediante venta o por cualquier otro medio» (artículo 4). No obstante, se prevén una serie de limitaciones o restricciones al derecho exclusivo en el artículo 5 de la Directiva.

Los profesores Tim W. Dornis de la Universidad de Leibniz (Hannover) y el Sebastian Stober de la Universidad Otto-von-Guericke (Magdeburgo) –jurista e informático, respectivamente– elaboraron un informe que titularon Derechos de autor y entrenamiento de modelos de inteligencia artificial generativa: fundamentos tecnológicos y legales. La investigación revela que dichos modelos pueden estar infringiendo los derechos de autor. El informe se presentará ante el Parlamento Europeo.

En Japón parece que quieren ir un paso más allá en un movimiento sorprendente. El ministro de Educación, Cultura, Deportes, Ciencia y Tecnología, Keiko Nagaoka, ha comunicado que el gobierno no hará cumplir los derechos de autor sobre los datos utilizados en el entrenamiento de inteligencia artificial. A muchos creadores de anime y artes gráficas les preocupa que la inteligencia artificial pueda reducir el valor de su trabajo. En cambio, los sectores académico y empresarial están presionando al gobierno para que use las relajadas leyes de la nación para impulsar a Japón al dominio global de la inteligencia artificial.

Para concluir, quisiera compartir con Uds. un interesantísimo estudio de Nerea Sanjuan Rodríguez titulado Nueva aproximación al concepto de autoría de las creaciones generadas con y por inteligencia artificial, ¿Cuánta intervención humana es necesaria? publicado en Diario La Ley.

Conclusión

Más de 8.000 autores han dirigido una carta abierta a Sam Altman, director ejecutivo de OpenAI, a Sundar Pichai, director ejecutivo de Alphabet, a Mark Zuckerberg, director ejecutivo de Meta, a Emad Mostaque, CEO de Stability AI, a Arvind Krishna, director ejecutivo de IBM y a Satya Nadella, CEO de Microsoft, en la que denuncian la injusticia inherente a la explotación por los sistemas de inteligencia artificial generativa de sus obras, protegidas por derechos de autor, sin consentimiento, crédito o compensación. 

La inteligencia artificial ha pillado al mundo entero con el pie cambiado. Urge legislar y adaptar las normas a la nueva realidad y, por supuesto, compensar el uso de obras protegidas por derechos de propiedad intelectual para entrenar a los algoritmos. Una opción puede ser la imposición de un canon a las empresas, parecido al canon por copia privada o crear una especie de Lista Robinson para que los autores puedan prohibir el uso de sus obras por los modelos generativos.

En España, el Ministerio de Cultura promueve un proyecto de Real Decreto, cuyo texto dejo enlazado aquí, por el que se regula la concesión de licencias colectivas ampliadas para la explotación masiva de obras y prestaciones protegidas por derechos de propiedad intelectual para el desarrollo de modelos de inteligencia artificial de uso general. 

No se pierda nuestro podcast sobre el artículo

 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es