Parece que la justicia entiende la inteligencia artificial: si no hay copia, no hay delito

La reciente victoria de Anthropic frente a las discográficas agrupadas en la RIAA debería hacer reflexionar a quienes todavía creen que entrenar modelos de inteligencia artificial con contenido disponible públicamente constituye una violación del copyright. El juez de distrito William Alsup ha sido claro al establecer que los demandantes no alegan que Claude regurgitara ninguna …

Mar 27, 2025 - 12:19
 0
Parece que la justicia entiende la inteligencia artificial: si no hay copia, no hay delito

IMAGE: OpenAI's DALL·E, via ChatGPT

La reciente victoria de Anthropic frente a las discográficas agrupadas en la RIAA debería hacer reflexionar a quienes todavía creen que entrenar modelos de inteligencia artificial con contenido disponible públicamente constituye una violación del copyright.

El juez de distrito William Alsup ha sido claro al establecer que los demandantes no alegan que Claude regurgitara ninguna de sus letras en respuesta a una solicitud de un usuario, y por tanto, no hay infracción. Así de sencillo.

Este fallo sigue el mismo razonamiento que ya vimos en septiembre en el caso DOJ vs. LAION en Alemania, al que dediqué un artículo porque sentó una base importantísima: si el sistema no copia literalmente, ni reproduce, ni distribuye el contenido original, no puede haber infracción. Como escribí entonces, una IA no memoriza ni plagia, sino que sintetiza. La idea de que estos modelos están «robando» contenido es absurda, y empieza a parecerlo también cada vez más para los jueces. El único «robo» está en la calenturienta imaginación de los gestores de derechos de autor.

Por mucho que la retorcida lógica de los gestores de derechos de autor pretenda que solo con que mires o te acerques a una creación, ya tienes que pagarles, la cuestión parece obvia: no estamos hablando ni de pirateo, ni de distribución ilícita, ni de lucro a costa de obras ajenas. Hablamos de aprendizaje estadístico a partir de patrones. Lo que hacen los modelos generativos no es diferente a lo que hace cualquier ser humano: leer, entender, y construir sobre lo aprendido. ¿Van a demandarnos por haber leído a Shakespeare o a Cervantes?

La reacción de las grandes discográficas y editoras es de pánico legalista. En lugar de innovar, litigan. En lugar de adaptarse, presionan para reinterpretar leyes pensadas para otro mundo. Como ya argumenté anteriormente, estamos ante un intento desesperado de frenar el progreso con normativas obsoletas, o mejor, de una industria extraordinariamente codiciosa que pretende que todo el mundo les tenga que pagar hasta por respirar.

Mike Masnick, desde Techdirt, lo explica muy bien: la industria del copyright siempre ha intentado frenar las nuevas tecnologías —desde las grabadoras de cassettes o de vídeo hasta Napster o YouTube, escudándose en un supuesto derecho moral que, en realidad, es puro control económico. Pero la historia, más pronto o más tarde, siempre termina pasándoles por encima. Y esta vez, no será distinto.

Y mientras los litigantes se obsesionan con proteger un modelo de negocio cada vez más absurdo e irrelevante además de claramente predatorio (cobrar por todo y repartir unas migajas a los creadores originales), figuras como Mustafa Suleyman (DeepMind, Inflection, ahora Microsoft) recuerdan que la web fue construida precisamente sobre la idea de acceso abierto, no de propiedad cerrada. En su entrevista en el Aspen Ideas Festival, sobre la que hablé aquí, Suleyman lo dice sin rodeos: la información pública debe seguir siendo pública, especialmente si queremos construir una inteligencia artificial verdaderamente útil y representativa.

Otro referente clave en estos temas, Cory Doctorow, acuñó un término perfecto para esto: enshittification. Es lo que ocurre cuando las plataformas, y las industrias que las rodean destruyen progresivamente su valor en nombre del control y la monetización excesiva. Aplicar el copyright de forma reaccionaria a la inteligencia artificial no es proteger la cultura: es aislarla, degradarla y evitar que pueda servir para alimentar la evolución futura, para ser la base de nuevas creaciones.

La decisión en el caso Anthropic, aunque aún preliminar, apunta a una tendencia clara. Ya no basta con gritar «¡copyright!» como si fuera una alarma de incendio. Si no puedes demostrar que haya habido una copia literal o una distribución ilícita, tu caso se desmorona. Y eso es, exactamente, lo que debería pasar. La inteligencia artificial no distribuye contenido protegido, no lo almacena tal cual, no lo reproduce en masa. Lo que sí hacen es transformarlo, remezclarlo y reinterpretarlo. No es copia, es síntesis. Y como escribí hace meses, la creatividad artificial no se impone a la humana, sino que la complementa.

El futuro de la creación no puede depender de si una discográfica consigue convencer a un juez de que la creación de una inteligencia artificial «se parece demasiado» a una canción determinada, como si fueran los herederos de Marvin Gaye. El futuro pasa por aceptar que los algoritmos aprenden igual que nosotros. O quizás incluso mejor.