Una demanda colectiva contra Anthrope, alegando que la compañía usó libros pirateados de bibliotecas de sombras como Libgen y Pilimi para capacitar a sus modelos de IA, podría dar lugar a daños por derechos de autor sustanciales, con un juez federal que decide en juicios separados para la adquisición y capacitación, informa informes. Fortuna.
Anthrope, un laboratorio de inteligencia artificial líder, enfrenta un desafío legal que podría afectar significativamente su posición financiera. La demanda colectiva se centra en la supuesta utilización de libros pirateados de la compañía para capacitar a su modelo de lenguaje grande, Claude. Esta acción legal podría conducir a miles de millones de dólares en daños.
Las presentaciones judiciales indican que Anthrope descargó millones de obras con derechos de autor de bibliotecas de sombras como Libgen y Pilimi. Estas descargas se usaron supuestamente para entrenar modelos AI y construir una «biblioteca central» de libros digitales, destinados a abarcar «todos los libros del mundo» y preservarlos indefinidamente. Los demandantes, incluidos los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, sostienen que millones de estos trabajos se obtuvieron de sitios web de piratería, que constituyen violaciones directas de la ley de derechos de autor.
El juez William Alsup, que preside el caso, dictaminó recientemente que la capacitación de modelos de IA en libros adquiridos legalmente califica como «uso justo». Esta decisión significa que las empresas de IA no requieren una licencia de los titulares de derechos de autor para dicha capacitación, un desarrollo ampliamente considerado como una victoria significativa para el sector de IA. Sin embargo, el aspecto no resuelto del caso se refiere a los métodos de Anthrope para adquirir y almacenar los libros con derechos de autor. El juez Alsup distinguió entre el uso de materiales adquiridos legalmente y contenido pirateado, informando a Anthrope que se realizaría un juicio separado que aborda «las copias pirateadas» y «los daños resultantes».
Luke McDonagh, profesor asociado de derecho en LSE, comentó sobre la distinción entre materiales obtenidos y pirateados legalmente. Dijo: «El problema es que muchas de estas compañías de IA han raspado sitios de piratería como Libgen … donde los libros se han subido en forma electrónica, generalmente PDF, sin el permiso de los autores, sin pago». McDonagh elaboró que la perspectiva del juez sugiere que si Anthrope hubiera comprado millones de libros digitales de una fuente legítima como Amazon, la capacitación basada en esos libros sería legal. Hizo hincapié en que el acto de descargar de los sitios web piratas constituye el problema central, ya que implica tanto la adquisición de una copia no autorizada como su uso posterior.
Ed Lee, profesor de derecho en Santa Clara, sugirió en una publicación de blog que el fallo del juez Alsup podría exponer antrópico a «al menos el potencial de responsabilidad que termina en el negocio». Es poco probable que los demandantes demuestren daños financieros directos, como las ventas perdidas y, por lo tanto, se espera que persigan daños legales. Los daños legales varían de $ 750 a $ 150,000 por trabajo. La cantidad específica depende en gran medida de si la infracción se determina que es intencional. Si el tribunal concluye que Anthrope violó a sabiendas la ley de derechos de autor, las multas resultantes podrían ser sustanciales, lo que puede llegar a miles de millones de dólares incluso en el extremo inferior de la escala de daño legal.
Anthrope ahora quiere que use su IA cuando solicite un trabajo
El número preciso de obras incluidas en la acción de clase y si un jurado encuentra que la infracción intencional permanece indeterminada. Sin embargo, los daños potenciales podrían variar de cientos de millones a decenas de miles de millones de dólares. Lee postula que incluso en el extremo inferior, los daños entre $ 1 mil millones y $ 3 mil millones son plausibles si solo se incluyen 100,000 trabajos en la acción de clase. Esta cifra rivalizaría con los premios de daños por derechos de autor más grandes registrados y podría superar significativamente los ingresos anuales actuales de Anthrope de $ 4 mil millones. Lee estimó además que si un jurado determina el antrópico pirateando 6 millones de libros con derechos de autor, la compañía podría enfrentar una responsabilidad de hasta $ 1.05 billones.
Anthrope no ha proporcionado un comentario inmediato en respuesta a las consultas. Sin embargo, la compañía ha declarado previamente su «desacuerdo respetuoso» con la decisión del tribunal. Anthrope está explorando sus opciones, que incluyen la decisión potencialmente atractiva del juez Alsup o la búsqueda de resolver el caso. El juicio, notable como la primera acción de clase certificada contra una compañía de IA sobre el uso de materiales con derechos de autor, está programado para el 1 de diciembre. El resultado de este veredicto podría influir en disputas legales continuas similares, como el caso de alto perfil que involucra a OpenAI y varios autores y editores.
Si bien las opiniones judiciales parecen favorecer los argumentos de uso justo para las empresas de IA, existe una divergencia legal con respecto a la adquisición de obras con derechos de autor de sitios de sombras no autorizados. En un caso de derechos de autor reciente contra Meta, el juez Vince Chhabria postuló que el propósito transformador del uso de IA legitima efectivamente la descarga no autorizada anteriormente. McDonagh explicó que el fallo del juez Chhabria sugirió que la aplicación positiva y transformadora de las obras podría «corregir» la adquisición problemática inicial. En contraste, el juez Alsup ve la descarga de libros de bibliotecas de sombras no autorizadas como «inherentemente incorrectas». Él implica que incluso si el uso de capacitación de IA pudiera considerarse de uso justo, la adquisición inicial de las obras fue ilegítima y requeriría una compensación.
Otro punto de divergencia entre los dos jueces se refiere a si los resultados generados por IA podrían considerarse competitivos con los trabajos con derechos de autor originales utilizados en sus datos de capacitación. El juez Chhabria reconoció que si se probó dicha competencia, podría socavar una defensa de uso justo. Sin embargo, en el meta caso, determinó que los demandantes no habían proporcionado evidencia suficiente de daños al mercado. Por el contrario, el juez Alsup concluyó que las salidas generativas de IA no compiten con los trabajos originales.
El paisaje legal que rodea a las compañías de IA y las obras con derechos de autor también se ha politizado cada vez más. La administración actual aboga por protecciones de uso justo para compañías de IA que utilizan materiales con derechos de autor para capacitación. Esta postura es parte de un esfuerzo para mantener el liderazgo de los Estados Unidos en el desarrollo de inteligencia artificial.
McDonagh expresó la opinión de que es poco probable que la demanda contra antrópica resulte en la bancarrota de la compañía. Sugirió que es poco probable que el gobierno de los Estados Unidos permita una decisión que desmantelara efectivamente a una compañía de IA. Además, señaló que los jueces generalmente demuestran una aversión a emitir decisiones que podrían conducir a la bancarrota, a menos que una base legal sólida requiera tal resultado. Se ha observado que los tribunales consideran el impacto potencial en una empresa y sus partes interesadas al emitir decisiones que podrían resultar en liquidación. McDonagh declaró: «La Corte Suprema de los Estados Unidos, en este momento, parece bastante amigable con la agenda de Trump, por lo que es muy probable que al final no hubiera sido el tipo de escenario del día del juicio final de la falla de los derechos de autor en bancarrota antrópica». Agregó: «Ahora se valora el antrópico, dependiendo de diferentes estimaciones, entre $ 60 y $ 100 mil millones. Por lo tanto, pagar un par de mil millones a los autores de ninguna manera quiebra la organización».





