inclinándose a lo que llamó”presión excesiva”, la firma de IA Anthrope ha resuelto una importante demanda por derechos de autor con una clase de autores solo un mes después de que el fallo de un juez creó una posible”mancha de muerte”para la compañía. El acuerdo, presentado en un tribunal federal de San Francisco el martes, evita un juicio de diciembre sobre el uso de libros pirateados por parte de la compañía para capacitar a sus modelos Claude AI.
El caso se intensificó dramáticamente el 17 de julio cuando el tribunal certificó el estado de acción colectiva de los autores. Este movimiento expuso antrópico a potencialmente cientos de miles de millones de dólares en daños legales. Enfrentando el riesgo financiero existencial, la compañía llegó a un acuerdo que indica una gran victoria para los autores en la guerra en curso sobre los datos de capacitación de IA.
un acuerdo forzado por una decisión de”mortal”
settlement was driven by El catastrófico riesgo financiero que se enfrentó antrópico después de su caso fue certificado como una acción de clase el 17 de julio. En los documentos judiciales, la compañía advirtió que este movimiento creó una situación de”mortal”, lo que le puse bajo lo que llamó”presión incondicional”para establecer independientemente del mérito legal del caso. Según la ley de derechos de autor de EE. UU., Los daños por infracción intencional pueden alcanzar los $ 150,000 por trabajo infringido. With millions of pirated books allegedly used to train its models, Santa Clara Law Professor Edward Lee had Daños potenciales estimados podría superar los $ 900 mil millones Si un jurado encontró que la infracción era intencional.
Esta cifra presentaba una amenaza existencial. El propio director financiero de Anthrope le dijo al tribunal que la compañía no esperaba más de $ 5 mil millones en ingresos para el año, mientras que al mismo tiempo operaba con una pérdida de miles de millones de dólares. La responsabilidad potencial eclipsó toda la valoración de la compañía, haciendo que un juicio sea un riesgo inaceptable.
Los autores también estaban presionando para evitar que antrópico afirmar que su infracción era”inocente”, una designación que podría reducir los daños a hasta $ 200 por trabajo. Con el estrechamiento de las opciones legales de la compañía, buscó sin éxito retrasar el juicio apelando tanto al Tribunal de Distrito como al Noveno Circuito.
La presión intensificada después del juez William Alsup, del Distrito Norte de California, rechazó estos intentos. En un fallo del 11 de agosto, dijo que la compañía”se negó a limpiarse”sobre qué trabajos pirateados utilizó. Declaró sin rodeos:”Si Antropic pierde enormemente, será porque lo que hizo mal también fue grande”.
La decisión histórica que redefinió el campo de batalla
Este enfrentamiento legal se construyó en una división fundamental de un modelo de entrenamiento. Uso justo”por excelencia transformador”. En su orden de juicio sumario, elogió la innovación, afirmando:”La tecnología en cuestión fue una de las más transformadoras que muchos de nosotros veremos en nuestras vidas”.
Sin embargo, el juez Alsup hizo una línea aguda, dictaminando que esta protección no excusa el”pecado original”de cómo se adquirieron los datos. Estaba mordaz en su evaluación de los métodos de Anthrope, señalando que la compañía descargó millones de libros de sitios piratas conocidos como Libgen y Books3. Llegó a la conclusión de que un juicio debe proceder a determinar los daños por el uso de Anthrope de copias pirateadas de estas”bibliotecas de sombras”.
En su orden, el juez fue inequívoco sobre el enfoque del juicio:”Tendremos un juicio sobre las copias pirateadas utilizadas para crear la biblioteca central de Anthrope y los daños resultantes”. Esta decisión separó efectivamente la legalidad del proceso de capacitación de la legalidad de la adquisición de datos. Los expertos legales inmediatamente reconocieron su importancia. La directora legal de la Fundación Electrónica de Frontier, Corynne McSherry, calificó la distinción de la corte como un”firewall crítico”que evita que el uso justo se convierta en una”tarjeta sin cárcel para infracción masiva”.
El fallo también creó un profundo caos legal. En un caso paralelo contra Meta, el juez Vince Chhabria criticó directamente la lógica de Alsup, argumentando que uno no puede separar la adquisición de datos de su propósito final. This direct judicial split created deep uncertainty for the entire AI industry and was the basis for Anthropic’s subsequent, unsuccessful attempt to seek an Apelación interlocutoria .
En última instancia, el precedente ahora es central para batallas de derechos de autor similares que enfrentan otros gigantes tecnológicos. Demandas contra empresas como meta y microsoft cada vez más pivotando a la pregunta de la pregunta de los datos de la pregunta de la pregunta de los datos, por lo que se obtiene, por lo que se obtiene, de forma, de la manera que se obtiene. Se utilizó, explotando la decisión de vulnerabilidad muy legal de Alsup expuesta.
una victoria”histórica”y una advertencia a la industria de la IA
El asesor legal de los autores, Justin Nelson de Susman Godfrey LLP, llamado el Acuerdo”Histórico”.
el Consejo de Outin Ducum. Adam Eisgrau de la Cámara de Progreso, un grupo comercial respaldado por la tecnología, admitió que las apuestas financieras fueron el factor decisivo.”Casi no hay escenario en el que la magnitud de los posibles daños legales no impulsó este acuerdo”, dijo, calificando los daños potenciales”asesinos de innovación”.
Si bien los términos financieros del acuerdo no se revelaron, la resolución envía un mensaje claro. Valida una estrategia legal que se dirige al pecado original de la piratería de datos, no a la naturaleza transformadora de la propia IA. Para los desarrolladores de IA, la era de”Raspe primero, hacer preguntas más tarde”se termina definitivamente, marcando el comienzo de una nueva realidad donde los datos limpios y las licencias son primordiales.