Die KI-Firma Anthropic, die sich vor dem „übermäßigen Druck“ bezeichnete, hat eine große Urheberrechtsklage mit einer Klasse von Autoren nur einen Monat nach dem Urteil eines Richters ein potenzielles „Death-Knell“ für das Unternehmen geschaffen. Die Einigung, die am Dienstag in einem Bundesgericht in San Francisco eingereicht wurde, verändert einen Verfahren im Dezember über die Verwendung von Raubkenntnissen durch das Unternehmen zur Ausbildung seiner Claude-AI-Modelle. Dieser Schritt setzte Anthropic an potenziell Hunderte von Milliarden Dollar an gesetzliche Schäden aus. Das Unternehmen wurde vor dem existenziellen finanziellen Risiko ein Vertrag erzielt, das einen großen Sieg für Autoren im laufenden Krieg über AI-Schulungsdaten signalisiert. href=”https://www.bloomberglaw.com/public/document/bartzetalvanthropicpbcdocketno2548439thciraug012025Courtdocket/6?doc_id=x6bg9av2Nnu9f7qas3rdockas3rdo3rdo3rdbojk5n”targ.”Angetrieben von dem katastrophalen finanziellen Risiko Anthropic, dem nach dem Fall als Sammelklage am 17. Juli zertifiziert worden war src=”https://winbuzer.com/wp-content/uploads/2025/06/ai-training-copyright-books.jpg”>
Die finanzielle Belichtung war erstaunlich. Nach dem US-amerikanischen Urheberrecht können Schäden wegen vorsätzlicher Verletzung 150.000 US-Dollar pro verletzter Arbeit erreichen. With millions of pirated books allegedly used to train its models, Santa Clara Law Professor Edward Lee had Geschätzte potenzielle Schäden könnten 900 Milliarden US-Dollar übertreffen Wenn eine Jury feststellte, dass die Verletzung vorsätzlich war. Der Finanzvorstand von Anthropic teilte dem Gericht dem Gericht mit, dass das Unternehmen im Jahr nicht mehr als 5 Milliarden US-Dollar um Einnahmen erwartet und gleichzeitig mit einem Verlust von Milliarden Dollar tätig war. Die potenzielle Haftung stellte die gesamte Bewertung des Unternehmens in den Schatten und machte eine Studie zu einem inakzeptablen Risiko. Da sich die gesetzlichen Optionen des Unternehmens verengten, versuchte es erfolglos, den Prozess zu verzögern, indem sie sowohl das Bezirksgericht als auch den neunten Stromkreis einlegte. In einem Urteil vom 11. August sagte er, dass die Firma”sich geweigert habe, sauber zu werden”, welche Raubkopien sie verwendete. Er erklärte unverblümt: „Wenn anthropisch groß verliert, ist es auch, dass das, was es falsch gemacht hat, auch groß war.”Ein”typisch transformativer”fairer Gebrauch. In seiner zusammenfassenden Urteilsordnung lobte er die Innovation und erklärte: „Die in Frage stehende Technologie gehörte zu den transformativsten, die viele von uns in unseren Lebzeiten sehen werden.“ Er vernichtete seine Einschätzung der Methoden von Anthropic und bemerkte, dass das Unternehmen Millionen von Büchern von bekannten Piratenseiten wie Libgen und Books3 heruntergeladen hatte. Er kam zu dem Schluss, dass ein Versuch fortgesetzt werden muss, um die Schäden durch die Verwendung von Kopien von Anthropic aus diesen”Schattenbibliotheken”durchzuführen. In seiner Anordnung war der Richter eindeutig über den Fokus des Gerichtsverfahrens: „Wir werden einen Prozess über die Raubkopien haben, die verwendet wurden, um die Zentralbibliothek der Anthropic und die resultierenden Schäden zu erstellen.”Diese Entscheidung trennte die Rechtmäßigkeit des Schulungsprozesses effektiv von der Rechtmäßigkeit der Datenerfassung. Rechtsexperten erkannten ihre Bedeutung sofort an. Der Rechtsdirektor der Electronic Frontier Foundation, CoryNne McSherry, bezeichnete die Auszeichnung des Gerichts als „kritische Firewall“, die verhindert, dass ein fairer Gebrauch zu einer „Get-out-of-jail-freien Karte für Massenverletzungen“ wird. In einem parallelen Fall gegen Meta kritisierte Richter Vince Chhabria die Logik von Alsup direkt und argumentierte, dass man die Datenerfassung nicht von seinem endgültigen Zweck trennen kann. Diese direkte juristische Spaltung schuf eine tiefe Unsicherheit für die gesamte KI-Branche und war die Grundlage für die nachfolgende, erfolgreiche