Eine chaotische Flut von wegweisenden Gerichtsurigkeiten und neuen Klagen hat den Rechtskrieg gegenüber künstlichen Intelligenz dramatisch verändert und ein widersprüchliches und gefährliches Schlachtfeld für die Technologieindustrie geschaffen. Während Meta in dieser Woche in einem Fall seiner KI-Trainingsdaten einen großen Sieg erzielte, steht der Sieg in starkem Kontrast zu einer nuancierten Entscheidung gegen das Anthropic-Unternehmen, das die Frontlinien des Urheberrechtskampfs neu definiert hat. Der Rechtsgrund verlagert sich von dem, was KI-Modelle produzieren, zu der Art und Weise, wie sie in erster Linie gebaut wurden. Am Mittwoch entschied ein Richter, dass Meta nicht gegen das Gesetz verstoße, als es seine KI für die Bücher der Autoren ausbildete. Diese Entscheidung fand kurz nach einer wegweisenden Entscheidung in einem Fall gegen Anthropic einen kritischen neuen Präzedenzfall fest: Während die Ausbildung eines KI-Modells in urheberrechtlich geschützten Büchern möglicherweise ein „transformativer“ fairer Gebrauch ist, ist die getrennte Akt des Erwerbs dieser Daten aus gestirbierten Online-Bibliotheken nicht. Eine Gruppe von Autoren hat die es eskalierenden Einsätze unterstrich und ein

Der Moment, in dem der AI-Copyright-Krieg neu definiert wurde, stammte aus einem erteilt am 23. Juni vom Senior District-Richter William Alsup. In einem Fall gegen die AI-Firma Anthropic stellte er fest, dass die Verwendung von urheberrechtlich geschützten Büchern durch das Unternehmen zur Ausbildung seiner Claude-KI „typisch transformativ“ war und feststellte, dass „die in Frage stehende Technologie zu den transformativsten, die viele von uns in unseren Leben sehen werden.“ Richter Alsup hat jedoch eine scharfe Linie gezogen und entschieden, dass dieser Schutz die zugrunde liegenden Methoden, die zum Erstellen des Datensatzes verwendet wurden, nicht entschuldigt. Er kam zu dem Schluss, dass ein Versuch fortgesetzt werden muss, um die Schäden zu bestimmen, die sich aus der Verwendung von Anthropic-Raubkopien zum Bau seiner Bibliothek durchsetzt. Die beiden Fälle befanden sich in grundsätzlich unterschiedlichen Verfahrensphasen. Das Meta-Urteil wies die Behauptung der Autoren in einem frühen Stadium ab, während die anthropische Entscheidung ein inhaltlicheres Urteil auf der Grundlage von Beweisen darstellte, was einen starken Präzedenzfall darstellte, der die Rechtmäßigkeit des Schulungsprozesses von der Rechtmäßigkeit der Datenerfassung unterscheidet. Die Autorenguild steht seit langem an der Spitze des Rechtsstreits und reicht im Jahr 2023 eine Klage gegen Openai ein. Die neue Klage gegen Microsoft zeigt, dass ihre Strategie an die neuesten rechtlichen Präzedenzfälle anpasst. HarperCollins hat sich mit Microsoft zusammengetan, um seine Sachbücher für die KI-Schulung zu lizenzieren, ein Schritt, der die Rückschläge von Autoren gegenüber seiner vorgeschlagenen Vergütung mit flachem Fee auslöste. Der weltweit größte Handelsverlag, Penguin Random House, hat den entgegengesetzten Ansatz verfolgt, hat versucht, das AI-Ökosystem vollständig abzuteilen. Das Unternehmen hat seine urheberrechtlichen Regeln weltweit aktualisiert und seinen Büchern eine neue Klausel hinzugefügt, die eine Reproduktion der Arbeit für den Zweck der Ausbildung von AI-Systemen ausdrücklich verbietet. Die Beschwerde gegen Microsoft behauptet, dass das Unternehmen einen Raubkopierdatensatz verwendet habe, um das zu erstellen, was die Einreichung als Modell beschreibt, „erstellt wurde, um eine breite Ausdruckspalette zu erzeugen, die die Syntax, die Stimme und die Themen der urheberrechtlich geschützten Werke nachahmt, auf denen sie trainiert wurde.“ Dieser Vorwurf, Modelle zu Daten aus „Schattenbibliotheken“ wie Libgen und Books3 zu erstellen, ist auch für die Fälle von Meta und Anthropic von zentraler Bedeutung.

Dieses rechtliche Argument wird durch die technische Forschung gestärkt. Eine neue akademische Studie ergab, dass das Lama 3.1-Modell von Meta erstaunliche 42% von Harry Potter und den Steinwährungs-Zauberer reproduzieren könnte. Das Forschungspapier unterstützt dem Argument konkret konkret, dass die Modelle selbst einen „Rechtsexperten„ eine Kopie eines Teils des Buches im Modell selbst “nennen. Nach einem Rechtsanalyse Durch die elektronische Frontier-Stiftung (EFF) wird der Fokus auf den Fokus auf dem Anfangsakt auf dem Anfangsakt auf dem Anfangsakt auf dem Vorsprung. CoryNne McSerry, Rechtsdirektor von EFF, bemerkte:”Die Firewall des Gerichts ist kritisch. Es verhindert, dass die transformative Verwendung einer Lehre zu einer Karteiung für die Verstöße gegen die Schwierigkeiten wird.”Die BBC droht rechtliche Schritte gegen die AI-Suchmaschine, die Verwirrung des Urheberrechts vorliegt und sich einem Chor von Nachrichtenorganisationen anschließt, die gegen Datenkratzen zurücktreten. Die Schlacht hat auch Indien erreicht, wo die Federation of Indian Publishers (FIP) Openai wegen der Fähigkeit von Chatgpt verklagt hat, detaillierte Buchzusammenfassungen zu erstellen, die sie direkt untergraben. Die japanische Agentur für kulturelle Angelegenheiten hat Einberufte ein Expertenpanel Das Gremium zielt darauf ab, bis Ende des Jahres klarere Richtlinien vorzuschlagen und zu signalisieren, dass die Ära mehrdeutiger Regeln schnell zu Ende geht. Der Fokus hat sich entscheidend von der Magie des Endprodukts zu den kiesigen Details der Datenherstellung verlagert. Für Technologieunternehmen wird die Botschaft der Gerichte klar: Die transformative Natur der Technologie wird die Erbsünde des Diebstahls nicht entschuldigen. Diese neue Reality erzwingt eine Abrechnung mit ihren Datenversorgungsketten und führt wahrscheinlich in eine Ära größerer Transparenz-und kostspieliger Lizenzgeschäfte ein, die die Wirtschaft der AI-Wettrüsten grundlegend verändern werden.