OpenAI hat seinen versprochenen Media Manager, ein Tool, das es Entwicklern ermöglichen soll, die Verwendung ihrer Inhalte in KI-Schulungen zu kontrollieren, trotz der geplanten Veröffentlichung bis 2025 noch nicht eingehalten.
OpenAI scheitert daran, seine Ziele zu erreichen Das seit langem versprochene Media Manager-Tool wirft neue Bedenken hinsichtlich der Verwendung des geistigen Eigentums von Urhebern in der KI-Schulung auf. Das im Mai 2024 angekündigte und für 2025 erwartete Tool sollte den Urhebern eine zentrale Möglichkeit bieten, ihre Rechte zu verwalten und sich von den Datensätzen von OpenAI abzumelden.
Interne Quellen deuten jedoch darauf hin, dass das Projekt nachrangig behandelt wurde und ausstieg Kreativen stehen nur begrenzte und umständliche Möglichkeiten zum Schutz ihrer Werke zur Verfügung.
Techcrunch zitiert einen ehemaligen OpenAI-Mitarbeiter mit den Worten: „Das glaube ich nicht hatte Priorität. Ehrlich gesagt kann ich mich an niemanden erinnern, der daran gearbeitet hat.“ Dieses Eingeständnis hat die Frustration unter Urhebern und Rechtebefürwortern weiter angeheizt, die ein solches Tool als einen wichtigen Schritt zur Lösung langjähriger Urheberrechtsprobleme betrachten.
Technische Herausforderungen und Bedenken der Ersteller
Media Manager war als umfassendes Tool gedacht, das es Erstellern ermöglicht, sich von KI-Trainingsdatensätzen abzumelden. Es würde maschinelles Lernen nutzen, um urheberrechtlich geschützte Materialien zu identifizieren und Berechtigungen zu verwalten Viel versprechend, solche Systeme stehen vor technischen Hürden, insbesondere im großen Maßstab. Plattformen wie YouTube und TikTok haben bereits Probleme mit der Inhaltsidentifizierung, und das Tool von OpenAI müsste verschiedene Formate berücksichtigen, darunter Text, Video und Audio.
Darüber hinaus Opt-out-Systeme berücksichtigen häufig nicht autorisierte Reproduktionen auf Plattformen Dritter, was die Durchsetzung erschwert.
Ein Patchwork-Ansatz zum Urheberrecht
Während Nein Fortschritte bei den versprochenen Medien OpenAI verfolgte weiterhin hochkarätige Lizenzvereinbarungen, um den Zugang zu Premium-Inhalten zu sichern. Im Dezember 2024 ging das Unternehmen eine Partnerschaft mit Future PLC ein und integrierte über 200 Publikationen in ChatGPT.
Dazu gehören angesehene Anbieter wie TechRadar, Marie Claire und PC Gamer. Die Vereinbarung betont die Namensnennung und Links zu Originalartikeln, ein Schritt, der darauf abzielt, Transparenz und ethische Nutzung von Inhalten zu fördern.
OpenAI hat zuvor Vereinbarungen mit anderen großen Verlagen wie News Corp und dem TIME-Magazin unterzeichnet, die dem KI-Unternehmen Zugriff darauf gewähren historische Archive Anfang 2024.
Diese Partnerschaften stellen jedoch nur einen Teil der Strategie von OpenAI dar. Im November 2024 reichte eine Koalition kanadischer Verlage, darunter der Toronto Star und CBC, eine Klage ein, in der sie OpenAI des „weit verbreiteten Scrapings“ von ihren Websites ohne Erlaubnis beschuldigten.
In der Klage wird behauptet, dass die Handlungen von OpenAI den Urheberrechtsschutz verletzt hätten Nutzungsbedingungenvereinbarungen, die die Entwicklung profitabler Produkte wie ChatGPT Plus und ChatGPT Enterprise ermöglichen.
Im Jahr 2024 war OpenAI in den Vereinigten Staaten mit mehreren ähnlichen Rechtsstreitigkeiten konfrontiert Staaten, darunter ein aufsehenerregender Fall der New York Times wegen der unbefugten Nutzung ihrer Artikel zu Schulungszwecken. Kritiker argumentieren, dass solche Praktiken die traditionellen Einnahmequellen für Inhaltsersteller untergraben und gleichzeitig den Urheberrechtsschutz untergraben.
Fair Use und andere rechtliche Präzedenzfälle
OpenAI verteidigt seine Praktiken, indem es sich auf Fair Use beruft, eine Rechtsdoktrin, die die begrenzte Nutzung von urheberrechtlich geschütztem Material für Zwecke wie Forschung und Kommentare erlaubt argumentiert, dass seine Modelle eher „transformative“ Werke als direkte Kopien erzeugen, eine Behauptung, die für seine Rechtsstrategie von zentraler Bedeutung ist.
Im Dezember 2024 wies ein US-Bundesrichter eine Klage der kleineren Verlage Raw Story Media und Alternet Media ab , unter Berufung auf unzureichende Beweise für einen Schaden. Richterin Colleen McMahon erklärte: „Angesichts der Menge an Informationen im Archiv erscheint die Wahrscheinlichkeit, dass ChatGPT plagiierte Inhalte aus einem der Artikel der Kläger herausgibt, gering.“
Rechtsexperten warnen jedoch davor, dass dies bei solchen Urteilen der Fall sein könnte Der transformative Charakter von KI-Ergebnissen bleibt umstritten, wobei laufende Fälle wie die New York Times und kanadische Verlage voraussichtlich die Grenzen der fairen Nutzung im Kontext generativer KI austesten.
Umfassendere Auswirkungen auf die KI-Entwicklung und das Urheberrecht
Die Verzögerung von Media Manager spiegelt umfassendere Spannungen in der KI-Branche wider, in der Innovation häufig mit der ethischen und rechtlichen Verantwortlichkeit von OpenAI mit großen Unternehmen kollidiert Verlage signalisieren die Bereitschaft zur Zusammenarbeit, aber kleinere Urheber und unabhängige Medienunternehmen bleiben oft ungeschützt.
Ohne ein funktionales Tool wie Media Manager sind Urheber unsicher darüber, wie ihre Arbeit genutzt wird OpenAI riskiert weitere Reputationsschäden und rechtliche Rückschläge. Im weiteren Verlauf der Klagen könnte das Ergebnis neue Präzedenzfälle für das Urheberrecht schaffen und sich darauf auswirken, wie KI-Systeme weltweit trainiert und reguliert werden.