OpenAI moet de beloofde Media Manager nog waarmaken, een tool die bedoeld is om videomakers controle te geven over het gebruik van hun inhoud in AI-trainingen, ondanks de geplande release in 2025.
Het onvermogen van OpenAI om zijn beloften waar te maken De lang beloofde Media Manager-tool roept nieuwe zorgen op over de manier waarop het intellectuele eigendom van makers wordt gebruikt in AI-training. De tool, aangekondigd in mei 2024 en verwacht in 2025, zou makers een gecentraliseerde manier bieden om hun rechten te beheren en zich af te melden voor de datasets van OpenAI.
Interne bronnen suggereren echter dat het project geen prioriteit meer kreeg, waardoor makers met beperkte en omslachtige opties om hun werk te beschermen.
Techcrunch citeert een voormalige OpenAI-medewerker die zegt:”Ik denk niet dat het was een prioriteit. Eerlijk gezegd kan ik me niet herinneren dat iemand eraan heeft gewerkt.”Deze bekentenis heeft de frustratie verder aangewakkerd onder makers en rechtenverdedigers, die een dergelijk hulpmiddel beschouwen als een belangrijke stap in het aanpakken van al lang bestaande auteursrechtkwesties.
Technische uitdagingen en zorgen van makers
Media Manager was bedoeld als een uitgebreide tool waarmee makers zich konden afmelden voor AI-trainingsdatasets. Het zou machine learning gebruiken om auteursrechtelijk beschermd materiaal te identificeren en rechten te beheren veelbelovend, zulke systemen worden geconfronteerd met technische hindernissen, vooral op grote schaal. Platforms als YouTube en TikTok worstelen al met de identificatie van inhoud, en de tool van OpenAI zou rekening moeten houden met verschillende formaten, waaronder tekst, video en audio.
Bovendien zou je je kunnen afmelden voor de opt-out. systemen houden vaak geen rekening met ongeoorloofde reproducties op platforms van derden, wat de handhaving bemoeilijkt.
Een lappendekenbenadering van auteursrecht
Terwijl er geen vooruitgang wordt geboekt met de beloofde Mediamanager tool bleef OpenAI streven naar spraakmakende licentieovereenkomsten om de toegang tot premium inhoud veilig te stellen. In december 2024 werkte het bedrijf samen met Future PLC en integreerde het meer dan 200 publicaties in ChatGPT.
Hiertoe behoren gerespecteerde media als TechRadar, Marie Claire en PC Gamer. De overeenkomst legt de nadruk op attributie en links naar originele artikelen, een stap gericht op het bevorderen van transparantie en ethisch gebruik van inhoud.
OpenAI ondertekende eerder overeenkomsten met andere grote uitgevers zoals News Corp en TIME magazine, waardoor het AI-bedrijf toegang kreeg tot historische archieven eerder in 2024.
Deze partnerschappen vertegenwoordigen echter slechts een deel van de strategie van OpenAI. In november 2024 spande een coalitie van Canadese uitgevers, waaronder de Toronto Star en CBC, een rechtszaak aan waarin ze OpenAI beschuldigden van “wijdverbreide scraping” van hun websites zonder toestemming.
De claim beweert dat de acties van OpenAI in strijd waren met auteursrechtbescherming en gebruiksvoorwaardenovereenkomsten, waardoor de ontwikkeling van winstgevende producten zoals ChatGPT Plus en ChatGPT Enterprise mogelijk wordt.
In 2024 werd OpenAI geconfronteerd met verschillende soortgelijke rechtszaken in de Verenigde Staten Staten, waaronder een spraakmakende zaak van The New York Times over het ongeoorloofde gebruik van haar artikelen voor trainingsdoeleinden, beweren critici dat dergelijke praktijken de traditionele inkomstenstromen voor makers van inhoud ondermijnen en tegelijkertijd de bescherming van het auteursrecht uithollen.
Fair Use en andere juridische precedenten
OpenAI verdedigt zijn praktijken door een beroep te doen op fair use, een juridische doctrine die beperkt gebruik van auteursrechtelijk beschermd materiaal toestaat voor doeleinden als onderzoek en commentaar. Het bedrijf beweert dat dit het geval is modellen genereren ‘transformatieve’ werken in plaats van directe kopieën, een claim die centraal staat in de juridische strategie.
In december 2024 verwierp een Amerikaanse federale rechter een rechtszaak die was aangespannen door kleinere uitgevers Raw Story Media en Alternet Media, onder vermelding van onvoldoende bewijs van schade. Rechter Colleen McMahon verklaarde:”Gezien de hoeveelheid informatie in de repository lijkt de waarschijnlijkheid dat ChatGPT geplagieerde inhoud uit een van de artikelen van de eisers zou weergeven klein.”
Juridische experts waarschuwen echter dat dergelijke uitspraken mogelijk niet het geval zijn. breed toepasbaar. Het transformatieve karakter van AI-producten blijft controversieel, waarbij van lopende zaken als The New York Times en Canadese uitgevers wordt verwacht dat ze de grenzen van redelijk gebruik in de context van generatieve AI op de proef zullen stellen.
Bredere implicaties voor AI-ontwikkeling en auteursrecht
De vertraging van Media Manager weerspiegelt bredere spanningen in de AI-industrie, waar innovatie vaak botst met ethische en juridische aansprakelijkheid van OpenAI’s licentieovereenkomsten met major uitgevers suggereren de bereidheid om samen te werken, maar kleinere makers en onafhankelijke mediakanalen blijven vaak onbeschermd.
Zonder een functionele tool als Media Manager worden makers geconfronteerd met onzekerheid over de manier waarop hun werk wordt gebruikt, terwijl OpenAI verdere reputatieschade riskeert schade en juridische tegenslagen. Naarmate de rechtszaken zich ontvouwen, zou de uitkomst nieuwe precedenten kunnen scheppen voor de auteursrechtwetgeving, en van invloed kunnen zijn op de manier waarop AI-systemen wereldwijd worden getraind en gereguleerd.