Anthropic, het AI-lab dat bekend staat om zijn Claude-chatbot, heeft ermee ingestemd om veiligheidsmaatregelen af te dwingen en te handhaven die voorkomen dat zijn modellen auteursrechtelijk beschermde songteksten genereren.
Deze beslissing maakt deel uit van een juridische schikking met prominente muziekuitgevers, waaronder Universal Music Group en Concord Music Group, die het bedrijf beschuldigden van inbreuk op het auteursrecht vanwege het zonder toestemming gebruiken van songteksten in AI trainingsdatasets.
Goedgekeurd door U.S. Districtsrechter Eumi Lee, de overeenkomst regelt delen van een voorlopig bevel dat door de uitgevers is geëist. Het dwingt Anthropic om de bestaande “vangrails” tegen Claude en vergelijkbare modellen te handhaven om de reproductie van auteursrechtelijk beschermd materiaal te voorkomen.
De zaak markeert een cruciaal moment in de groeiende spanning tussen AI-innovatie en intellectuele eigendomsrechten.
De beschuldigingen: Ongelicentieerd gebruik van songteksten
De rechtszaak, gestart in oktober 2023, beweert dat Anthropic zijn AI-systemen heeft getraind met behulp van songteksten van meer dan 500 nummers zonder licenties te verkrijgen en werken van The Rolling Stones en Beyoncé, waarin de AI-tool wordt beschuldigd van het genereren van bijna woordelijke reproducties van deze teksten.
Een voorbeeld wordt gegeven in het beschreven dossier Claude produceert een”bijna identieke kopie”van Perry’s Roar. De uitgevers voerden aan dat dit ongeoorloofde gebruik niet alleen in strijd is met de auteursrechtwet, maar ook hun relaties met songwriters en andere belanghebbenden ondermijnt.
“Het ongelicentieerde gebruik van auteursrechtelijk beschermd materiaal door Anthropic schaadt op onomkeerbare wijze de relaties van uitgevers met huidige en toekomstige songwriter-partners,’aldus de rechtszaak, waarbij de bredere impact op het vertrouwen van de industrie werd benadrukt.
Gangrails: hoe ze werken en hun rol bij naleving
Gangrails zijn technische maatregelen die zijn ontworpen om de output van AI te beperken en ervoor te zorgen dat modellen als Claude geen auteursrechtelijk beschermd of schadelijk materiaal reproduceren. Deze beveiligingen kunnen bestaan uit filters die specifieke output blokkeren, algoritmen die zijn ontworpen om de woordelijke reproductie van trainingsgegevens te detecteren en te voorkomen, en toezichtsmechanismen. voor gebruikersinteracties met het model.
Anthropic beweert dat de huidige vangrails robuust zijn en in staat zijn dergelijke output te voorkomen. Een woordvoerder van het bedrijf verklaarde: “We hebben talloze processen ontwikkeld om dergelijke output te voorkomen inbreuk. Ons besluit om deze bepaling aan te gaan is in lijn met deze prioriteiten.”
Volgens de overeenkomst mogen muziekuitgevers Anthropic op de hoogte stellen als deze maatregelen mislukken. Het bedrijf is verplicht om eventuele tekortkomingen onmiddellijk te onderzoeken en te herstellen. Anthropic behoudt het recht om haar methoden te optimaliseren, het kan de effectiviteit van haar waarborgen niet verminderen.
Fair Use en juridische precedenten
Anthropic heeft haar gebruik van auteursrechtelijk beschermd materiaal onder de’fair use’-doctrine, waarin wordt betoogd dat het trainen van generatieve AI-modellen transformatieve toepassing van gegevens inhoudt. In de juridische documenten van het bedrijf staat:”We blijven ernaar uitkijken om aan te tonen dat, in overeenstemming met de bestaande auteursrechtwetgeving, het gebruik van mogelijk auteursrechtelijk beschermd materiaal bij de training van generatieve AI-modellen een typisch redelijk gebruik is.”
De uitgevers beweren dat deze praktijk hun werk devalueert en inbreuk maakt op de bestaande licentiemarkten. Ze beweren dat AI-bedrijven de gevestigde kanalen voor licentieverlening omzeilen, wat resulteert in economische en reputatieschade voor artiesten en uitgevers.
Deze rechtszaak is de eerste die wordt aangespannen. focus over songteksten in AI-trainingsdatasets, maar het sluit aan bij bredere geschillen. OpenAI heeft te maken gekregen met soortgelijke beschuldigingen over het gebruik van nieuwsartikelen, terwijl de New York Times en andere media hun zorgen hebben geuit over door AI gegenereerde inhoud die hun werk repliceert.
>
Implicaties voor de sector en toekomstperspectieven
De Anthropic-rechtszaak benadrukt de uitdagingen van het balanceren van technologische vooruitgang met de bescherming van intellectueel eigendom. Nu generatieve AI steeds meer een integraal onderdeel wordt van sectoren variërend van entertainment tot journalistiek, staan bedrijven onder druk om door deze juridische en ethische complexiteiten te navigeren.
Proactieve licentieovereenkomsten kunnen een weg voorwaarts bieden. OpenAI werkt al samen met uitgevers als TIME en Associated Press, terwijl Microsoft deals heeft gesloten met HarperCollins om zijn non-fictietitels te gebruiken voor AI-training.
De overeenkomst van Anthropic met muziekuitgevers kan als sjabloon dienen voor toekomstige resoluties, waarmee het belang wordt aangetoond van transparante en afdwingbare nalevingsmechanismen. Nu rechter Lee echter nog geen uitspraak heeft gedaan over de bredere vraag of AI-training zonder licentie al dan niet onder redelijk gebruik valt, zou de uitkomst van de zaak een precedent kunnen scheppen.