Anthropic, laboratorul de inteligență artificială cunoscut pentru chatbot-ul său Claude, a fost de acord să impună și să mențină măsuri de protecție care împiedică modelele sale să genereze versuri de melodii protejate prin drepturi de autor.
Această decizie face parte dintr-un acord legal cu editori muzicali proeminenti, inclusiv Universal Music Group și Concord Music Group, care a acuzat compania de încălcarea drepturilor de autor pentru că a folosit versurile cântecelor fără autorizație în seturile de date de instruire AI.
Aprobat de S.U.A. Judecătorul districtual Eumi Lee, acordul rezolvă porțiuni dintr-o ordonanță preliminară solicitată de editori. Obligă Anthropic să-și mențină „paravanele” existente pe Claude și modele similare pentru a preveni reproducerea materialului protejat prin drepturi de autor.
Cazul marchează un punct crucial în tensiunea tot mai mare dintre inovarea AI și drepturile de proprietate intelectuală.
The Acuzații: Utilizarea fără licență a versurilor cântecelor
Procesul, inițiat în octombrie 2023, susține că Anthropic și-a antrenat sistemele AI folosind versuri din peste 500 de cântece, fără a obține licențe. Editorii au citat exemple precum Katy Perry’s Roar și lucrări de The Rolling Stones și Beyoncé, acuzând instrumentul AI că generează reproduceri aproape literale ale acestora versuri.
Un exemplu oferit în dosar îl descrie pe Claude producând o „copie aproape identică” a lui Perry’s Roar. Editorii au susținut că această utilizare neautorizată nu numai că încalcă legea drepturilor de autor, ci și le subminează relațiile cu compozitorii și alte părți interesate.
„Utilizarea fără licență de către Anthropic a materialului protejat prin drepturi de autor dăunează ireversibil relațiilor editorilor cu compozitorii-parteneri actuali și potențiali, „, a afirmat procesul, subliniind impactul mai larg asupra încrederii în industrie.
Guardrails: Cum funcționează și rolul lor în conformitate
Guardrails sunt măsuri tehnice concepute pentru a limita rezultatele AI, asigurându-se că modelele precum Claude nu reproduc materiale protejate prin drepturi de autor sau dăunătoare includ filtre care blochează ieșiri specifice, algoritmi menționați să detecteze și să prevină reproducerea textuală a datelor de antrenament și mecanisme de supraveghere pentru interacțiunile utilizatorilor cu modelul.
Anthropic susține că barierele sale actuale sunt robuste și capabile să prevină astfel de rezultate. Decizia noastră de a intra în această prevedere este în concordanță cu acele priorități.”
În conformitate cu acordul, editorii de muzică au voie să notifice Anthropic dacă aceste măsuri eșuează. Compania este obligată să investigheze și să remedieze prompt orice neajuns. Anthropic își păstrează dreptul de a-și optimiza metodele, nu poate diminua eficacitatea garanțiilor sale.
Utilizarea corectă și precedentele legale
Anthropic și-a apărat utilizarea materialului protejat prin drepturi de autor sub doctrina „utilizare corectă”, argumentând că antrenarea modelelor AI generative implică aplicarea transformatoare a datelor. Documentele juridice ale companiei afirmau: „Așteptăm în continuare cu nerăbdare să arătăm că, în concordanță cu legislația în vigoare privind drepturile de autor, utilizarea materialului potențial protejat prin drepturi de autor în formarea modelelor generative de IA este o utilizare corectă prin excelență.”
Cu toate acestea, Editorii susțin că această practică le devalorizează munca și încalcă piețele existente de licențiere. Ei susțin că companiile AI ocolesc canalele stabilite pentru licențiere, ceea ce duce la prejudicii economice și reputaționale artiști și editori.
Acest proces este primul care se concentrează pe versurile din seturile de date de instruire AI, dar se aliniază cu dispute mai ample OpenAI s-a confruntat cu acuzații similare cu privire la utilizarea articolelor de știri, în timp ce New York Times și alte instituții media și-au exprimat îngrijorări cu privire la conținutul generat de inteligență artificială care își reproduce activitatea.
Implicații și viitor în industrie. Perspective
Procesul Antropic evidențiază provocările echilibrării progresului tehnologic cu protecția proprietății intelectuale. Pe măsură ce IA generativă devine din ce în ce mai parte integrantă a industriilor, de la divertisment la jurnalism, companiile sunt sub presiune să navigheze în aceste complexități legale și etice.
Acordurile de licență proactive pot oferi o cale de urmat. OpenAI a încheiat deja parteneriate cu editori precum TIME și Associated Press, în timp ce Microsoft a încheiat acorduri cu HarperCollins pentru a-și folosi titlurile de non-ficțiune pentru instruirea AI.
Acordul Anthropic cu editorii de muzică poate servi ca șablon pentru rezoluții viitoare, demonstrând importanța mecanismelor de conformitate transparente și aplicabile. Cu toate acestea, având în vedere că judecătorul Lee încă nu s-a pronunțat cu privire la problema mai amplă a faptului dacă antrenamentul AI fără licență constituie o utilizare loială, rezultatul cazului ar putea crea un precedent.