Anthropic, il laboratorio di intelligenza artificiale noto per il suo chatbot Claude, ha accettato di applicare e mantenere misure di sicurezza che impediscono ai suoi modelli di generare testi di canzoni protetti da copyright.
Questa decisione fa parte di un accordo legale con importanti editori musicali, tra cui Universal Music Group e Concord Music Group, che hanno accusato la società di violazione del copyright per aver utilizzato i testi delle canzoni senza autorizzazione in AI set di dati di addestramento.
Approvato da U.S. Giudice distrettuale Eumi Lee, l’accordo risolve parti di un’ingiunzione preliminare richiesta dagli editori. Obbliga Anthropic a mantenere i suoi”guardrail”esistenti su Claude e modelli simili per impedire la riproduzione di materiale protetto da copyright.
Il caso segna un punto cruciale nella crescente tensione tra l’innovazione dell’intelligenza artificiale e i diritti di proprietà intellettuale.
Le accuse: Uso senza licenza dei testi delle canzoni
La causa, avviata nell’ottobre 2023, sostiene che Anthropic ha addestrato i suoi sistemi di intelligenza artificiale utilizzando testi di oltre 500 canzoni senza ottenere licenze. Gli editori hanno citato esempi come Roar di Katy Perry e opere dei Rolling Stones e Beyoncé, accusando lo strumento AI di generare riproduzioni quasi letterali di questi testi.
Un esempio fornito nel documento descritto Claude produce una”copia quasi identica”di Perry’s Roar. Gli editori hanno sostenuto che questo uso non autorizzato non solo viola la legge sul copyright, ma mina anche i loro rapporti con i cantautori e altre parti interessate.
“L’uso senza licenza da parte di Anthropic di materiale protetto da copyright danneggia irreversibilmente i rapporti degli editori con i cantautori-partner attuali e potenziali,”si legge nella causa, sottolineando l’impatto più ampio sulla fiducia del settore.
Guardrail: come funzionano e il loro ruolo nella Conformità
I guardrail sono misure tecniche progettate per limitare gli output dell’intelligenza artificiale, garantendo che modelli come Claude non riproducano materiale protetto da copyright o dannoso. Queste misure di salvaguardia possono includere filtri che bloccano output specifici, algoritmi progettati per rilevare e prevenire riproduzione letterale dei dati di addestramento e meccanismi di supervisione per le interazioni degli utenti con il modello.
Anthropic afferma che i suoi attuali guardrail sono robusti e in grado di impedire tali risultati. Un portavoce dell’azienda ha dichiarato:”Abbiamo numerosi processi in atto luogo atto a prevenire tale violazione. La nostra decisione di stipulare questa clausola è coerente con tali priorità.”
In base all’accordo, gli editori musicali possono avvisare Anthropic se queste misure falliscono. La società è tenuta a indagare e correggere tempestivamente eventuali carenze. Anthropic si riserva il diritto di ottimizzare i propri metodi e non può diminuire l’efficacia delle proprie misure di salvaguardia.
Fair Use e precedenti legali
Anthropic ha difeso il suo utilizzo di materiale protetto da copyright secondo la dottrina del”fair use”, sostenendo che l’addestramento di modelli di intelligenza artificiale generativa implica un’applicazione trasformativa dei dati. La documentazione legale della società afferma:”Continuiamo a guardare avanti per dimostrare che, in linea con la legge sul copyright esistente, l’utilizzo di materiale potenzialmente protetto da copyright nella formazione di modelli di intelligenza artificiale generativa è un fair use per eccellenza.”
Tuttavia, gli editori sostengono che questa pratica svaluta il loro lavoro e viola i mercati di licenza esistenti. Sostengono che le società di intelligenza artificiale aggirano i canali stabiliti per la concessione di licenze, con conseguenti danni economici e reputazionali per artisti ed editori.
Questa causa è la causa principale. primo a concentrarsi sui testi nei set di dati di addestramento sull’intelligenza artificiale, ma si allinea con controversie più ampie. OpenAI ha dovuto affrontare accuse simili sull’uso di articoli di notizie, mentre il New York Times e altri media hanno sollevato preoccupazioni riguardo ai contenuti generati dall’intelligenza artificiale che replicano il loro lavoro.
Implicazioni del settore e prospettive future
La causa Anthropic evidenzia le sfide legate al bilanciamento del progresso tecnologico con la protezione della proprietà intellettuale. Man mano che l’intelligenza artificiale generativa diventa sempre più parte integrante di settori che vanno dall’intrattenimento al giornalismo, le aziende sono sotto pressione per affrontare queste complessità legali ed etiche.
Gli accordi di licenza proattivi possono offrire una via da seguire. OpenAI ha già collaborato con editori come TIME e Associated Press, mentre Microsoft ha stretto accordi con HarperCollins per utilizzare i suoi titoli di saggistica per la formazione sull’intelligenza artificiale.
L’accordo di Anthropic con gli editori musicali potrebbe servire da modello per risoluzioni future, dimostrando l’importanza di meccanismi di conformità trasparenti e applicabili. Tuttavia, poiché il giudice Lee deve ancora pronunciarsi sulla questione più ampia se la formazione senza licenza sull’intelligenza artificiale costituisca un uso corretto, l’esito del caso potrebbe costituire un precedente.