In un perno calcolato che rimodella una delle battaglie legali più significative del mondo della tecnologia sulla formazione dell’IA, Getty Images ha lasciato cadere le principali richieste di violazione del copyright contro la stabilità AI nell’Alta Corte di Londra. La mossa restringe drasticamente l’ambito della causa del punto di riferimento del Regno Unito, allontanando il caso da una sfida diretta alla legalità della formazione stessa dell’IA e verso domande più sfumate di marchio e violazione del copyright secondario.

Questo cambiamento tattico non termina il confronto ma piuttosto riformula. Inizialmente posizionato come un”giorno di resa dei conti”per gli sviluppatori di intelligenza artificiale, la causa non si concentrerà più sul fatto che la formazione di stabilità AI sul suo modello di diffusione stabile su milioni di immagini di Getty fosse intrinsecamente illegale. Il nuovo sviluppo segnala una potenziale ricalibrazione della strategia nella più ampia guerra tra creatori di contenuti e aziende di intelligenza artificiale, arrivando solo un giorno dopo che un giudice degli Stati Uniti ha emesso una sentenza sismica in una disputa simile che coinvolge l’antropica della società di intelligenza artificiale. In risposta al cambiamento, un portavoce della stabilità AI ha affermato che la società è stata soddisfatta della decisione di Getty di abbandonare più reclami.

Mentre le richieste di formazione e output di base sono state ritirate, la lotta continua su due fronti chiave. Getty sta perseguendo una richiesta di violazione secondaria, che pone che il modello AI stesso sia un”articolo in violazione”importato illegalmente nel Regno Unito. Il secondo fronte è una richiesta di marchio incentrata sull’apparizione dell’iconica filigrana di Getty su alcune immagini generate dall’IA. Nel frattempo, la causa parallela e molto più ampia di Getty negli Stati Uniti, che cerca danni fino a $ 1,7 miliardi, rimane completamente inalterata.

Da parte sua, la stabilità AI ha sostenuto che le affermazioni sul marchio falliranno perché i consumatori non interpretano le filigrane come un messaggio commerciale dell’azienda. Il brusco restringimento del caso ha lasciato alcuni osservatori che desideravano di più. Il nuovo sviluppo probabilmente frustrerà quelli su entrambi i lati del dibattito, che speravano che il risultato del processo potesse portare un po’di chiarezza ai problemi stessi che ora sono stati abbandonati.

il precedente antropico: una linea di coda di furto in California in una coda di marcia in California. Disegnando una nuova linea affilata nella sabbia. In un ordine di giudizio sommario, il giudice William Alsup ha stabilito che l’atto di addestrare un modello di intelligenza artificiale sui libri protetti da copyright costituisce un equo uso”trasformativo”, una grande vittoria per gli sviluppatori di intelligenza artificiale.

Tuttavia, la vittoria è arrivata con una cattura monumentale: il giudice ha stabilito che questa protezione non si estende ai metodi usati per acquisire i dati di formazione. La Corte ha riscontrato che l’antropico deve affrontare un processo ad alto rischio per la costruzione del suo set di dati da biblioteche online piratate. Le comunicazioni interne hanno rivelato che i dirigenti dell’azienda preferivano l’uso di libri piratati per evitare lo slogan legali/pratiche/affari delle licenze.

Il giudice non era pregustato nella sua valutazione di quella logica:”Quella logica non può essere quadrata con il Copyright Act”. Ciò crea una distinzione legale cruciale tra l’applicazione dell’IA e l’acquisizione di dati. Come ha dichiarato il giudice Alsup,”Avremo un processo sulle copie piratate utilizzate per creare la biblioteca centrale di Antropi e i danni risultanti”,

Questa decisione divisa è stata accolta con una forte opposizione da parte di gruppi creatori. In a response from The Authors Guild, the organization argued the ruling”Contradimenti stabiliti da copyright precedente”e”ignora il danno causato agli autori”dalla saturazione del mercato da parte di contenuti generati dall’IA che compete direttamente con il loro lavoro.

Le teorie legali in fase di test stanno preparando i precedenti per controversie che coinvolgono autori, artisti e musicisti. In uno di questi esempi, una causa ormai risolta presentata dai principali editori di musica ha affermato che i testi delle canzoni protetti da copyright usate illegalmente per addestrare la sua AI Claude.

Questo complesso ambiente legale evidenzia la strategia a doppio binario che molti detentori di contenuti stanno adottando. Le immagini di Getty non sono contrarie all’intelligenza artificiale; In effetti, ha lanciato la propria offerta generativa di intelligenza artificiale che è stata formata esclusivamente sul proprio contenuto autorizzato e compensa gli artisti che contribuiscono. Questo approccio incornicia la sua lotta legale non come un rifiuto luddite della tecnologia, ma come una battaglia per il controllo e il risarcimento. Nel 2023, la società affermò la sua convinzione che l’IA di stabilità”scelse di ignorare le opzioni di licenza vitali e le protezioni legali di vecchia data alla ricerca dei loro interessi commerciali autonomi.”

Il recente cambiamento nel caso suggerisce che la domanda centrale nelle guerre di copyright AI si sta evolvendo. L’industria sta superando l’ampio dibattito sul fatto che la formazione dell’IA sia un uso equo e in un esame più granulare, e forse più pericoloso, della catena di approvvigionamento dei dati. L’era di”raschiare prima, fare domande in seguito”sembra essere definitivamente finita. Per le aziende di intelligenza artificiale, dimostrare il lignaggio dei dati puliti non è più una questione di etica ma di immensa responsabilità legale e finanziaria, segnando un nuovo e decisivo campo di battaglia nella lotta per definire il futuro della creatività.

Categories: IT Info