Ang Anthropic, ang AI lab na kilala sa Claude chatbot nito, ay sumang-ayon na ipatupad at panatilihin ang mga pag-iingat na pumipigil sa mga modelo nito sa pagbuo ng naka-copyright na lyrics ng kanta.
Ang desisyong ito ay bahagi ng isang legal na pakikipag-ayos sa mga kilalang publisher ng musika, kabilang ang Universal Music Group at Concord Music Group, na inakusahan ang kumpanya ng paglabag sa copyright para sa paggamit ng lyrics ng kanta nang walang pahintulot sa mga dataset ng pagsasanay sa AI.
Inaprubahan ng U.S. District Judge Eumi Lee, niresolba ng kasunduan ang mga bahagi ng isang paunang utos na hinihiling ng mga publisher. Pinipilit nito ang Anthropic na panatilihin ang mga umiiral na”guardrail”nito kay Claude at mga katulad na modelo upang maiwasan ang pagpaparami ng naka-copyright na materyal.
Ang kaso ay nagmamarka ng isang mahalagang sandali sa lumalaking tensyon sa pagitan ng AI innovation at mga karapatan sa intelektwal na ari-arian.
The Allegations: Unlicensed Use of Song Lyrics
Ang demanda, na sinimulan noong Oktubre 2023, ay nagsasanay na sinanay ng Anthropic ang mga AI system nito gamit ang lyrics mula sa mahigit 500 kanta nang hindi kumukuha ng mga lisensya. Binanggit ng mga publisher ang mga halimbawa tulad ng Katy Perry’s Roar at gawa ng The Rolling Stones at Beyoncé, na inaakusahan ang AI tool ng pagbuo ng near-verbatim reproductions ng mga lyrics na ito.
Isang halimbawa na ibinigay sa pag-file ay inilarawan si Claude na gumagawa ng”halos magkaparehong kopya”ng Perry’s Roar. Nangatuwiran ang mga publisher na ang hindi awtorisadong paggamit na ito ay hindi lamang lumalabag sa batas ng copyright ngunit pinapahina rin ang kanilang mga relasyon sa mga manunulat ng kanta at iba pang mga stakeholder.
“Ang walang lisensyang paggamit ni Anthropic ng naka-copyright na materyal ay hindi na mababawi na sumisira sa mga relasyon ng mga publisher sa kasalukuyan at mga prospective na songwriter-partners,”sabi ng demanda, na nagbibigay-diin sa mas malawak na epekto sa tiwala sa industriya.
Guardrails: Paano Sila Gumagana at ang Kanilang Tungkulin sa Pagsunod
Ang mga guardrail ay mga teknikal na hakbang na idinisenyo upang limitahan ang mga output ng AI, na tinitiyak na ang mga modelong tulad ni Claude ay hindi makagawa ng naka-copyright o nakakapinsalang materyal na ito may kasamang mga filter na humaharang sa mga partikular na output, mga algorithm na idinisenyo upang makita at maiwasan ang verbatim na pagpaparami ng data ng pagsasanay, at mga mekanismo ng pangangasiwa para sa mga pakikipag-ugnayan ng user sa modelo.
Inaaangkin ng Anthropic na ang mga kasalukuyang guardrail nito ay matatag at may kakayahang pigilan ang mga naturang output. Sinabi ng isang tagapagsalita para sa kumpanya,”Mayroon kaming maraming proseso na idinisenyo upang maiwasan ang naturang paglabag. Ang aming desisyon na pumasok sa takdang ito ay naaayon sa mga priyoridad na iyon.”
Sa ilalim ng kasunduan, pinapayagan ang mga publisher ng musika na abisuhan ang Anthropic kung mabibigo ang mga hakbang na ito. Kinakailangan ng kumpanya na imbestigahan at itama kaagad ang anumang mga pagkukulang. Habang Pinapanatili ng Anthropic ang karapatang i-optimize ang mga pamamaraan nito, hindi nito mababawasan ang bisa ng mga pananggalang nito.
Patas na Paggamit at Legal Precedents
Ipinagtanggol ng Anthropic ang paggamit nito ng naka-copyright na materyal sa ilalim ng doktrinang”patas na paggamit”, na nangangatwiran na ang pagsasanay sa mga generative na modelo ng AI ay nagsasangkot ng pagbabagong aplikasyon ng data. Ang mga legal na paghaharap ng kumpanya ay nagsabi,”Patuloy kaming umaasa na ipakita na, alinsunod sa umiiral na batas sa copyright, ang paggamit ng potensyal na naka-copyright na materyal sa pagsasanay ng mga generative AI models ay isang quintessential fair use.”
Gayunpaman, ang iginigiit ng mga publisher na ang kasanayang ito ay nagpapababa ng halaga sa kanilang trabaho at lumalabag sa mga umiiral na merkado ng paglilisensya. Ipinapangatuwiran nila na ang mga kumpanya ng AI ay lumalampas sa mga itinatag na channel para sa paglilisensya, na nagreresulta sa pinsala sa ekonomiya at reputasyon mga artist at publisher.
Ang kaso na ito ang unang tumuon sa mga lyrics sa mga set ng pagsasanay sa AI, ngunit naaayon ito sa mas malawak na mga hindi pagkakaunawaan ay nahaharap ang OpenAI sa mga katulad na akusasyon sa paggamit nito ng mga artikulo ng balita, habang ang New York Times at iba pang mga media outlet ay nagtaas ng mga alalahanin tungkol sa nilalamang binuo ng AI na kinokopya ang kanilang trabaho.
Mga Implikasyon sa Industriya at Panghinaharap na Pananaw
Ang Itinatampok ng anthropic na kaso ang mga hamon ng pagbabalanse ng pag-unlad ng teknolohiya sa mga proteksyon sa intelektwal na ari-arian. Habang lalong nagiging mahalaga ang generative AI sa mga industriya mula sa entertainment hanggang sa pamamahayag, ang mga kumpanya ay nasa ilalim ng pressure na i-navigate ang mga legal at etikal na kumplikadong ito.
Ang mga proactive na kasunduan sa paglilisensya ay maaaring mag-alok ng landas pasulong. Nakipagsosyo na ang OpenAI sa mga publisher tulad ng TIME at Associated Press, habang ang Microsoft ay nakakuha ng mga deal sa HarperCollins para gamitin ang mga nonfiction na pamagat nito para sa AI training.
Ang kasunduan ni Anthropic sa mga music publisher ay maaaring magsilbing template para sa mga hinaharap na resolusyon, nagpapakita ng kahalagahan ng malinaw at maipapatupad na mga mekanismo ng pagsunod. Gayunpaman, dahil hindi pa namumuno si Judge Lee sa mas malawak na isyu kung ang walang lisensyang AI na pagsasanay ay bumubuo ng patas na paggamit, maaaring magtakda ng precedent ang resulta ng kaso.