A YouTube kedden elindított egy új eszközt a mesterséges intelligencia mélyhamisítása elleni küzdelemre, így az alkotók nagyobb irányítást biztosítanak digitális identitásuk felett.

A hasonlatosság-észlelő rendszer segítségével a felhasználók megtalálhatják az arcukat vagy hangjukat visszaélő videókat, és kérhetik azok eltávolítását. A Google tulajdonában lévő platform e lépése az OpenAI Sora 2 alkalmazását övező hetek óta tartó vita után történt.

A Sora 2 bevezetése Hollywood és a hírességek családjai ellenreakciót váltott ki a jogosulatlan mélyhamisítások miatt. Ez arra kényszerítette az OpenAI-t, hogy gyorsan változtassa meg szabályait, és a biztonság javítása érdekében lépjen kapcsolatba a színészek szakszervezeteivel, ami rávilágít a mesterséges intelligencia által generált tartalmak irányítása körüli egyre növekvő, iparági küzdelemre.

Új eszköz a YouTube-hoz

Védelem

Közössége megerősítésének jelentős lépéseként a YouTube hivatalosan is bevezette a hasonlatosság-észlelési technológiát a YouTube Partnerprogramban részt vevő alkotók számára.

A rendszert úgy tervezték, hogy azonosítsa az AI által generált vagy módosított tartalmat, amely az alkotó arcát vagy hangját az alkotó beleegyezése nélkül használja. Proaktív védelmet kínál a meggyőző mélyhamisítások növekvő áradata ellen.

Az eszköz eléréséhez az alkotóknak egyszeri személyazonosság-ellenőrzési folyamatot kell végrehajtaniuk, amelyhez hatósági igazolvány és egy rövid szelfivideó szükséges a csalárd használat megelőzése érdekében.

A beépítés után a rendszer, amely a YouTube által létrehozott Content ID-hez hasonlóan működik, megvizsgálja a lehetséges egyezéseket az új feltöltésekben.

Ha egy esetleges visszaélést megjelölnek, az alkotók áttekinthetik a videót. és döntsd el, hogy a YouTube adatvédelmi panaszfolyamatán vagy szabványos szerzői jogi követelésen keresztül nyújtanak be eltávolítási kérelmet.

Ez közvetlen mechanizmust biztosít az alkotók számára személyes márkájuk és identitásuk védelmére, kezelve az alkotói gazdaságon belüli régóta fennálló félelmet, hogy a digitális megszemélyesítés potenciálisan károsíthatja a hírnevét.

[beágyazott tartalom]

A Direct FireStorsponseA Direct Fire’s

A YouTube módszeres bevezetése éles ellentétben áll az OpenAI Sora 2 videógenerátorának kaotikus debütálásával.

A Sora 2 október elején elindított kezdeti „leiratkozási” politikája a közszereplőkre és a szerzői joggal védett karakterekre azonnal visszaütött. A platform kialakítása, amely gyors, vírusos videók létrehozását ösztönözte, azt jelentette, hogy a felhasználók elárasztották a társ közösségi alkalmazást jogosulatlan és gyakran sértő mélyhamisításokkal, ami heves közfelháborodást váltott ki.

A legerősebb kritika az elhunyt közéleti személyiségek családjaitól érkezett. Zelda Williams, Robin Williams színész lánya leírta a fájdalmat, amikor azt látja, hogy „valódi emberek hagyatéka… borzalmas, a TikTok bábozása őrjítő.”

A polgárjogi vezetők, Malcolm X és Martin Luther King Jr. birtokai szintén elítélték a „tisztelhetetlen” és „bántó” ábrázolást. Bernice King, Dr. King lánya egyszerű, de visszhangot keltő könyörgést intézett a közösségi médiában, hogy hagyják abba az apjáról készült videókat.

Hollywood gyorsan mozgósított a platform ellen. A befolyásos Creative Artists Agency (CAA) az alkalmazást „jelentős kockázatnak” minősítette ügyfelei számára. Eközben a Motion Picture Association (MPA) a visszaélések jogi terhét egyenesen az AI-cégre hárította. Charles Rivkin, az MPA vezérigazgatója kijelentette, hogy „… továbbra is az ő felelősségük – nem a jogtulajdonosoké –, hogy megakadályozzák a Sora 2 szolgáltatás megsértését.”

A kreatív iparág egységes frontja teljes PR-válságot hozott létre az OpenAI számára.

Az erős nyomással szemben a vállalat megfordította az irányt. Sam Altman vezérigazgató néhány nappal az indulás után bejelentette, hogy egy részletesebb, „opt-in” rendszerre tér át a védett karakterek számára.

A vállalat később módosította szabályait, hogy lehetővé tegye a „nemrég elhunyt” figurák képviselői számára, hogy blokkolják képmásaikat. Ezt a politikát akkor ültették át a gyakorlatba, amikor az OpenAI a hagyatéka kérésére szüneteltette Martin Luther King Jr. összes generációját.

Az OpenAI nyilatkozatában elismerte a nehéz egyensúlyt, és azt mondta: „Bár a szólásszabadság erősen érdekli a történelmi személyek ábrázolását, az OpenAI úgy véli, hogy a közszereplőknek és családjaiknak végső soron ellenőrizniük kell, hogyan használják fel hasonlatosságukat.”

október 20-án csúcsosodott ki, amikor az OpenAI hivatalos együttműködést jelentett be Bryan Cranston színésszel és a SAG-AFTRA szakszervezettel a biztonsági védőkorlátok megerősítése érdekében. Ez egy mérföldkőnek számító lépés, amely szerint a vezető mesterségesintelligencia-fejlesztő közvetlenül együttműködik a kreatív szakszervezetekkel a politika alakítása érdekében.

Navigáció a mesterséges intelligencia feltérképezetlen jogi és etikai területén2 /h3a> A viták és a YouTube új eszköze rávilágít a generatív mesterséges intelligencia körüli hatalmas jogi és etikai szürke zónára. A hagyományos rágalmazási törvények gyakran nem vonatkoznak az elhunytra, így a családok egyetlen menekülési lehetőségük a következetlen állami szintű, halál utáni nyilvánosságra hozatali jogok foltja.

Ez a jogi vákuum, minden szövetségi szabvány nélkül, lehetővé tette a tartalom elterjedését, amely bár nem mindig illegális, de jelentős érzelmi feszültséget okoz a családok számára, és egyúttal feszültséget is okoz a családoknak. alapvető kérdéseket vet fel újra az AI modellek képzéséről. A kritikusok azzal érvelnek, hogy az iparág nagy mennyiségű internetes adat kifejezett engedély nélküli lekaparására való támaszkodása alapvető probléma, amelyet még meg kell oldani.

Míg az OpenAI támogatását fejezte ki az olyan szövetségi jogszabályok mellett, mint a NO FAKES Act, a digitális jogok védelmezői attól tartanak, hogy az ilyen törvények elfojthatják a szólásszabadságot és parodizálhatják ezt a zavaró YouTube-környezetet, ha nincs gondosan kidolgozva.

Az alkotóközpontú eszköz egy másik utat kínál előre. Azáltal, hogy világos, hozzáférhető mechanizmust biztosít az egyének számára, hogy ellenőrizzék saját hasonlatosságukat, a platform a digitális identitás felelősségteljesebb sáfáraként pozicionálja magát.

Bryan Cranston színész számára, akiről jogosulatlan Sora-klipek készültek, az ilyen proaktív intézkedések elengedhetetlenek. „Hálás vagyok az OpenAI-nak az irányelveiért és a védőkorlátok javításáért, és remélem, hogy ők és az ebben a munkában részt vevő összes vállalat tiszteletben tartja személyes és szakmai jogunkat hangunk és hasonlóságunk reprodukálásához.”

Miközben az iparág küzd ezekkel az új technológiákkal, az OpenAI „nyilvános építkezésben” káosz és a YouTube strukturált, eszközalapú megközelítése, a jövő manapság két nagyon eltérő megközelítése közötti ellentét alakul ki. AI által generált tartalom.

Ezen eltérő stratégiák eredménye valószínűleg döntő precedenst teremt a mesterséges intelligencia felelős bevezetéséhez a technológiai környezetben.

Categories: IT Info