YouTube uruchomił we wtorek nowe narzędzie do walki z deepfake’ami opartymi na sztucznej inteligencji, dając twórcom większą kontrolę nad ich tożsamością cyfrową.
System wykrywania podobieństwa pozwala użytkownikom znajdować filmy, w których w niewłaściwy sposób wykorzystuje się ich twarz lub głos, i żądać ich usunięcia. To przeniesienie z platformy należącej do Google następuje po tygodniach kontrowersji wokół aplikacji Sora 2 firmy OpenAI.
Premiera Sora 2 wywołała reakcję Hollywood i rodzin celebrytów w związku z nieautoryzowanymi deepfakesami. Zmusiło to OpenAI do szybkiej zmiany zasad i nawiązania współpracy ze związkami zawodowymi aktorów w celu poprawy bezpieczeństwa, co uwydatniło narastającą w całej branży bitwę o kontrolę nad treściami generowanymi przez sztuczną inteligencję.
YouTube udostępnia nowe narzędzia dla twórcy Ochrona
W znaczącym kroku wzmacniającym pozycję swojej społeczności YouTube oficjalnie wprowadził technologię wykrywania podobieństwa dla kwalifikujących się twórców w programie partnerskim YouTube.
System zaprojektowano tak, aby identyfikował treści wygenerowane przez sztuczną inteligencję lub zmienione, które wykorzystują twarz lub głos twórcy bez jego zgody. Zapewnia proaktywną ochronę przed rosnącą falą przekonujących deepfake’ów.
Aby uzyskać dostęp do tego narzędzia, twórcy muszą przejść jednorazowy proces weryfikacji tożsamości, który wymaga dokumentu tożsamości urzędowego i krótkiego filmu typu selfie, aby zapobiec oszustwom użyj.
Po włączeniu system, który działa podobnie do identyfikatora treści YouTube dotyczącego praw autorskich, skanuje nowe przesłane treści w poszukiwaniu potencjalnych dopasowań.
Kiedy zaistnieje potencjalne nadużycie oznaczony, twórcy mogą przejrzeć film i zdecydować się na złożenie wniosku o usunięcie w ramach procesu skargi dotyczącej prywatności w YouTube lub standardowego roszczenia dotyczącego praw autorskich.
Daje to twórcom bezpośredni mechanizm ochrony ich osobistej marki i tożsamości, łagodząc utrzymujący się od dawna strach w gospodarce twórców dotyczący potencjalnego potencjalnego zagrożenia reputacji przez podszywanie się pod postać cyfrową.
[treści osadzone]
Bezpośrednia odpowiedź na Deepfake OpenAI Firestorm
Metodyczne wdrażanie YouTube stanowi jaskrawy kontrast z chaotycznym debiutem generatora wideo Sora 2 firmy OpenAI.
Wprowadzona na początku października początkowa polityka Sora 2 dotycząca „opt-out” w przypadku osób publicznych i postaci chronionych prawami autorskimi natychmiast przyniosła odwrotny skutek. Projekt platformy, który zachęcał do szybkiego, wirusowego tworzenia filmów, oznaczał, że użytkownicy zasypywali towarzyszącą jej aplikację społecznościową nieautoryzowanymi i często obraźliwymi deepfakesami, wywołując gwałtowne oburzenie opinii publicznej.
Najsilniejsza krytyka ze strony rodzin zmarłych osób publicznych. Zelda Williams, córka aktora Robina Williamsa, opisała ból towarzyszący obserwowaniu, jak „dziedzictwo prawdziwych ludzi zostaje skondensowane do… okropnego, a lalkowanie ich przez TikTok doprowadza do szaleństwa”.
Sądania przywódców praw obywatelskich Malcolma X i Martina Luthera Kinga Jr. również potępiły „brak szacunku” i „bolesne” przedstawienia. Bernice King, córka doktora Kinga, w mediach społecznościowych wystosowała prosty, ale donośny apel, aby zaprzestano publikowania filmów jej ojca.
Hollywood szybko zmobilizowało się przeciwko platformie. Wpływowa agencja kreatywnych artystów (CAA) określiła aplikację jako „poważne ryzyko” dla swoich klientów. Tymczasem Stowarzyszenie Filmowe (MPA) zrzuciło odpowiedzialność prawną za nadużycia na firmę zajmującą się sztuczną inteligencją. Dyrektor generalny MPA, Charles Rivkin, stwierdził, że „… to na nich – a nie na posiadaczach praw – spoczywa odpowiedzialność za zapobieganie naruszeniom usługi Sora 2.”
Ten zjednoczony front branży kreatywnej spowodował poważny kryzys PR dla OpenAI.
W obliczu silnej presji firma próbowała zmienić kurs. Dyrektor generalny Sam Altman ogłosił przejście na bardziej szczegółowy system „opt-in” dla chronionych postaci zaledwie kilka dni po premierze.
Firma zmieniła później swoje zasady, aby umożliwić przedstawicielom „niedawno zmarłych” postaci blokowanie ich podobizny. Polityka ta została wdrożona w praktyce, gdy OpenAI wstrzymało wszystkie pokolenia Martina Luthera Kinga Jr. na prośbę jego majątku.
W oświadczeniu OpenAI przyznała, że boryka się z trudną równowagą, stwierdzając: „Chociaż istnieje duży interes w wolności słowa w przedstawianiu postaci historycznych, OpenAI uważa, że osoby publiczne i ich rodziny powinny ostatecznie mieć kontrolę nad sposobem wykorzystania ich podobizny.”
Seria środków reaktywnych zakończyła się 20 października, kiedy OpenAI ogłosiło formalne partnerstwo z aktorem Bryanem Cranstonem i związkiem zawodowym SAG-AFTRA w celu wzmocnienia barier ochronnych, jest to przełomowe posunięcie, w ramach którego wiodący twórca sztucznej inteligencji współpracuje bezpośrednio ze związkami kreatywnymi w celu kształtowania polityki.
Poruszanie się po niezbadanym prawnym i etycznym terytorium sztucznej inteligencji
Kontrowersje dotyczące Sory 2 i Nowe narzędzie YouTube podkreśla ogromną szarą strefę prawną i etyczną otaczającą generatywną sztuczną inteligencję. Tradycyjne przepisy dotyczące zniesławienia często nie mają zastosowania do zmarłego, pozostawiając rodzinom mozaikę niespójnych praw do publikacji informacji pośmiertnych na poziomie stanowym jako jedyne rozwiązanie.
Ta próżnia prawna, bez nadrzędnych standardów federalnych, pozwoliła na rozprzestrzenianie się treści, które – choć nie zawsze nielegalne – powodują znaczny niepokój emocjonalny i niepewność zarówno dla platform, jak i rodzin.
Debata ponownie rodzi również podstawowe pytania o tym, jak trenowane są modele AI. Krytycy twierdzą, że poleganie branży na pobieraniu ogromnych ilości danych internetowych bez wyraźnej zgody to podstawowy problem, który nie został jeszcze rozwiązany.
Chociaż OpenAI wyraziło poparcie dla przepisów federalnych, takich jak ustawa NO FAKES, obrońcy praw cyfrowych obawiają się, że takie przepisy mogą zdusić wolność słowa i parodię, jeśli nie zostaną starannie opracowane.
W tym niespokojnym środowisku narzędzie YouTube skupiające się na twórcach oferuje inną ścieżkę do przodu. Zapewniając użytkownikom przejrzysty i dostępny mechanizm kontrolowania własnego wizerunku, platforma pozycjonuje się jako bardziej odpowiedzialny zarządca tożsamości cyfrowej.
Dla aktora Bryana Cranstona, który był bohaterem nieautoryzowanych klipów Sory, takie proaktywne środki są niezbędne. „Jestem wdzięczny firmie OpenAI za jej politykę i ulepszenie zabezpieczeń i mam nadzieję, że ona i wszystkie firmy zaangażowane w tę pracę uszanują nasze osobiste i zawodowe prawo do zarządzania replikacją naszego głosu i podobieństwa”.
W miarę jak branża zmaga się z tymi nowymi technologiami, kontrast między chaosem OpenAI polegającym na „budowaniu w miejscach publicznych” a ustrukturyzowanym, opartym na narzędziach podejściem YouTube prezentuje dwie bardzo różne filozofie zarządzania przyszłością technologii generowanych przez sztuczną inteligencję treści.
Wynik tych rozbieżnych strategii prawdopodobnie ustanowi kluczowe precedensy dla odpowiedzialnego wdrażania sztucznej inteligencji w krajobrazie technologicznym.