W odpowiedzi na chaotyczny tydzień premiery, podczas którego nowa aplikacja Sora została zalana kpiącymi deepfakes, OpenAI wprowadziło krytyczną aktualizację, która zapewnia użytkownikom większą kontrolę nad sobą generowanym przez sztuczną inteligencję.
Ogłoszone w poniedziałek nowe funkcje bezpieczeństwa pozwalają użytkownikom ograniczyć wykorzystywanie ich cyfrowych duplikatów, czyli „kamei”, w określonych kontekstach, takich jak filmy polityczne.
To posunięcie jest bezpośrednią próbą zaradzenia „nadchodzącemu problemowi”. katastrofa dezinformacyjna”, przed którą ostrzegali krytycy po debiucie aplikacji.
Na platformie opisanej jako „TikTok dla deepfakes” nawet sam dyrektor generalny OpenAI, Sam Altman, stał się mimowolną gwiazdą wielu dziwaczne klipy, w tym jeden, w którym grilluje martwego Pikachu.
Nowe sterowanie w „kameach” oswajania sztucznej inteligencji
Główną funkcją aktualizacji są „ograniczenia dotyczące kamei”. Bill Peebles, który stoi na czele zespołu Sora w OpenAI, wyjaśnił, że użytkownicy mogą teraz wydawać aplikacji konkretne instrukcje, aby zapobiec nadużyciom.
Na przykład użytkownik może teraz wyraźnie zabronić wyświetlania swojego wizerunku AI w filmach zawierających komentarze polityczne lub wypowiadania określonych słów.
Kontrola umożliwia również wprowadzanie fantazyjnych preferencji. Pracownik OpenAI, Thomas Dimson, zauważył, że użytkownik może nakazać swojemu wirtualnemu sobowtórowi „noszenie czapki z daszkiem nr 1 wśród fanów ketchupu w każdym filmie” przy każdym występie. Aktualizacja stanowi część szerszych wysiłków mających na celu ustabilizowanie aplikacji i zarządzanie chaosem, który zdefiniował pierwszy tydzień jej działania.
Peebles potwierdził, że firma pracuje również nad udoskonaleniem słabego znaku wodnego Sory i udoskonaleniem jej modeli bezpieczeństwa, aby wychwytywać luki.
Obiecał, że OpenAI będzie w dalszym ciągu „wspinać się po górach, zwiększając jeszcze bardziej solidność ograniczeń”, dodając, że firma „nadal wspinamy się po drogach, wprowadzając nowe ograniczenia” jeszcze bardziej rygorystyczne ograniczenia, a my dodamy nowe sposoby, dzięki którym możesz w przyszłości zachować kontrolę nad swoim epizodem.”
aktualizacja sory: nadchodzą ulepszenia kamei i bezpieczeństwa!
1. ograniczenia dotyczące scen: słyszeliśmy od wielu osób, które chcą udostępnić swoje kamee wszystkim, ale zachować kontrolę nad sposobem ich wykorzystania.
od dzisiaj możesz wydawać sorze instrukcje ograniczające typ…
— Bill Peebles (@billpeeb) 5 października 2025
Wzorzec reaktywnych poprawek
Ta reaktywna aktualizacja staje się znanym wzorcem w OpenAI.
Jest ona następstwem kolejnej szybkiej korekty kursu, która miała miejsce w zeszłym tygodniu w związku z kontrowersyjną polityką praw autorskich Sory. Aplikacja początkowo została uruchomiona w modelu „opt-out”, który traktował chronione postacie jako uczciwą grę przy generowaniu wideo, chyba że posiadacz praw formalnie sprzeciwił się temu.
Ta polityka wywołała natychmiastową reakcję, gdy użytkownicy zalali platformę filmami przedstawiającymi dobrze znane postacie w surrealistycznych scenariuszach.
Kontrowersje ponownie rozpaliły zaciekłą debatę na temat zgody i dozwolonego użytku w przestrzeni generatywnej sztucznej inteligencji, która to dyskusja nie przestawała istnieć branży od lat.
W obliczu narastającego kryzysu PR, OpenAI dokonało zwrotu. 3 października dyrektor generalny Sam Altman ogłosił przejście na bardziej przyjazny twórcom system „opt-in”.
W poście na blogu stwierdził: „Zapewnimy posiadaczom praw bardziej szczegółową kontrolę nad generowaniem znaków, podobnie jak w przypadku modelu opartego na podobieństwie, ale z dodatkowymi kontrolami.”
Altman również osłodził umowę, ujawniając plany dotyczące modelu podziału przychodów dla uczestniczących posiadaczy praw.
Hazard „Buduj publicznie”
Agresywna strategia OpenAI polegająca na „budowaniu publicznie” jest częściowo odpowiedzią na silną presję rynkową ze strony rywali, takich jak Veo 3 firmy Google.
Firma pragnie unikać tracimy pozycję w konkurencyjnym krajobrazie generowania wideo AI.
Varun Shetty, szef ds. partnerstw medialnych OpenAI, przyznał się do tej presji, stwierdzając: „znajdujemy się również w konkurencyjnym krajobrazie, w którym widzimy, że inne firmy również pozwalają na tego rodzaju generacje. Nie chcemy, aby znajdowało się to w niekorzystnej sytuacji konkurencyjnej.”
Filozofia ta ma swoich obrońców, którzy twierdzą, że uwalnianie potężnych Lepiej jest wdrożyć technologię na wczesnym etapie niż opracowywać ją w tajemnicy.
Były dyrektor OpenAI, Zack Kass, przedstawił ten argument, mówiąc reporterom: „Istnieją dwie alternatywy dla budowania na otwartej przestrzeni: w ogóle nie budować lub budować prywatnie. Moim zdaniem te alternatywy są gorsze.”
Jednak krytycy pozostają sceptyczni wobec nowych zabezpieczeń. Wskazują na długą historię szukania przez użytkowników sposobów na obejście takich ograniczeń na innych platformach AI. Na razie OpenAI łata swoje dzieło na bieżąco, mając nadzieję, że kontrola dogoni chaos.