Dynamika konkurencyjna w dziedzinie sztucznej inteligencji wydaje się teraz bezpośrednio wpływać na rozwój polityki bezpieczeństwa w Openai. Firma stojąca za Chatgpt po prostu zaktualizowała jego wewnętrzne wytyczne dotyczące bezpieczeństwa , wprowadzając godne uwagi przepis: Openai może zmieniać własne wymagania bezpieczeństwa, jeśli Rival Ai Lab uwolniła potężną system bezpieczeństwa „wysoką ratę” bez podobnego pomiaru ochrony. Ta rewizja ramy gotowości pojawia się jako firma, obecnie wyceniona na 300 miliardów dolarów po poważnej rundzie inwestycyjnej prowadzonej przez Softbank, nawiguje intensywną konkurencję rynkową i rosnącą kontrolę nad procedurami oceny dla zaawansowanych modeli AI, takich jak nadchodząca seria O3.
Zaktualizowane ramy, zaktualizowane ramy. Ustanawia konkretne „śledzenie kategorii” do monitorowania znanych ryzyka, takich jak niewłaściwe użycie w biologii, chemii i cyberbezpieczeństwie, wraz z przyszłościowymi „kategoriami badań”, które badają obszary, takie jak autonomia autonomii dalekiego zasięgu i replikacja bezpieczeństwa. (SAG). Jednak najbardziej przyciągającą uwagę zmianą jest klauzula bezpośrednio zajmująca się środowiskiem konkurencyjnym. Ogłoszenie Openai brzmi: „Jeśli inny programista AI Frontier wypuści system o wysokim ryzyku bez porównywalnych zabezpieczeń, możemy dostosować nasze wymagania.”
Openai towarzyszyła ta potencjalna elastyczność. Firma wyszczególniła, że przed dokonaniem takiej korekty: „Jednak najpierw rygorystycznie potwierdzilibyśmy, że krajobraz ryzyka faktycznie się zmienił, publicznie uznajemy, że dokonujemy korekty, oceniamy, że korekta nie zwiększa znaczącego ryzyka poważnego szkody i nadal zachowuje zabezpieczenia na poziomie bardziej ochronnym”. Zmienione ramy wskazują również na zwiększone poleganie na automatycznych technikach oceny, uzupełniając recenzje ekspertów, w celu zarządzania przyspieszającym tempem rozwoju modelu.
Klimat przyspieszenia i kontroli
Nie dokonano w izolacji. Pojawiło się zaledwie kilka dni po tym, jak pojawiły się raporty, twierdząc, że Openai znacznie skompresował czas przeznaczony na testy bezpieczeństwa w nadchodzących modelach, takich jak O3. Wiele źródeł zaznajomionych z operacją, które odbyły się okresy oceny od miesięcy do czasami w ciągu tygodnia, rzekomo napędzane potrzebą dotrzymania kroku konkurentom, takim jak Google, Meta i Xai.
To zgłoszone przyspieszenie spowodowało niepokój wśród niektórych zaangażowanych testerów. Jedno źródło pracujące nad oceną O3 poinformowało FT, że podejście wydawało się „lekkomyślne”, opracowując: „Ale ponieważ jest na to większe zapotrzebowanie, chcą tego szybciej. Mam nadzieję, że nie jest to katastroficzne mis-stopnie, ale jest lekkomyślne. To przepis na katastrofę”. Inny, który uczestniczył w dłuższej sześciomiesięcznej ocenie dla GPT-4 w 2023 r., Podobno stwierdził: „Po prostu w ogóle nie priorytetowo traktują bezpieczeństwa publicznego.”
Specyficzne metodologie testowania również były pod ostrzałem. Zostały wzbudzone obawy dotyczące zakresu oceny dostrajania-techniki stosowanej do zbadania niebezpiecznych możliwości wyłaniających się przez modele szkoleniowe dotyczące wyspecjalizowanych danych (takich jak wirusologia). Krytycy, w tym były badacz Bezpieczeństwa Openai, Steven Adler, wskazali brak opublikowanych wyników dostrajania najnowszych, najbardziej zdolnych modeli, takich jak O1 lub O3-Mini.
Adler, zasugerował Financial Times, że „nie przeprowadzanie takich testów może oznaczać Openai i inne firmy AI, niedoszczędzają najgorszych ryzyk modeli”. Zamiast tego opublikowanego kodu, zamiast wydanego ostatecznego wydanego kodu, zamiast wydanego ostatecznego kodu, zamiast wydanego końcowego kodu. „Zła praktyka jest uwolnieniem modelu, który różni się od tego, który oceniłeś”-skomentował FT były członek personelu technicznego Openai. Broniąc procesu firmy, szef systemów bezpieczeństwa Openai, Johannes Heidecke, stwierdził do publikacji: „Mamy dobrą równowagę, jak szybko się poruszamy i jak dokładni jesteśmy,„ przypisując wydajność wysiłków automatyzacji i stwierdzenie, że testowane punkty kontrolne były zasadniczo takie same, jak końcowe wydania.
Strategiczne zmiany i striction kontroluje
, a potencjalnie umożliwia większą swobodę wewnętrznych procedur bezpieczeństwa za pośrednictwem nowej klauzuli ramowej, OpenAI jest jednocześnie eksploruje bardziej surowe kontrole, które może uzyskać dostęp do najbardziej zaawansowanej technologii. Jak informowaliśmy około 14 kwietnia, firma jest Rozważanie procesu „zweryfikowanej organizacji” . Może to wymagać od organizacji poszukujących dostępu do API do przyszłych modeli, takich jak O3 lub przewidywane GPT-4.1 weryfikacji ich tożsamości za pomocą dowód tożsamości. Openai zasugerował to, że ma to na celu przeciwdziałanie niewłaściwemu użyciu przez „niewielką mniejszość”, ale propozycja wywołała obawy deweloperów dotyczących zwiększonego tarcia, prywatności danych i potencjalnego wykluczenia, szczególnie dla osób zewnętrznych Openai’s List of API Cations presja branżowa i dynamika wewnętrzna
Ogromne oczekiwania finansowe otaczające Openai, utrwalone przez wycenę 300 miliardów dolarów zgłoszoną 1 kwietnia, stanowią znaczną część kontekstu konkurencyjnego. Wycena ta wynikała z oferty przetargowej, która umożliwia zewnętrznym sprzedaż akcji, a nie napływ nowego kapitału operacyjnego, potencjalnie wzmacniając presję, aby szybko dostarczyć produkty opłacalne komercyjnie. Znaczące inwestycje firmy w infrastrukturę obliczeniową, dowodzoną umową o wartości 11,9 miliarda dolarów z CoreWeave i uczestnictwem w projekcie wielofazowym Stargate, dodatkowo podkreślając skalę i koszty działania na granicy AI.
Wewnętrzne nieporozumienia dotyczące priorytetu bezpieczeństwa w porównaniu z prędkością rozwoju nie są nowe dla organizacji. Odejście Jana Leike’a, byłego współzałożyciela zespołu ds. SuperLignment, koncentrującego się na ryzyku długoterminowym, w maju 2024 r. Było naznaczone jego publicznym stwierdzeniem, że „kultura bezpieczeństwa i procesy przyjęły tylne miejsce na błyszczące produkty.”
Jego kolejne przejście do konkurentów antropic podkreślił te napięcia. Niedawno, dodając do Perspektywy Wewnętrznej, grupa byłych pracowników Openai złożyła brief amicus 11 kwietnia 2025 r., W ramach ciągłego pozwu Elona Muska przeciwko spółce. Krótkie twierdzi, że przesunięcie Openai w kierunku struktury ograniczonej z organizacji może zagrozić jej pierwotnym zobowiązaniom bezpieczeństwa.
Aktualizacja ramowa Openai, szczególnie jej potencjał do dostosowywania standardów opartych na zachowaniu konkurencji, jest w przeciwieństwie do ostatnich ogłoszeń niektórych rywali. Google Deepmind zaproponował globalne ramy bezpieczeństwa AGI 3 kwietnia, wzywając do współpracy międzynarodowej. Tymczasem antropijne opublikowało wysiłki bezpieczeństwa technicznego, takie jak ramy interpretacyjne, chociaż firma stanęła również przed kontrolą za usunięcie niektórych wcześniejszych dobrowolnych zobowiązań bezpieczeństwa. Ponieważ ramy regulacyjne, takie jak UE AC ACT, zaczynają wywierać wpływ, zmienione podejście Openai wprowadza nową zmienną w tym, jak wiodące laboratoria mogą zarządzać ryzykiem AI na coraz bardziej konkurencyjnej arenie.