dinamica competitivă în domeniul inteligenței artificiale par acum să influențeze direct elaborarea politicii de siguranță la OpenAI. Compania din spatele Chatgpt Just și-a actualizat orientările interne de siguranță , introducerea unei provizii notabile: Openai își poate modifica propriile cerințe de siguranță, dacă un laborator AI rival eliberează un sistem puternic, demed „High-Risk”, fără măsuri de protecție similare. Această revizuire a suprafețelor sale de cadru de pregătire ca companie, acum evaluată la 300 de miliarde de dolari în urma unei runde majore de investiții conduse de softbank, navighează pe o concurență intensă pe piață și o examinare în creștere asupra procedurilor sale de evaluare pentru modelele avansate AI, cum ar fi seria O3 viitoare.
Cadrul actualizat, prima revizuire publică detaliată din 2023, perfecționează modul în care este orientare și preparate în mod public. Acesta stabilește „categorii urmărite” specifice pentru monitorizarea riscurilor cunoscute, cum ar fi utilizarea greșită în biologie, chimie și cibersecuritate, alături de „categorii de cercetare”, care explorează domenii precum autonomia pe distanțe lungi și replicarea autonomă.
Cadrul definește, de asemenea, capacitatea de „capacitate„ critică “de înaltă capacitate, printr-un grup de siguranță specific de siguranță (SAG). Cu toate acestea, cea mai atrăgătoare schimbare este clauza care abordează direct mediul competitiv. Anunțul lui OpenAI scrie: „Dacă un alt dezvoltator AI de frontieră eliberează un sistem cu risc ridicat fără garanții comparabile, ne putem ajusta cerințele. Compania a detaliat că, înainte de a face o astfel de ajustare: „Cu toate acestea, am confirma mai întâi riguros că peisajul riscului s-a schimbat efectiv, recunoaștem public că facem o ajustare, evaluați că ajustarea nu crește în mod semnificativ riscul general de vătămare severă și menținem în continuare garanții la un nivel mai protector.” Cadrul revizuit indică, de asemenea, o dependență crescută de tehnici de evaluare automată, completarea recenziilor experților, pentru a gestiona ritmul accelerat de dezvoltare a modelului.
Un climat de accelerație și control
Ajustarea politicii nu a fost făcută în izolare. A apărut la doar câteva zile după ce au apărut rapoarte, susținând că Openai a comprimat semnificativ timpul alocat pentru testarea siguranței pe modelele viitoare precum O3. Mai multe surse familiarizate cu operațiunile au revendicat perioade de evaluare reduse de la luni până la uneori sub o săptămână, presupuse determinate de nevoia de a ține pasul cu concurenți precum Google, Meta și Xai.
Această accelerație raportată a provocat neliniște în rândul unor testatori implicați. O sursă care lucrează la evaluarea O3 a spus că abordarea FT s-a simțit „nechibzuită”, „elaborează”, „dar pentru că există mai multă cerere pentru aceasta, o vor mai repede. Sper că nu este un pas greșit catastrofal, dar este nechibzuit. Aceasta este o rețetă pentru dezastru”. Un altul care a participat la evaluarea mai lungă de șase luni pentru GPT-4 în 2023, a declarat: „Pur și simplu nu prioritizează deloc siguranța publică. S-au ridicat îngrijorări cu privire la amploarea evaluărilor de reglare fină-o tehnică folosită pentru sondarea capacităților emergente periculoase prin modele de instruire pe date specializate (cum ar fi virologia). Criticii, inclusiv fostul cercetător de siguranță OpenAI, Steven Adler, au subliniat o lipsă de rezultate de reglare fină publicată pentru cele mai noi modele ale companiei, cum ar fi O1 sau O3-Mini.
adler, au sugerat perioadelor financiare că „a nu face astfel de teste ar putea însemna Openai, iar celelalte companii AI subestimează cele mai grave riscuri ale modelelor lor.” De asemenea, a fost pusă la îndoială practica de evaluare a versiunilor de model intermediar sau „puncte de control”, în loc de codul final lansat. „Este o practică proastă să eliberezi un model diferit de cel pe care l-ai evaluat”, a comentat un fost membru al personalului tehnic OpenAI la FT. Apărarea procesului companiei, șeful de sisteme de siguranță al lui Openai, Johannes Heidecke, a afirmat publicației: „Avem un echilibru bun despre cât de repede ne mișcăm și cât de minuțioși suntem,„ atribuind eficiența eforturilor de automatizare și afirmarea faptului că punctele de control testate au fost fundamental aceleași ca și comunicatelor finale. Fundalul acestor discuții despre politica de siguranță include conducta de produse în evoluție a Openai. Pe 4 aprilie 2025, CEO Sam Altman anunțat prin X A „Modiful de planuri” Lansat „Probabil în câteva săptămâni”, în timp ce debutul GPT-5 va fi întârziat cu „câteva luni”. O rațiune cheie oferită a fost intenția de a „decupla modele de raționament și modele de chat/completare”, marcând o schimbare de la un plan anterior discutat în februarie 2025 pentru a combina capacitățile potențial în GPT-5. Această ajustare strategică aduce modelele O3, centrale în problemele recente de testare a siguranței, în fruntea imediată a programului de eliberare al lui Openai.
în timp ce, în timp ce permite, permițând mai multă libertate în procedurile de siguranță internă prin noua clauză a cadrului, OpenAI explorează simultan mai multe controale mai stricte asupra cine își poate accesa cea mai avansată tehnologie. După cum am raportat în jurul 14 aprilie, compania este având în vedere un proces „organizație verificată” . Acest lucru ar putea solicita organizațiilor care caută acces API la modele viitoare, cum ar fi O3 sau GPT-4.1 anticipat pentru a-și verifica identitatea folosind ID-uri emise de guvern. OpenAI a sugerat că acest lucru își propune să contracareze utilizarea greșită de o „mică minoritate”, dar propunerea a provocat îngrijorări din partea dezvoltatorilor cu privire la fricțiuni sporite, confidențialitate de date și excludere potențială, în special pentru cei din afara Lista Openai de API Suprited API > presiunile industriei și dinamica internă
Enormous Financial așteptări din jurul OpenAI, solidificat prin evaluarea sa de 300 de miliarde de dolari raportată la 1 aprilie, fac o parte semnificativă a contextului competitiv. Această evaluare a rezultat dintr-o ofertă de licitație care permite persoanelor din interior să vândă acțiuni, mai degrabă decât un aflux de capital de funcționare nou, care ar putea amplifica presiunea de a furniza rapid produse viabile din punct de vedere comercial. Investițiile substanțiale ale companiei în infrastructura de calcul, evidențiată de un acord de 11,9 miliarde de dolari cu Coreweave și participarea la proiectul Stargate multifazat, evidențiază în continuare amploarea și costul de funcționare la Frontiera AI.
dezacorduri interne cu privire la prioritizarea siguranței față de viteza de dezvoltare nu sunt noi pentru organizație. Plecarea lui Jan Leike, fostul co-lead al echipei de superastalare, care se concentrează pe riscuri pe termen lung, în mai 2024 a fost marcată de declarația sa publică că „cultura și procesele de siguranță au dus un loc din spate pentru produsele strălucitoare. Mai recent, adăugând la perspectiva internă, un grup de foști angajați OpenAI au depus un brief amicus la 11 aprilie 2025, în sprijinul procesului în curs de desfășurare al lui Elon Musk împotriva companiei. Scurtul susține că trecerea lui OpenAI către o structură cu profit plafonată ar putea compromite angajamentele sale de siguranță inițiale.
Actualizarea cadrului Openai, în special potențialul său de a ajusta standardele bazate pe comportamentul concurentului, este în contrast cu anunțurile recente de la unii rivali. Google Deepmind a propus un cadru global de siguranță AGI pe 3 aprilie, apelând la cooperare internațională. Între timp, Antropic a publicizat eforturile de siguranță tehnică precum cadrul său de interpretare, deși compania s-a confruntat și cu un control pentru eliminarea unor angajamente de siguranță voluntare anterioare. Pe măsură ce cadrele de reglementare, cum ar fi Legea AI a UE, încep să exercite influență, abordarea revizuită a lui Openai introduce o nouă variabilă în modul în care laboratoarele de frunte ar putea gestiona riscurile AI într-o arenă din ce în ce mai competitivă.