mapagkumpitensyang dinamika sa loob ng larangan ng artipisyal na katalinuhan ngayon ay lilitaw na direktang nakakaimpluwensya sa pag-unlad ng patakaran sa kaligtasan sa OpenAI. Ang kumpanya sa likod ng Chatgpt lamang Nai-update ang panloob na mga gabay sa kaligtasan , na nagpapakilala ng isang kilalang probisyon: maaaring mabago ng Openai ang sariling mga kinakailangan sa kaligtasan kung ang isang karibal na AI lab ay nagpakawala ng isang malakas na sistema na itinuturing na”mataas na risk”nang walang mga panukalang panukalang. Ang rebisyon na ito sa paghahanda ng balangkas ng paghahanda nito bilang kumpanya, na ngayon ay nagkakahalaga ng $ 300 bilyon kasunod ng isang pangunahing pag-ikot ng pamumuhunan na pinangunahan ng SoftBank, nag-navigate ng matinding kumpetisyon sa merkado at lumalagong pagsisiyasat sa mga pamamaraan ng pagsusuri para sa mga advanced na modelo ng AI, tulad ng paparating na serye ng O3. Nagtatatag ito ng mga tukoy na’sinusubaybayan na kategorya’para sa pagsubaybay sa mga kilalang panganib tulad ng maling paggamit sa biology, kimika, at cybersecurity, kasabay ng pasulong na hitsura ng mga’kategorya ng pananaliksik’na paggalugad ng mga lugar tulad ng long-range autonomy at autonomous na pagtitiklop. (Sag). Gayunpaman, ang pinaka-atensyon na pagbabago ay ang sugnay na direktang tinutugunan ang mapagkumpitensyang kapaligiran. Nabasa ng anunsyo ni Openai:”Kung ang isa pang Frontier AI developer ay naglabas ng isang high-risk system nang walang maihahambing na mga pangangalaga, maaari naming ayusin ang aming mga kinakailangan.”Ang detalyadong kumpanya na bago gumawa ng gayong pagsasaayos:”Gayunpaman, masigasig nating kumpirmahin na ang panganib na tanawin ay talagang nagbago, kinikilala ng publiko na gumagawa kami ng pagsasaayos, masuri na ang pagsasaayos ay hindi makahulugan na madaragdagan ang pangkalahatang panganib ng matinding pinsala, at patuloy pa ring pinapanatili ang mga pangangalaga sa isang antas na mas protektado.”Ang binagong balangkas ay tumuturo din sa isang pagtaas ng pag-asa sa mga awtomatikong pamamaraan sa pagsusuri, na umaakma sa mga pagsusuri ng dalubhasa, upang pamahalaan ang pabilis na bilis ng pag-unlad ng modelo. Dumating ito ilang araw matapos lumitaw ang mga ulat, na sinasabing ang OpenAi ay makabuluhang na-compress ang oras na inilalaan para sa pagsubok sa kaligtasan sa mga darating na modelo tulad ng O3. Maramihang mga mapagkukunan na pamilyar sa mga operasyon na inaangkin ang mga panahon ng pagsusuri mula sa mga buwan hanggang kung minsan sa ilalim ng isang linggo, na itinuturing na hinihimok ng pangangailangan na makasabay sa mga kakumpitensya tulad ng Google, Meta, at Xai. Ang isang mapagkukunan na nagtatrabaho sa pagsusuri ng O3 ay nagsabi sa FT ang diskarte na nadama na”walang ingat,”na nagpapaliwanag,”ngunit dahil may higit na hinihiling para dito, nais nila itong mas mabilis. Inaasahan kong hindi ito isang sakuna na maling hakbang, ngunit ito ay walang ingat. Ito ay isang recipe para sa kalamidad.”Ang isa pa na lumahok sa mas mahahabang anim na buwang pagsusuri para sa GPT-4 noong 2023 ay naiulat na sinabi,”Hindi lamang nila inuuna ang kaligtasan ng publiko.”
Ang mga tiyak na pamamaraan ng pagsubok ay nasunog din. Ang mga alalahanin ay nakataas tungkol sa lawak ng mga pagsusuri ng pinong pag-tune-isang pamamaraan na ginamit upang mag-usisa para sa mapanganib na mga lumitaw na kakayahan sa pamamagitan ng mga modelo ng pagsasanay sa dalubhasang data (tulad ng virology). Ang mga kritiko, kabilang ang dating Openai Safety Researcher na si Steven Adler, ay nagturo ng kakulangan ng nai-publish na mga resulta ng pinong pag-tune para sa pinakabago, pinaka-may kakayahang modelo ng kumpanya tulad ng O1 o O3-Mini. Ang pagsasagawa ng pagsusuri ng mga intermediate na bersyon ng modelo, o”mga checkpoints,”sa halip na ang pangwakas na code na inilabas ay tinanong din.”Ito ay hindi magandang kasanayan na ilabas ang isang modelo na naiiba sa isa na iyong nasuri,”isang dating miyembro ng kawani ng OpenAI na nagkomento sa FT. Ang pagtatanggol sa proseso ng Kumpanya, pinuno ng mga sistema ng kaligtasan ng OpenAi, si Johannes Heidecke, ay iginiit sa publikasyon,”Mayroon kaming isang mahusay na balanse kung gaano kabilis ang paglipat namin at kung gaano kami masinsinang,”na katangian ng kahusayan sa mga pagsusumikap sa automation at nagsasabi na ang mga nasubok na mga checkpoint ay panimula ng mga pangwakas na paglabas. Kasama sa mga talakayan ng patakaran sa kaligtasan na ito ang sariling umuusbong na pipeline ng produkto ng OpenAi. Noong Abril 4, 2025, ang CEO Sam Altman inihayag sa pamamagitan ng x”Marahil sa loob ng ilang linggo,”habang ang debut ng GPT-5 ay maaantala ng”ilang buwan.”Ang isang pangunahing katwiran na ibinigay ay ang hangarin na”mabulok ang mga modelo ng pangangatuwiran at mga modelo ng chat/pagkumpleto,”na minarkahan ang isang paglipat mula sa isang naunang plano na tinalakay noong Pebrero 2025 upang potensyal na pagsamahin ang mga kakayahan sa GPT-5. Ang madiskarteng pagsasaayos na ito ay nagdadala ng mga modelo ng O3, na sentro sa kamakailang mga alalahanin sa pagsubok sa kaligtasan, sa agarang unahan ng iskedyul ng paglabas ng OpenAi. Tulad ng iniulat namin sa paligid ng Abril 14, ang kumpanya ay isinasaalang-alang ang isang proseso na”napatunayan na samahan”. Maaaring mangailangan ito ng mga organisasyon na naghahanap ng pag-access sa API sa mga hinaharap na modelo tulad ng O3 o ang inaasahang GPT-4.1 upang mapatunayan ang kanilang pagkakakilanlan gamit ang mga ID na inilabas ng gobyerno. Iminungkahi ni Openai na nilalayon nito na kontra ang maling paggamit ng isang”maliit na minorya,”ngunit ang panukala ay pinili ang mga alalahanin mula sa mga nag-develop tungkol sa pagtaas ng alitan, privacy ng data, at potensyal na pagbubukod, lalo na para sa mga nasa labas ng Ang mga panggigipit sa industriya at panloob na dinamika
Ang pagpapahalaga na ito ay nagreresulta mula sa isang malambot na alok na nagpapahintulot sa mga tagaloob na magbenta ng mga pagbabahagi, sa halip na isang pag-agos ng bagong operating capital, na potensyal na palakasin ang presyon upang maihatid ang mga komersyal na mabubuhay na produkto. Ang malaking pamumuhunan ng Kumpanya sa Compute Infrastructure, na napatunayan ng isang $ 11.9 bilyong pakikitungo sa Coreweave at pakikilahok sa multi-phase Stargate Project, karagdagang i-highlight ang sukat at gastos ng pagpapatakbo sa frontier ng AI. Ang pag-alis ni Jan Leike, dating co-lead ng superalignment team na nakatuon sa mga pangmatagalang panganib, noong Mayo 2024 ay minarkahan ng kanyang pahayag sa publiko na ang”kultura ng kaligtasan at proseso ay nakakuha ng isang backseat sa mga makintab na produkto.”Karamihan sa mga kamakailan-lamang, ang pagdaragdag sa panloob na pananaw, isang pangkat ng mga dating empleyado ng OpenAi ay nagsampa ng isang maikling amicus noong Abril 11, 2025, bilang suporta sa patuloy na demanda ng Elon Musk laban sa kumpanya. Ang maikling pagtatalo na ang paglipat ng OpenAi patungo sa isang istraktura na may capped-profit ay maaaring makompromiso ang mga orihinal na pangako sa kaligtasan. Iminungkahi ng Google DeepMind ang isang Global AGI Safety Framework noong Abril 3, na nanawagan sa internasyonal na kooperasyon. Samantala, ang Anthropic, ay naisapubliko ang mga pagsisikap sa kaligtasan sa teknikal tulad ng balangkas ng interpretability nito, bagaman ang kumpanya ay nahaharap din sa pagsisiyasat para sa naiulat na pag-alis ng ilang mga naunang boluntaryong mga pangako sa kaligtasan. Tulad ng mga regulasyon na balangkas tulad ng EU AI Act ay nagsisimulang magkaroon ng impluwensya, ang binagong diskarte ni OpenAi ay nagpapakilala ng isang bagong variable sa kung paano ang mga nangungunang mga lab ay maaaring pamahalaan ang mga panganib sa AI sa isang lalong mapagkumpitensyang arena.