人工智能領域內的競爭動力現在似乎直接影響了OpenAI的安全政策制定。 The company behind ChatGPT just updated its internal safety guidelines, introducing a notable provision: OpenAI may alter its own safety requirements if a rival AI lab releases a powerful system deemed “high-risk”without similar protective measures.這項對公司準備框架表面為公司的修訂版,現在以軟銀主導的投資回合為價值為3000億美元,在激烈的市場競爭中進行了激烈的市場競爭,並在對先進的AI模型的評估程序中進行了越來越多的審查,例如即將發布的O3系列。它建立了特定的“跟踪類別”,用於監測已知風險,例如生物學,化學和網絡安全性濫用,以及前瞻性的“研究類別”,探索諸如遠程自主權和自主複製等領域。

框架還通過“高高”和“高度”的“重要”顧問來觸發特定的安全諮詢,從而觸發了Safegard Safientation Safe Exection the Safeegard Safientation Safeecrand Safiention,過度的安全性,過度的安全性, (SAG)。然而,最引人注目的變化是直接解決競爭環境的條款。 OpenAI的公告寫道:“如果另一個邊境AI開發人員在沒有可比的保障的情況下發布了高風險系統,我們可能會調整要求。”

加速和審查的氣候

不是分別進行政策調整。在報導出現的幾天后,聲稱OpenAI大大壓縮了在O3等即將到來的模型上分配的安全測試的時間。熟悉運營的多個來源聲稱的評估期限從幾個月到不到一周的時間縮水,據稱是由於需要與Google,Meta和XAI等競爭對手保持同步的驅動。

這種報導的加速導致了一些相關測試人員的不安。一位從事O3評估的消息來源告訴FT,這種方法感到“魯ck”,詳細說明,“但是由於對它的需求更多,他們希望它更快地出來。我希望這不是一個災難性的錯誤,但這是魯ck的。這是災難的秘訣。 “據報導,另一位參加GPT-4進行更長的六個月評估的人說:“他們根本沒有優先考慮公共安全。 ”

特定的測試方法也受到了抨擊。人們對微調評估的程度提出了擔憂,這是一種用於通過專業數據(例如病毒學)培訓模型來探測危險新興功能的技術。包括前OpenAI安全研究員史蒂文·阿德勒(Steven Adler)在內的評論家指出,該公司最新,功能強大的車型(例如O1或O3-Mini)缺乏出版的微調結果。

adler,建議金融時期建議“不進行此類測試,這可能意味著OpenAI並不意味著其他AI公司正在低估其模型的最差風險”。還質疑評估中間模型版本或“檢查點”的實踐,而不是發布的最終代碼。一位前OpenAI技術人員對FT評論說:“發布與您評估的模型不同的模型是不好的做法。 “約翰內斯·海德克(Johannes Heidecke)捍衛公司的過程,OpenAI的安全系統負責人,宣稱出版物:“我們在移動的速度和徹底的速度和徹底的範圍上保持了良好的平衡,”將效率歸因於自動化工作,並指出經過測試的檢查點與最終的reeleases均與最終相同。這些安全政策討論的背景包括OpenAI自己不斷發展的產品管道。在2025年4月4日,首席執行官Sam Altman

,同時通過框架的新條款在內部安全程序中有更多的餘地,OpenAI同時探索誰可以訪問誰可以訪問其最先進的技術。正如我們在4月14日左右報告的那樣,該公司為考慮“已驗證的組織”過程。這可能需要尋求API訪問O3或預期的GPT-4.1等未來模型的組織,以使用政府發行的ID驗證其身份。 Openai建議這旨在抵消“少數族裔”的濫用,但是該提案引起了開發人員對增加摩擦,數據隱私和潛在排斥的擔憂,尤其是對於外部 > 行業壓力和內部動態

圍繞Openai的巨大財務期望,其據報導的3000億美元估值鞏固,構成了競爭性背景的重要組成部分。這項估值是由招標允許內部人員出售股票而不是新運營資本的股票的估值,這可能會增加迅速交付商業可行產品的壓力。該公司在計算基礎設施上進行的大量投資,這是與CoreWeave的119億美元交易和參與多相星際之門項目的119億美元交易所證明的,進一步強調了AI Frontier的規模和經營成本。

內部分歧涉及安全速度與安全速度的優先級別的內部分歧,這對於組織的確保速度並不是什麼新鮮事。揚·萊克(Jan Leike)的離開,揚·萊克(Jan Leike)的前任團隊的前共同領導者著重於長期風險,在2024年5月,他的公開聲明標誌著“安全文化和流程已經對閃亮的產品進行了後座。 ”

他隨後向競爭對手的競爭對手驅動的驅動者反對這些緊張局勢。最近,除了內部視角外,一群前OpenAI員工於2025年4月11日提交了法庭之友摘要,以支持埃隆·馬斯克(Elon Musk)對公司的持續訴訟。摘要認為,Openai向限制的營利性結構的轉變可能會損害其最初的安全承諾。

OpenAI的框架更新,特別是根據競爭對手行為調整標準的潛力,與一些競爭對手的最新公告相反。 Google DeepMind在4月3日提出了一個全球AGI安全框架,要求進行國際合作。同時,擬人化已經宣傳了技術安全工作,例如其可解釋性框架,儘管據報導,該公司還面臨審查,據報導刪除了一些早期的自願安全承諾。隨著諸如歐盟AI法案之類的監管框架開始發揮影響力,OpenAI修訂的方法引入了領先實驗室如何在競爭激烈的領域管理AI風險的新變量。