OpenAI似乎準備為希望通過API訪問其最強大的未來AI模型的開發人員引入一個重大的新障礙:組織使用政府發行的IDS進行身份驗證的潛在要求。

詳細信息從 OpenAI支持頁面上週描述了一個“驗證的組織”過程,該過程由公司構建為抵制濫用和促進負責人AI部署的必要步驟。 Openai建議這是一個“小少數派”故意違反其使用政策的目標,旨在“減輕不安全的使用AI,同時繼續使更廣泛的開發人員社區可用的高級模型可用。關於特定條件。

擬議的系統已經在開發人員之間在線上引起了討論。擔憂集中在附加的操作摩擦,提交政府認同的隱私考慮,可能排除 Openai的primation Apipi intripation intart intarge sekeismisismiss和Skeissismiss和Skeissismiss的列表 tracking and enhanced control over its platform access, especially given past actions like the API block in China or investigations into alleged data misuse by DeepSeek and others.

New Models Could Trigger New Controls

This potential verification layer surfaces just as OpenAI prepares for what sources suggest is an imminent release of new AI models – the very systems likely to fall under this stricter access rule, perhaps underscoring政策的時機揭示了。新發布可能會在本週開始,包括GPT-4.1作為其多模式GPT-4O的更新,以及指定O3,O4-Mini和O4-Mini-High的專業推理模型。

OpenAI的OpenAI的模型推出策略與CEO Sam Altman在4月4日確認了一項重大的策略調整。 Altman宣布“更改計劃”,優先發布O3和O4-Mini模型“可能會在幾週之內”,同時將備受期待的GPT-5的首次亮相以“幾個月”的重新推遲。 GPT-5比我們最初的[T]好得多。”這使從2025年2月開始的計劃逆轉了可能將O3的能力折疊到GPT-5中。

即使在2月下旬啟動GPT-4.5之後,很明顯地需要對不同的推理模型進行openai的 安全性問題陰影快速發行

這些功能更強大的系統的到來,尤其是以較高的基準分數但潛在的高計算成本預覽的推理模型,為增加訪問控制提供了背景。但是,OpenAI的ID驗證的安全基本原理與報導說,這些模型的安全性評估期限已大大縮短。

OpenAI的操作據稱,OpenAI的操作從幾個月中降低到少於一周的型號,從而減少了諸如O3之類的模型的安全性測試時間表,並由強烈的有競爭力的壓力驅動。據報導,這種加速度使一些參與評估過程的人感到震驚。

特定的測試方法也受到了抨擊。批評家指出,缺乏使用微調濫用潛在測試的已發表結果-進一步培訓專業數據以探測危險的緊急功能-在最新,最有能力的模型(例如O1或O3-Mini)上。

前OpenAI安全研究者Steven Adler,他詳細介紹了在博客文章中 href=”https://www.ft.com/content/8253b66e-ade7-4d1f-993b-2d0779c7e7d8″ target=”_blank”>telling the Financial Times, “Not doing such tests could mean OpenAI and the other AI companies are underestimating the worst risks of their models.”還提出了對測試中間模型版本或檢查站的問題,而不是將最終代碼運送給公眾。一位前技術人員提到:“發布與您評估的模型不同的模型是不好的做法

內部緊張局勢和行業背景

對於開發速度和安全謹慎之間的明顯摩擦並不是OpenAI的新領域。內部分歧是由2024年5月的揚·萊克(Jan Leike)出發強調的,當時以長期風險為重點的超級對準團隊的共同領導者公開表示:“安全文化和流程已使閃亮的產品背道而馳。

在4月11日的忙碌中,該公司的前部員工對公司的訴訟進行了另一項措施,將另一個維度添加給了該公司的訴訟。摘要認為,OpenAI朝著限制的營業結構轉向其成立的非營利任務,可能會影響安全承諾和資源分配。

潛在的ID驗證策略不斷發展,因為競爭對手會使競爭對手的公開態度各不相同。安全結構。這是在新生法規的背景下發生的,例如歐盟的AI法案,持續的模型脆弱性和越獄技術的發現,以及Openai自己的