OpenAI首席執行官Sam Altman在2025年5月8日在參議院商務委員會聽證會上對他對AI監管的觀點進行了重大重新調整。

Altman警告說,強大的政府預先批准強大的AI模型可以揭示“災難性的”模型,這可能是“災難性的”。這個立場與他的2023年5月的證詞顯著形成鮮明對比,他主張建立新的聯邦機構許可和測試高級人工智能,稱其為確保AI安全的“第一”建議。

他目前的重點是在行業領導的標准上,並更加約束地標有政府乾預的行為,該措施與範圍的範圍相比,該範圍內的範圍是更廣泛的範圍。提倡“輕觸”監管框架來促進創新並保持競爭優勢,尤其是對中國的競爭優勢。

在聽證會上進一步闡明了他對國家標準和技術研究所(NIST)在設定AI模型開發標準,我不需要的情況下,我們不需要幫助,這是我們不需要的,我們對AI型模型,我不需要,我們不需要幫助,因此,我們應該在聽證會上,

在聽證會上進一步闡明了他在建立AI模型的發展標準,我不需要的情況下,辯論是在聽證會上進一步闡明他對自己沒有幫助的人的地位。”

[嵌入式內容]

通過國際競爭和國家安全的棱鏡,更廣泛的政治和行業環境越來越多地構建AI的發展。參議員泰德·克魯茲(Ted Cruz)(R-Texas)主持聽證會,強調了這一點,指出美國“不允許法規,即使是所謂的良性種類,可以扼殺創新和收養”,並宣布了計劃,宣布了一項法案,根據參議院聽證會。 href=“ https://lk.usembassy.gov/remarks-by-vice-president-dance-at—————-art-the-artherigence-intelligence-iintelligence-ai-action-summit/“ target=“ _ black”>由副總統jd vance在Paris峰會上在Paris Summit 中被宣佈為“ whoecored”,宣佈為“ whoecored”,宣布了“ who the the the a nof the a a”。 這種方法標誌著拜登政府的戰略的背離,其中包括執行AI安全測試的行政命令,後來被特朗普總統廢除。 The Trump administration has since issued new guidance aiming to remove bureaucratic restrictions and promote American AI dominance,正如Wilmerhale所詳細介紹的。

AI 行業導航不斷變化的監管格局

Sam Altman呼籲行業領導著定義AI標準的領導者,同時承認“不,我認為某些政策是好的,但我認為這很容易受到核心的測試。他專門將歐盟的綜合歐盟AI法案描述為“災難性的”。

這種觀點引起了其他科技高管,包括微軟總裁布拉德·史密斯(Brad Smith),儘管較早時,他還是尋求專門的聯邦AI機構,但現在支持“輕觸摸”框架。不斷發展的立場也反映在主要AI實驗室的政策變化中;例如,Google的DeepMind在2025年2月取消了長期保證的承諾,反對開發武器或監視的AI,OpenAI,Meta和Anthropic類似地更新了有關軍事項目的政策。

,但是,這是政府監督面孔批評的推動力。 Rumman Chowdhury,前國務院科學特使,AI,

OpenAI的內部壓力也浮出水面。 Winbuzzer報導,OpenAI超級對準團隊的前共同領導者Jan Leike於2024年5月辭職,他公開表示,正如Winbuzzer報導的那樣,“安全文化和流程已經靠近閃亮的產品”。這是在2023年7月建立的超級對準團隊的解散之後,重點是長期AI風險。為了應對這些內部動力,山姆·奧特曼(Sam Altman)在2024年5月承認,Openai關於安全性的“還有很多事情要做”。

最近,最近,OpenAI在2025年4月更新了其內部安全指南,引入了一項規定,該規定可以使公司的安全要求在競爭者中沒有可比性安全性的情況下調整其安全要求。此舉發生不久之後,報導稱Openai明顯減少了其新型號的安全測試時間,例如O3,有時從一周不到一周的時間,引起了測試人員的關注,其中一個將方法描述為“魯ckless”。 挑戰。儘管Openai採用了詳細的技術方法,例如“審議對齊”將安全推理嵌入其模型中,並表示其對AI說服力的研究旨在確保AI不會變得過於有效,因為OpenAI的AI說服力研究中涵蓋了Altman的行動,例如Altman的2024年9月2024年Openai openai的安全和安全委員會的辭職,加油供應。前OpenAI員工甚至指責Altman抵制有效的AI法規,而有利於為公司商業利益提供服務的政策。

其他AI實驗室也在駕駛這一複雜地形。例如,擬人化在2025年3月推出了一個可解釋性框架,以使其Claude AI的推理更加透明,並向白宮提出了建議,敦促對AI Systems進行國家安全測試。

,但據報導,該公司還刪除了先前的白人房屋中的一些自願安全性。這強調了複雜的舞蹈人工智能公司在提倡某些類型的治理和維持操作靈活性之間執行的。

更廣泛的環境包括AI所證明的非常真實的風險,例如,最近的一項研究表明,AI在病毒學實驗室方面超過了人類的專家,在病毒學實驗室方面超越了對BiowoPoapon風險的雙重性問題。 Furthermore, new security vulnerabilities in widely used AI tools, like Microsoft’s Copilot for SharePoint, continue to emerge, highlighting immediate risks even as calls for lighter regulation intensify.

Defining the Future of AI Governance

Sam Altman’s 2023 warning that AI might be “capable of superhuman persuasion well before it is一般情報上的超人似乎特別突出,因為他現在倡導更多的行業自由。他先前要求許可機構和預發行測試的呼籲與他目前的強調避免法規形成鮮明的對比,這些法規可能會“阻止創新”。

在他的公共立場中,這種進化是在美國政府本身的情況下發生的,在新的政府下,在新的政府下,他偏愛與全球競爭,尤其是與中國競爭的範圍,這是一個與其他人相關的,這是一個與其他人相關的,這是一個與其他人相關的,該公司的範圍是一定的。

將軍事AI的支持描述為“道德上的必要性”。而阿爾特曼(Altman)表示,諸如隱私之類的複雜問題代表“這是一個灰色領域……[議員]對您進行思考並認真對待。在華盛頓郵報上說:“如果在Openai或Anthropic或其他公司中有一家三明治商店,則在他們甚至可以出售一個三明治之前,他們都必須符合其廚房的安全標準。如果[AI公司]想明天發布超級情報,他們可以自由地這樣做。”

隨著’智能時代’的展開,平衡創新與公共安全的關鍵任務,為越來越強大的AI定義了治理框架,無疑將保持全球言論的最前沿。

>

>