Google本週發布了其最新的Gemini 2.5 Pro推理模型的初步文檔,但此舉是在該模型廣泛可用的幾週後,引起了AI治理專家的敏銳批評。 The document, known as a “model card,”appeared online around April 16th, yet experts contend it lacks critical safety details and suggests Google may be falling short of transparency promises made to governments and international bodies.
The controversy stems from the timeline: Gemini 2.5 Pro began its preview rollout initially to subscribers on March 25th (with the specific experimental version, gemini-2.5-pro-exp-03-25, appearing 3月28日,通過Google Cloud cloud文檔),訪問迅速通過pecs 通過peclany per on the social platform X as “meager”documentation, adding it tells a “troubling story of a race to the bottom on AI safety and transparency as companies rush their models to market.”
缺少細節和未滿足的保證
班克斯頓所表達的主要關注點是缺乏至關重要的安全評估的詳細結果,例如“紅色團隊”練習,旨在發現AI是否可以發現AI是否可以提示是否會引起諸如在
其他專家,包括Peter Wildeford和Thomas Woodside在內
這種方法似乎與Google對AI安全性和透明性承擔的幾項公開承諾似乎不一致。這些包括在a effoction 新的模型,在2023年10月達成協議,並於2024年5月在首爾AI安全峰會上做出的承諾。
Secure AI項目的托馬斯·伍德賽德(Thomas Woodside)也指出,Google的最後一次專門針對危險能力測試的專用出版物可以追溯到2024年6月,詢問了公司對公司的正常更新的承諾。 Google還沒有確認Gemini 2.5 Pro在預覽發布之前是否已提交給美國或英國AI安全機構進行外部評估。
Google的位置和型號卡內容
,而完整的技術報告卻待定了,發布了模型卡確實提供了一些見解。 Google概述了其中的政策:“每個模型家族的發布一次將發布一次詳細的技術報告,下一份技術報告在總體可用後發布。”
補充說,關於“危險能力評估”的單獨報告將按照“常規的節奏”遵循。 Google先前曾表示,最新的雙子座進行了“預釋放測試,包括在釋放模型之前進行的內部開發評估和保證評估。”
發布的卡片證實了Gemini 2.5 Pro在預報(MOE)混合物(MOE)Transferter Transformer架構中的混合物上建立的,該設計旨在通過選擇性地通過選擇性地進行了模型,該階層的設計範圍是模型的,該零件是模型的。 It details the model’s 1 million token input context window and 64K token output limit, along with its training on diverse multimodal data with safety filtering aligned with Google’s AI Principles.
The card includes performance benchmarks (run on the `gemini-2.5-pro-exp-03-25` version) showing competitive results as of March 2025. It acknowledges limitations like potential “hallucinations”and sets the knowledge cut-off at January 2025. While outlining safety processes involving internal reviews (RSC) and various mitigations, and showing some automated safety metric improvements over Gemini 1.5, it confirms “over-refusals”persist as a limitation.
An Industry Racing Ahead?
The situation reflects broader tensions. Sandra Wachter, a professor at the Oxford Internet Institute, previously told Fortune, “If this我們是汽車或飛機,我們不會說:讓我們盡快將其推向市場,我們將在以後調查安全方面,而生成的AI有一種態度,將其放在那裡,擔心,調查和解決問題,以後使用它。 細節。 Bankston警告說,如果公司無法履行基本的自願安全承諾,“立法者將有責任制定和執行明確的透明度要求,即兩家公司無法推翻。” Google在4月17日推出了Gemini 2.5 Flash的預覽,繼續推出了推出的步伐,再次表示其安全文件是“即將推出的”。