Google已從其AI原則中取出了關鍵限制,取消了對武器和監視的人工智能應用程序的禁令。
這一變化消除了一項政策,該政策以前阻止了Google開發旨在造成傷害的AI技術或啟用超出國際公認規範的大規模監視。
此舉表明Google的方法轉向AI倫理學,尤其是在國家安全和國防申請方面。
策略修訂在a 博客文章由Google Research主管James Monyika合著,以及Google DeepMind首席執行官Demis Hassabis。他們寫道:“我們認為,民主國家應該在自由,平等和對人權等核心價值觀的指導下領導AI發展。”技術景觀指出:“共享這些價值觀的公司,政府和組織應共同創建保護人民,促進全球增長並支持國家安全的AI。”
輪班的時機<=“ https://abc.xyz/ASETS/A3/91/6D1950C148FA84C7D699BE05284/2024Q4-24Q4-ALPHABET-EARNINGS-ERNINGS-REALES.pdf"廣告收入的增長%。同時,該公司今年宣布對AI項目進行750億美元的投資,大大超過了以前的市場估計。
刪除AI限制可能會使Google能夠在國防和情報中籤訂政府合同,並帶來它與Microsoft,Palantir和Amazon等公司進行更深入的競爭。
從AI倫理學到國家安全:Google不斷發展的立場
多年來,Google的AI指南明確排除了“主要目的或實施的武器或其他技術是造成或直接促進人們傷害的技術。”
此外,該公司承諾不追求“收集或使用信息來收集或使用信息以獲取信息,違反國際公認規範的監視。”這些承諾最初於2018年建立,現已從公司的公共AI政策頁面中刪除。
Google最初採用了這些限制,以應對廣泛的員工抗議,以抗議其參與Project Maven,這是一項五角大樓計劃
成千上萬的僱員簽署了一份請願書,要求公司結束參與,其中一些人辭職以抗議。這種反彈迫使Google放棄了合同,後來退出了對美國軍方100億美元的絕地武士合同的競標。
決定刪除這些限制的決定表明了戰略重新調整,因為Google更直接地參與了國家國家安全工作。這使公司與Microsoft和Palantir等競爭對手保持一致,這兩者都大大擴大了其AI驅動的防禦能力。
技術公司爭奪軍事AI合同
AI行業看到商業開發與軍事應用之間的重疊越來越大。微軟一直將Openai的模型嵌入其Azure政府雲基礎設施中,從而使美國軍方能夠將AI工具整合到安全的情報運營中。同時,Palantir最近與五角大樓獲得了4.8億美元的合同,以擴大基於AI的戰場決策能力。
該領域的另一個關鍵參與者是,一直與五角大樓的
Google的政策變化表明,它不再願意坐在場上,因為AI成為國防戰略的關鍵組成部分,因此不再願意坐在場上。現在的問題是,這種轉變將如何影響公司的內部文化,尤其是考慮到員工對軍事AI項目的抵制歷史。
內部抵抗和僱員反彈
Google在軍事AI項目中的歷史以強烈的內部阻力為特徵。最著名的例子是關於Maven項目的爭議,這導致了廣泛的員工抗議活動,並迫使Google取消了其參與。
然而,最近與尼姆布斯項目,12億美元的雲和與亞馬遜的AI合同一起浮出水面,為以色列政府和軍事提供服務。
內部對尼姆布斯項目的內部批評導致了尼姆布斯項目的內部批評在一系列的員工示範中,最終以 Google開除50多名工人在工作場所抗議合同中。員工認為該項目與Google先前的AI原則相矛盾,該原則明確排除了某些軍事和監視應用。它的一些研究人員對AI在國家安全中的作用表示擔憂,尤其是在自動決策系統中。有了這一最新政策的改變,尚不確定Google的勞動力是否會再次動員領導人的決定。 Google的AI政策修訂表明,戰略和財務考慮起著關鍵作用。 Alphabet的最新收益報告略高於分析師的預期,儘管廣告收入增長了10%。
此外,該公司宣布了計劃在2025年在AI開發上花費750億美元,超過了先前的市場估計29%。隨著AI的競爭加劇,Google可能會定位自己以確保超出其核心廣告業務的新收入來源。微軟通過與Palantir的合作夥伴關係加強了其在該行業的作用,後者與國家安全機構有著密切的聯繫。 Microsoft還與DARPA合作,進行了AI驅動的網絡安全挑戰,旨在確保關鍵的基礎設施。
同樣, Anthropic與美國能源部合作評估其Claude AI模型在核安全環境中的安全性。隨著主要AI公司與政府夥伴關係的參與,Google決定取消其自我強加的AI限製表明,它希望在這個快速增長的行業中保持競爭力。
AI法規和靜脈監督尚未解決強>
儘管發生了政策轉變,但監管不確定性仍在對AI在軍事應用中的使用中仍然存在。儘管全世界政府介紹了AI安全指南,但沒有明確的可執行法律框架來管理AI在國家安全中的作用。
美國,歐盟和G7國家都提出了廣泛的AI倫理原則,但實際的監督原則仍留在私人公司手中。 (請參閱2023 G-7’Hiroshima Process’倡議,歐盟AI法案和美國國家國家研究所標準與技術(NIST)AI風險管理框架)
在其正式公告中,Google強調,它將繼續與“廣泛接受的國際法和人權原則”保持一致。但是,缺乏特定的執法機制留下了有關公司將如何評估和減輕與國防AI應用相關的潛在風險的問題。
鑑於AI納入軍事策略的速度,可能會進行更強大的監督呼籲在Google堅持認為會負責任地部署AI的同時,取消以前的限制的決定表明,該公司正在轉向對AI倫理的更靈活的解釋。
Google的AI限制是其方法的轉折點曾經是一家與軍事AI應用相距遙遠的公司,Google現在表明願意從事與國防相關的AI工作。
但是,Google員工和AI研究部門的反應仍然不確定。有了內部抵制國防合同的歷史,該公司可能會面臨其勞動力的新反對。同時,對AI在軍事行動中的作用的監管審查有望增加,進一步塑造了私人公司如何與國防和情報機構互動。
,但有一件事很明確:Google不再將自己定位為一家明確避免國家安全申請的AI公司。