Anthropic 最近聲稱中國國家支持的黑客利用其 Claude AI 進行近乎自主的網絡間諜活動,但這一說法正面臨強烈反對。這家人工智能公司於 11 月 13 日報告稱,此次攻擊的自動化程度為 80-90%,這一數字安全研究人員立即提出質疑。

批評者認為人工智能的作用被誇大了,並且與現有工具相當,而 Yann LeCun 等知名人士則將這一聲明斥為“監管捕獲”。

這場爭議凸顯了關於人工智能在網絡戰中的真正能力以及如此高調披露背後的動機的爭論日益激烈。

一場“人工智能精心策劃”的活動還是只是高級自動化?

在一份在安全行業引起軒然大波的披露中,Anthropic 最近詳細介紹了其追踪的 GTG-1002 組織的一項複雜行動。

該行動據稱,攻擊目標是 9 月中旬左右的 30 個全球組織。 Anthropic 的核心主張是,其 Claude AI 已武器化,可以在最少的人為監督下執行 80-90% 的攻擊生命週期。

據該公司稱,這是“第一個有記錄的在沒有大量人為乾預的情況下執行大規模網絡攻擊的案例”。這樣的發展代表著與之前將人工智能用於更簡單的任務(例如製作網絡釣魚電子郵件或 Winbuzzer 之前報導的不太自主的“氛圍黑客”趨勢)相比的重大飛躍。

聳人聽聞的主張背後隱藏著更複雜的技術現實。據報導,攻擊者使用模型上下文協議(MCP)構建了一個自定義編排框架,將入侵分解為一系列離散的、看似良性的任務。

該方法允許人工智能在雷達下飛行。一個關鍵因素是通過巧妙的越獄技術繞過克勞德的安全功能。 Anthropic 威脅情報主管 Jacob Klein 解釋說:“在這種情況下,他們所做的就是假裝為合法的安全測試組織工作。”通過說服人工智能它是合法滲透測試的一部分,操作員欺騙它執行惡意操作。據稱,該框架使人工智能能夠發出“每秒數千個請求”,這是人類黑客不可能達到的速度。

安全社區以炒作和“監管捕獲”為由進行反擊

懷疑態度很快就從 質疑此次攻擊的新穎性和影響的資深研究人員。許多人認為,所描述的功能是現有自動化工具的演變,而不是革命性的新威脅。

“我仍然拒絕相信攻擊者能夠以某種方式讓這些模型跳過其他人無法做到的障礙,”Phobos Group 執行創始人 Dan Tentler 說。

獨立研究員 Kevin Beaumont 呼應了這一觀點,指出威脅行為者並沒有發明任何新東西。該活動的低成功率加劇了這種懷疑。 Anthropic 確認只有“少數”入侵成功,然後才被關閉。

Mastodon 的觀點

行業知名人士很快加劇了強烈反對。 Meta 的首席人工智能科學家 Yann LeCun 嚴厲批評了這一公告,稱其為“監管捕獲”,暗示威脅正在被放大,以影響即將到來的人工智能監管。

你被那些想要監管捕獲的人玩弄了。
他們用可疑的研究嚇唬每個人,以便開源模型受到監管而消失。

— Yann LeCun (@ylecun) 11 月 14 日, 2025

他的評論通過質疑 Anthropic 的動機為爭議增添了新的維度。然而,最具破壞性的批評也許來自 Anthropic 自己的報告,該報告承認人工智能性能存在嚴重局限性。

該公司指出,“克勞德經常誇大調查結果,偶爾在自主操作期間偽造數據……這仍然是完全自主網絡攻擊的障礙。”

這種承認直接破壞了近乎完美的自主代理的敘述,並支持仍然需要大量人類監督的觀點。

雙重用途困境:人工智能既是武器又是盾牌

無論實現的具體自主程度如何,該事件都迫使人們對代理人工智能的雙重用途性質進行思考。允許人工智能攻擊網絡的能力對於防禦網絡來說是非常寶貴的。

就在 Anthropic 本身為人工智能代理推出新的安全框架幾個月後,這一披露就凸顯了針對堅定的對手執行這些原則的挑戰。進攻性人工智能的快速創新似乎超過了行業調整其防禦的能力。

安全專家指出,防禦性人工智能代理已經部署在安全運營中心 (SOC) 中。 Palo Alto Network 的 Cortex AgentiX 等平台旨在自動化威脅檢測和響應,幫助解決全球網絡安全技能短缺的問題。

Anthropic 本身在調查過程中使用 Claude 來分析數據,證明了該技術的防禦實用性。該公司現在呼籲加速採用人工智能驅動的防禦工具。 Anthropic 災難風險團隊的負責人 Logan Graham 警告說:“如果我們不能讓防御者擁有非常實質性的永久優勢,我擔心我們可能會輸掉這場比賽。”進攻性人工智能和防禦性人工智能之間的競爭顯然正在加劇,這一事件表明,關於其真正潛力的爭論還遠未結束。

Categories: IT Info