由諾貝爾獎獲得者、英國皇室和現代人工智能“教父”等 800 多名公眾人物組成的多元化聯盟週三簽署了一份聲明,呼籲全球停止“超級智能”的發展。
列舉風險 從人類的過時到徹底的滅絕,簽署者要求禁止創造超越人類認知能力的人工智能,直到它被證明是安全的、可控的並得到廣泛的公眾支持。
這項由生命未來研究所 (FLI) 組織的努力正值一場日益激烈的技術競賽。它讓越來越多的相關專家齊聲反對推動人工智能發展的巨大金融和政治動力。
廣泛的聯盟聽起來 警報
該聲明的組織者指出科技行業的雄心與公眾的意願之間存在明顯脫節。
最近的 FLI 國家 對 2000 名美國成年人的調查發現,73% 的人希望對先進人工智能進行強有力的監管。此外,64% 的人認為,在證明安全之前不應開發超人類人工智能,或者根本不應該創造。
只有 5% 的美國人支持當前快速、不受監管的發展現狀。
FLI 執行董事 Anthony Aguirre 直言不諱 在接受 NBC 新聞採訪時:“這不是公眾想要的。他們不想參與競爭 這一觀點得到了人工智能先驅 Yoshua Bengio 的響應,他簽署了聲明並補充道,“我們還需要確保公眾在塑造我們共同未來的決策中擁有更強的發言權。 “
簽署者名單因其廣泛性而引人注目,彌合了深刻的政治和文化分歧。
蘋果聯合創始人史蒂夫 沃茲尼亞克、維珍集團的理查德·布蘭森和前參謀長聯席會議主席邁克·馬倫簽署了協議,保守派媒體人物格倫·貝克和史蒂夫·班農。
哈里王子和梅根·馬克爾、演員約瑟夫·高登-萊維特以及愛爾蘭前總統瑪麗·羅賓遜也加入了他們的行列。也許最重要的是,該名單包括圖靈獎獲得者 Geoffrey Hinton 和 Yoshua Bengio,他們的基礎工作促成了當前人工智能的繁榮。
他們的參與為這一警告提供了巨大的科學可信度。另一位簽名者、作家尤瓦爾·諾亞·哈拉里 (Yuval Noah Harari) 警告說:“超級智能可能會破壞人類文明的操作系統,而且完全沒有必要。 “
公眾輿論與行業野心
雖然科技巨頭投入數十億美元投入人工智能霸主的競賽,但該聲明認為,最終目標太過遙遠。
演員 作家史蒂芬·弗萊 (Stephen Fry) 爵士評論道:“根據定義,這將產生一種我們既無法理解也無法控制的力量。 “
這種對控制的擔憂是這場辯論的核心,這呼應了前 OpenAI 內部人士此前發出的擔憂,他們警告稱,發展速度快得驚人。
具有諷刺意味的是,即使是構建這些系統的公司的領導者也表達了類似的擔憂。 早在 ChatGPT 推出之前,OpenAI 首席執行官 Sam Altman 於 2015 年發表的一篇博客文章指出,“超人機器智能 (SMI) 的發展可能是對人類持續存在的最大威脅。 “
同樣,Anthropic 首席執行官 Dario Amodei 公開估計,“我認為事情有 25% 的可能性會變得非常非常糟糕。 “
Anthropic 首席執行官 Dario Amodei 現在表示他的 P(Doom) 是 25%。https://t.co/lAinvcaYUh
— Calum Chace (@cccalum) 2025 年 9 月 19 日
微軟 AI 首席執行官 Mustafa Suleyman 也表示,“在我們能夠明確證明它是[安全]之前,我們不應該發明它。 “
人工智能霸權的競賽勢不可擋
儘管存在這些內部因素 警告稱,企業和國家對超級智能的競賽仍在繼續。
Meta 明確將其新部門命名為“Meta Superintelligence Labs”,表明其企業目標。這一推動力是由驚人的金融投資推動的。
根據 Gartner 預測,到 2025 年,企業在人工智能方面的支出預計將達到 1.5 萬億美元。
僅 OpenAI 一項 2025年上半年創造了43億美元的收入,表明大量資本流入該行業。
國家政策強化了這一勢頭。特朗普政府於 7 月公佈的人工智能行動計劃,優先考慮消除監管障礙,以加速發展並保持對中國的戰略優勢。
前沿太遠?關於存在風險的爭論
並非所有人工智能專家都同意這些可怕的警告。 Meta 的首席 AI 科學家 Yann LeCun 一直直言不諱地批評他認為危言聳聽的觀點 “末日”情景。
他拒絕接受無法控制的人工智能接管的想法,而是設想了“放大器智能”的未來,其中人工智能係統增強而不是取代人類的能力。
這種觀點表明風險是可控的,並且強大的人工智能從治癒疾病到解決氣候變化的好處太大,不能放棄。 恐懼。
LeCun 的觀點代表了人工智能界內部的重大哲學分歧,將這場辯論界定為謹慎的管理與雄心勃勃、不受約束的創新之間的爭論。
最終,該聲明迫使公眾就機器日益強大的時代中人類的未來展開對話。其組織者認為,創造潛在後繼物種的決定不應該留給少數科技高管和研究人員。
伯克利大學教授兼簽署人 Stuart Russell 將該提案視為一項常識性安全措施,而不是勒德禁令。
“這不是通常意義上的禁令,甚至不是暫停。這只是一項要求對一項技術採取足夠安全措施的提案。 這……很有可能導致人類滅絕。 “
隨著技術的飛速發展,核心問題仍然是人類是否能夠長時間制動以確保其保持在駕駛座上。