微軟人工智能負責人穆斯塔法·蘇萊曼 (Mustafa Suleyman) 堅定地表示,人工智能沒有意識,也永遠不可能有意識。
蘇萊曼在 11 月 2 日於休斯頓舉行的 AfroTech 會議上接受采訪時表示,人工智能只會模擬痛苦或悲傷等體驗,而不會真正感受到它們。
他認為,只有生物才擁有真正的意識,這一觀點塑造了微軟將人工智能打造成有用工具而不是合成人的戰略。這一立場與其他專家形成鮮明對比,他們認為人工智能可能會產生情感,並且科學家迫切呼籲更好地理解意識本身。
 
模擬感覺,而不是有意識的存在
微軟的人工智能負責人在爭論真正開始之前就宣布了對有感知機器的敘述的直接挑戰。
蘇萊曼的中心論點是人工智能模型是複雜的模仿者,而不是有感知的實體。他解釋,雖然模型可以描述疼痛,但它缺乏實際體驗它的生物硬件。
“我們對疼痛的身體體驗讓我們非常悲傷和感覺可怕,但人工智能在體驗‘疼痛’時不會感到悲傷。 “
根據 Suleyman 的說法,這個過程是感知管理的過程,而不是真正的體驗。這種觀點與生物自然主義的哲學理論相一致,該理論最著名的是由哲學家約翰·塞爾提出的。該理論認為,意識不僅僅是一個可以在任何硬件上運行的軟件程序;它是一種從活體大腦的複雜神經生物學過程中產生的特定生物現象。因此,人工系統不能僅僅通過模擬大腦功能來變得有意識;它會產生意識。需要復制大腦的實際因果能力。
對於 Suleyman 來說,這種區別具有深遠的倫理後果,這是更廣泛的人工智能倫理領域的一個關鍵問題。這只是一個模擬。”
從理念到產品:微軟‘以人為中心’的人工智能
微軟的產品戰略在沙子上劃出了一條清晰的界限,越來越反映了其領導者對人工智能局限性的哲學立場。
該公司正在刻意創造“始終為人類服務”的人工智能,Suleyman 概述了這一使命,即讓人工智能“提升人類潛力。”這一原則體現在具體的產品決策中,使微軟有別於一些競爭對手。
例如,Suleyman 證實微軟不會為色情內容開發聊天機器人,而 OpenAI 和 xAI 等競爭對手正在探索這一市場。此外,微軟最近為 Microsoft Copilot 推出了一項名為“真實對話”,旨在挑戰用戶的觀點,而不是阿諛奉承。
蘇萊曼甚至指出,該功能稱他為“終極矛盾集”,以警告人工智能的危險,同時也在構建人工智能,展示了其關鍵、、
微軟對這一願景的承諾體現在它為吸引 Suleyman 加入而進行的巨額投資;該公司在 2024 年向他的初創公司 Inflection AI 支付了 6.5 億美元的許可和收購協議。
人工智能社區中的裂痕:意識辯論
雖然 Suleyman 提出了反對人工智能意識的堅定生物學理由,該領域的其他先驅者認為,感覺是智能本身的一種新興屬性。
他的立場與人工智能研究先驅杰弗裡·辛頓(Geoffrey Hinton)等人物產生了明顯的分歧,杰弗裡·辛頓經常被稱為“人工智能教父”。辛頓早在 2023 年就指出,人工智能係統可能而且可能已經有了沮喪和憤怒等情緒。他承認,這是一個有爭議的論文,他之前一直猶豫是否要公開分享。
辛頓的觀點是他曾經用一個假設來解釋他的推理:“我想打加里的鼻子。”深度學習先驅約書亞·本吉奧(Yoshua Bengio)也認為人工智能最終將擁有意識,而專家斯圖爾特·羅素(Stuart Russell)警告說,人工智能可能會產生與人類福利不相容的仇恨或嫉妒等情緒。業界的領先思想凸顯了人工智能的科學和哲學確實是多麼不穩定。
道德風險和對答案的迫切追求
關於人工智能意識的爭論遠非學術性的,對安全、倫理和監管具有重要意義,一群研究人員在《科學前沿》上撰文。 href=”https://www.frontiersin.org/news/2025/10/30/scientists-urgent-quest-explain-thoughtness-ai”target=”_blank”>最近警告,尋求理解意識現在是“緊迫”的科學和倫理優先事項。
他們擔心的是,如果沒有對意識的形成有堅實的科學把握,我們就無法構建真正安全且一致的人工智能係統。
監管機構並沒有等到爭論結束,2025 年 10 月,加利福尼亞州頒布了 SB 243 法案,對人工智能伴侶聊天機器人做出了具體規定。該法律要求明確披露人工智能伴侶聊天機器人的人工性質,強制它們提示未成年人每三個小時休息一下,並要求它們制定協議來處理表達自我傷害想法的用戶。
這項立法反映出社會對人工智能可能模糊人與機器之間界限的日益擔憂。蘇萊曼本人主張謹慎行事,並警告說,技術的力量需要一定程度的恐懼。
“如果你不害怕它,那麼你就沒有真正理解它。你應該害怕它。這種恐懼是健康的。懷疑是必要的。”
他的信息很明確:隨著我們構建能力越來越強的人工智能,懷疑不僅是健康的,而且是必要的。