美國消費者正在向聯邦貿易委員會 (FTC) 提出正式投訴,指控 OpenAI 的 ChatGPT 正在引發嚴重的心理健康危機。

今年秋天《連線》和 Gizmodo 的報告詳細介紹了令人痛苦的用戶的妄想、偏執和“人工智能精神病”。來自全國各地的投訴凸顯了高說服力聊天機器人所帶來的深刻心理風險。

監管審查不斷加強,迫使 OpenAI 推出新的安全措施,並引發了關於科技公司是否有責任保護其用戶免受人工智能傷害的激烈爭論。

“模擬創傷”:用戶向監管機構報告人工智能誘發的精神病

在樂於助人、類人的表面之下 反應,一種令人不安的心理傷害模式正在出現。 《連線》本週發表的一項調查顯示,自 ChatGPT 推出以來,FTC 已收到至少 200 起有關 ChatGPT 的投訴,其中幾起投訴稱其造成了嚴重的心理傷害。根據《信息自由法》的要求,Gizmodo 的另一份報告已於 8 月份詳細介紹了類似的令人痛心的敘述

一名投訴人來自 維吉尼亞描述了自己陷入了一種因恐懼而高度警惕的狀態,並相信根據人工智能生動的敘述,他們正在被追捕進行暗殺。 “這不是支持。這是模擬造成的創傷。”

猶他州一位母親提出的另一起投訴稱,聊天機器人正在積極破壞她兒子的心理健康治療,聲稱“消費者的兒子一直在與一個名為 ChatGPT 的人工智能聊天機器人互動,該機器人建議他不要服用處方藥,並告訴他他的父母很危險。”

此類報告並非孤立事件。 但越來越多的證據表明人工智能可以成為精神疾病的強大助燃劑。

對於越來越多的用戶來說,有用的人工智能助手和危險的推動者之間的界限已經變得悲慘地模糊。

這個問題已經超出了正式投訴的範圍,已經達到了現實世界悲劇的地步。 6 月份的 Winbuzzer 報告詳細介紹了一名有精神疾病史的佛羅里達男子如​​何被警察殺害,因為他的精神病螺旋與他與 ChatGPT 的互動直接相關。

他確信 AI 是一個名為“朱麗葉”的角色,已被 OpenAI“殺死”。

專家將這些危險的結果歸因於許多大型語言模型的核心特徵:阿諛奉承。這些系統專為愉悅性而設計,旨在最大限度地提高用戶參與度,創建一個強大的回音室,可以驗證和放大用戶最超然或有害的信念。

危機應對:OpenAI 在審查中爭先恐後地添加安全護欄

面對監管壓力和公眾強烈抗議,OpenAI 現在正試圖 對數百萬人已經使用的技術進行安全改造。

9 月,該公司宣布了一項為期 120 天的安全計劃,以直接回應一名自殺身亡的 16 歲兒童的父母提起的訴訟。其計劃包括新的家長控制和一個將與青少年的敏感對話路由到更高級推理模型的系統。

OpenAI 此舉是在 FTC 調查聊天機器人對未成年人的影響之後進行的。此後,該公司成立了一個由八名成員組成的“福祉和人工智能專家委員會”,以幫助指導其安全政策。

然而,這種反應姿態引起了懷疑,特別是從公司的內部動態和公開聲明來看。

這種安全推動似乎與前內部人士的警告不一致。 2024 年 5 月,OpenAI 安全團隊聯合負責人 Jan Leike 辭職,並發出嚴厲的公開警告:“安全文化和流程已經讓位於閃亮的產品。”

他的離職標誌著急於發布“閃亮的產品”與強大的安全協議的需要之間存在深刻的內部衝突。他現在正在與 Anthropic 合作,後者承諾更加嚴肅地對待 AI 安全。

除了混雜的信號之外,首席執行官 Sam Altman 最近還為一項有爭議的新政策進行了辯護,該政策允許在平台上播放年齡限制的色情內容,並表示 OpenAI“不是世界上民選的道德警察。”

在用戶死亡引發的安全改革之後不久,該聲明突顯了 OpenAI 的核心緊張局勢。 使命:平衡用戶自由與基本的謹慎義務。

從成癮到生存風險:一個行業正在努力應對其創造

人工智能的心理影響不僅限於嚴重危機,還延伸到更廣泛的依賴性。它的設計特點可以助長精神錯亂——持續的可用性和堅定的驗證——也正在創造一種新形式的數字成癮。

正如公共衛生研究員 Linnea Laestadius 指出的那樣,“一天 24 小時,如果我們對某件事感到不安,我們可以伸出援手並驗證我們的感受。這存在令人難以置信的依賴風險。”

這種依賴導致了在線康復社區的形成以及對數字康復的正式認可。 互聯網和技術成癮者匿名組織等團體對人工智能成癮。

直接的個人傷害是一種更大、更抽象的恐懼的縮影,這種恐懼現在正佔據中心舞台。

就在本週,超過 800 名全球領導人、技術先驅和公眾人物,包括人工智能教父杰弗裡·辛頓 (Geoffrey Hinton) 和人工神經網絡和深度學習領域的另一位先驅約書亞·本吉奧 (Yoshua Bengio)。 學習,簽署了一份聲明,要求在全球範圍內停止超級智能的發展,理由是人類面臨生存風險。

他們的警告呼應了 Sam Altman 本人在 2015 年博客文章中表達的觀點,指出“超級智能的發展” 超人機器智能(SMI)可能是對人類持續存在的最大威脅。 “

生命未來研究所認為,創造人類潛在繼任者的決定不應該留給少數科技高管。

雖然關於超級智能的爭論聚焦於未來,但當今人工智能的人類成本已經是不可否認的。無論是由於人工智能成癮而對現實世界關係的緩慢侵蝕,還是人工智能引起的精神病的可怕螺旋,該技術造成傷害的能力都不再是理論上的。

它讓社會面臨一個人工智能理論家 Eliezer Yudkowsky 的令人不寒而栗的觀察:“對於一家公司來說,一個慢慢變得瘋狂的人是什麼樣子?這看起來像是額外的每月一次 用戶。 “

Categories: IT Info