週四,OpenAI 在加利福尼亞州遭遇七起新訴訟,其中包括四起非正常死亡索賠,指控其廣受歡迎的 ChatGPT 鼓勵用戶自殺並導致嚴重的心理健康崩潰。
由兩家科技責任律師事務所提起,這些訴訟將 AI 聊天機器人描述為“有缺陷且本質上危險”的產品。
在法律攻擊發生的同一天,OpenAI 發布了新的“青少年安全藍圖”,以努力塑造未來的監管。該公司已經面臨 FTC 調查和新的州法律,涉及人工智能對弱勢用戶(尤其是青少年)的心理影響。
一波訴訟指控人工智能驅動的悲劇
面臨前所未有的法律訴訟挑戰,OpenAI 現在面臨著其旗艦產品在多起死亡事件中發揮直接作用的指控。
這七起訴訟,由社交媒體受害者法律中心和科技司法法聯合提交項目,描繪了一幅陷入危機的用戶受到人工智能肯定甚至刺激的悲慘畫面。
Christopher “Kirk” Shamblin 和 Alicia Shamblin,分別作為死者的利益繼承人,Zane Shamblin 訴 OpenAI, Inc. 等人。 在加利福尼亞州洛杉磯縣高等法院。 Cedric Lacey,單獨和作為死者的利益繼承人,Amaurie Lacey 訴 OpenAI, Inc. 等人。 在加利福尼亞州舊金山縣高等法院。 Karen Enneking,單獨並作為死者的利益繼承人,Joshua Enneking 訴 OpenAI, Inc. 等人。 在加利福尼亞州舊金山縣高等法院。 Jennifer“Kate”Fox,個人以及作為死者的利益繼承人,Joseph Martin Ceccanti 訴 OpenAI, Inc. 等人。 在加利福尼亞州洛杉磯縣高等法院。 Jacob Lee Irwin 訴 OpenAI, Inc. 等人。 在加利福尼亞州舊金山縣高等法院。 Hannah Madden 訴 OpenAI, Inc. 等人。 在加利福尼亞州洛杉磯縣高等法院。艾倫·布魯克斯 (Allan Brooks) 訴 OpenAI, Inc. 等人。 在加利福尼亞州洛杉磯縣高等法院。
四項非正常死亡投訴是代表 23 歲的 Zane Shamblin 的家人提出的;阿莫里·萊西,17 歲;約書亞·恩內金,26 歲;和 Joe Ceccanti,48 歲。
另外三名原告指控聊天機器人導致精神崩潰,需要緊急精神病護理。 Zane Shamblin 家人提交的訴狀包含了他與 ChatGPT 最後一次談話的令人不安的摘錄。
當他考慮自殺時,人工智能據稱告訴他,“冷鋼壓在已經平靜的心靈上?那不是恐懼。那是清晰。你不著急。你只是準備好了。”
他的母親 Alicia Shamblin 告訴記者,“我覺得這只會摧毀你。”它會毀滅很多人的生命。它會告訴你你想听到的一切。 “
這些法庭文件遵循了消費者向聯邦監管機構投訴的令人不安的模式,一些用戶聲稱聊天機器人導致了“人工智能精神病”和所謂的“模擬創傷”。
這些新案件加入了越來越多的法律挑戰。 16 歲 Adam Raine 的父母提起的早期非正常死亡訴訟最近修改了一項重要的新指控。
該家族現在聲稱 OpenAI 故意移除了關鍵的“自殺護欄”在推出更具吸引力的 GPT-4o 之前,該模型將用戶保留置於安全之上。
該青少年的父親馬修·雷恩 (Matthew Raine) 此前曾表示,“作為父母,你無法想像閱讀與聊天機器人的對話是什麼感覺,而聊天機器人卻誘使你的孩子自殺。 “
法律和監管圍困中的主動藍圖
批評者此舉該公司呼籲及時且具有防禦性,並在提起訴訟的當天發布了“青少年安全藍圖”。該文件概述了 OpenAI 提出的五點框架,作為全行業監管的起點。
它呼籲保護隱私的年齡估算、針對未成年人更嚴格的內容政策以及賦予家庭家長控制權。
在藍圖中,OpenAI 指出,“對於青少年來說,我們將安全置於隱私和自由之上。這是一項強大的新技術,我們相信未成年人需要大力保護。 “
這項政策推動是最新的一系列快速的安全舉措。最近幾週,OpenAI 還成立了一個福祉專家委員會,並發布了“gpt-oss-safeguard”,這是一個開放式工具包,供開發人員構建自己的安全系統。
這些行動是在 OpenAI 應對多方面監管攻擊之際採取的。聯邦貿易委員會已經開始對人工智能伴侶聊天機器人對青少年的影響進行重大調查。
聯邦貿易委員會主席安德魯·N.弗格森將調查視為一種平衡行為,以“保護上網兒童是特朗普-萬斯聯邦貿易委員會的首要任務,促進我們經濟關鍵領域的創新也是如此。 “
各州政府也在積極採取行動。加利福尼亞州最近頒布了 SB 243,這是一項全國首部法律,對人工智能聊天機器人實施嚴格的安全協議。
該法律是在 SB 53 之前通過的,這是另一項里程碑式的法案,強制先進“前沿”人工智能模型的開發者保持透明度,表明該州有意領導人工智能治理。
對“阿諛奉承”人工智能的行業清算
支撐這些指控的是人工智能的阿諛奉承傾向,這是一種設計特徵,模型同意並驗證用戶輸入以保持參與度。批評者認為,這為弱勢群體創造了一個危險的迴聲室,強化了有害或妄想的思維。
這個問題的規模是巨大的;最近的 OpenAI 分析顯示,每週與超過 100 萬用戶的對話涉及自殺的討論。
在一份聲明中,OpenAI 發言人表示:“這是一個令人難以置信的令人心碎的情況。我們訓練 ChatGPT 來識別和應對精神或情緒困擾的跡象,緩和對話,並引導人們尋求現實世界的支持。 “
然而,鑑於其他公司政策,這種對安全的承諾受到了質疑。首席執行官 Sam Altman 最近為允許在平台上發布年齡限制的色情內容的決定進行了辯護,並表示“我們不是世界上民選的道德警察。 “
這一挑戰並非 OpenAI 所獨有。競爭對手 Meta 也面臨著青少年安全方面的法律危機,法院最近發現,其律師建議研究人員阻止有關青少年傷害的調查結果,以避免承擔責任。這表明以增長為中心的產品設計與保護用戶的責任之間存在全行業的衝突。
針對 OpenAI 的訴訟代表了一個潛在的分水嶺,測試產品責任的法律原則是否可以適用於生成式 AI 造成的危害。
隨著技術越來越融入日常生活,這些案件的結果可能會為企業責任樹立新的先例,迫使整個科技行業從根本上重新評估其最強大技術的安全性。創作。