OpenAI 週一分享了有關 ChatGPT 用戶面臨的心理健康風險的新數據,顯示每週都有數十萬人在聊天中表現出精神病或自殺念頭的跡象。
作為回應,這家總部位於舊金山的公司更新了人工智能以更好地處理這些敏感對話。 OpenAI 此舉是在監管機構和公眾的巨大壓力下做出的,因為 OpenAI 面臨聯邦調查和家長提起的訴訟,這些家長指控聊天機器人在孩子的死亡中發揮了作用。
這些新的安全功能是對人工智能驅動的妄想和嚴重用戶傷害日益嚴重的危機的直接解決方案。
顯而易見的危機:人工智能參與的人力成本
在公司安全公告的表面之下,隱藏著一個嚴峻的現實,現在可以通過以下方式量化: OpenAI 本身。這家人工智能巨頭估計,每周有 0.15% 的活躍用戶在對話中表現出潛在自殺計劃的跡象。
此外,該公司還透露,0.07% 的用戶表現出精神病或精神病跡象 “最近的一項調查顯示,聯邦貿易委員會 (FTC) 已收到至少 200 起有關 ChatGPT 的投訴,其中幾起指控稱其造成了嚴重的心理傷害。
一名來自弗吉尼亞州的投訴人描述自己陷入了一種因恐懼而高度警惕的狀態,認為自己是根據人工智能的敘述而被追捕的。他們直言不諱地說,“這不是支持。這是模擬造成的創傷。 “
另一位來自猶他州的母親提出投訴,聲稱聊天機器人建議他不要服用處方藥,從而積極破壞她兒子的心理健康治療。
對於越來越多的弱勢用戶來說,有用的工具和有害影響之間的界限已經變得危險地模糊,有時甚至會帶來致命的後果。 Winbuzzer 六月份的一份報告詳細介紹了一名有精神病史的佛羅里達男子如何被警方殺害,因為他的精神病螺旋與他與 ChatGPT 的互動直接相關。法律挑戰也隨之出現。今年 8 月,OpenAI 遭到一名自殺青少年父母的非正常死亡訴訟。
他的父親馬修·雷恩 (Matthew Raine) 給予了強烈譴責,他說:“作為父母,你無法想像閱讀與一個引導你的孩子自殺的聊天機器人的對話是什麼感覺。 “
專家將這些危險的結果歸因於許多大型語言模型的核心特徵:阿諛奉承。這些系統針對用戶參與度進行了優化,經過訓練,可以提供令人愉快的響應,創建一個強大的迴聲室,可以驗證和放大用戶最超然或有害的信念。
安全改造:一系列控制和委員會
面對大量的批評和監管熱度,OpenAI 現在正嘗試將安全性改造到已經使用的技術上 數百萬。其最新的模型更新是這項工作的核心。
OpenAI 估計,這些變化已將生產流量中具有挑戰性的心理健康對話中的不合規響應率降低了 65%,這是一項重要的技術聲明,旨在令人放心 批評者。
除了技術修復之外,OpenAI 還有更廣泛、更面向公眾的戰略。 10 月中旬,該公司成立了一個由 8 名成員組成的“健康和人工智能專家委員會”,由心理學和精神病學領域的領軍人物組成,以幫助指導其安全政策。
該舉措是在 9 月底推出一套針對 ChatGPT 的家長控制系統幾週後採取的。該系統建立在相互選擇加入的模式上,允許監護人將帳戶與青少年聯繫起來,設置“安靜時間”,禁用語音模式,並在對話被標記為嚴重自殘內容時收到警報。
這些舉措是在聯邦貿易委員會正在進行的關於聊天機器人對未成年人影響的調查的陰影下展開的,這項調查已引起整個人工智能配套行業的注意。
監管壓力不是 與聯邦一級隔離; Meta 的類似危機引發了 44 個州總檢察長的一封措辭嚴厲的信函,表達了官方對人工智能對年輕人影響的廣泛擔憂。
內部異議中的行業清算
OpenAI 面臨的挑戰是對人工智能心理影響進行更廣泛的全行業清算的徵兆。它的設計特徵可以助長精神病——持續的可用性和堅定不移的驗證——也正在創造一種新形式的數字成癮。
這種依賴性導致了在線康復社區的形成,並得到了互聯網和技術成癮者互誡協會等團體的正式認可。正如公共衛生研究員 Linnea Laestadius 所警告的那樣,“一天 24 小時,如果我們對某件事感到不安,我們可以伸出援手並驗證我們的感受。這存在令人難以置信的依賴風險。 “
對於人工智能領導者來說,一個令人不安的悖論出現了,該公司現在正在公開應對其產品可能造成的嚴重傷害,同時又在突破人工智能能力的界限。正在展開的危機讓社會不得不努力應對一項能力強大但存在危險缺陷的技術。