OpenAI 創建了一個新的專家小組來就人工智能安全提供建議。該公司週二宣布成立八人“福祉和人工智能專家委員會”。該小組將幫助指導 ChatGPT 和 Sora 等工具的健康和福祉方面的問題。此舉是對公眾和政府不斷增加的壓力的明確回應。
9月份,美國聯邦貿易委員會開始大規模調查人工智能對青少年的影響。該公司還面臨一項訴訟,將其聊天機器人與一名青少年自殺聯繫起來。新理事會是 OpenAI 採取的最新舉措,表明其認真對待這些安全問題。
對監管和法律壓力的直接回應
這一聲明的時機並非巧合。經過數月的嚴格審查。 FTC 對 OpenAI 等七家科技巨頭進行全面調查,標誌著監管新時代的到來 對快速增長的人工智能伴侶市場的監督。
FTC 主席安德魯·N·弗格森 (Andrew N. Ferguson) 將此次調查視為一種平衡行為,他表示:“保護上網兒童是特朗普-萬斯家族的首要任務 美國聯邦貿易委員會(FTC)也在促進我們經濟關鍵領域的創新。”這項聯邦行動讓整個行業注意到,幾乎沒有護欄的時代已經結束。
法律壓力同樣巨大。 8 月,OpenAI 因一名自殺身亡青少年的父母提起過失死亡訴訟。他的父親馬修·雷恩(Matthew Raine)給予了強烈的譴責,他說:“作為父母,你無法想像閱讀與一個聊天機器人的對話是什麼感覺,這個聊天機器人引導你的孩子自殺。”此案引起了公眾的關注,並增強了採取行動的呼聲。
這些事件是困擾該行業的安全故障模式的一部分。在有報導稱 Meta 的人工智能可以幫助青少年計劃自殘後,Meta 也面臨著類似的危機。這一事件促使 Common Sense Media 首席執行官吉姆·斯泰爾 (Jim Steyer) 宣稱:“Meta AI 對青少年構成危險,應該立即將其取締。”
由 44 名州總檢察長組成的聯盟在 嚴厲的信,寫道,“我們對這種明顯忽視兒童情感健康的行為一致感到反感……”州和聯邦層面的廣泛譴責 迫使科技公司做出反應。
會見福祉和人工智能專家委員會
OpenAI 的新委員會是對這些挑戰的直接答案。 公司宣布成立由八名成員組成的“健康與人工智能專家委員會”,以指導其在 ChatGPT 和 Sora 等產品上的工作。其正式任務是提供建議、提出關鍵問題,並幫助確定各年齡段用戶與人工智能的健康互動應該是什麼樣子。
該小組由心理學、精神病學和人機交互領域的領軍人物組成。成員包括波士頓兒童醫院的 David Bickham 博士、牛津大學的 Andrew Przybylski 教授和斯坦福大學數字心理健康診所創始人 Sara Johansen 博士等專家。
據 OpenAI 報導,該委員會以現場會議正式拉開了工作序幕,並將定期進行簽到和會議。這些會議將探討複雜的主題,例如人工智能在敏感情況下應如何表現以及哪些護欄可以最好地支持用戶。該小組還將探討人工智能如何為福祉做出積極貢獻。
這正式確立了今年早些時候開始的關係。 OpenAI 證實,在開發最近推出的家長控制功能時,它已經與許多專家進行了非正式協商。他們的反饋特別幫助塑造了求救通知的基調,使其“關心和尊重青少年及其家庭成員”。
這些控制措施於 9 月底推出,是關鍵的第一步。該系統採用相互選擇的模式,並為監護人提供了一個儀表板來設置“安靜時間”、禁用語音模式並關閉記憶功能。一個關鍵功能是一個警報系統,如果對話在經過人工審核員評估後被標記為嚴重自殘內容,該系統會通知家長。
OpenAI 青少年福祉主管 Lauren Haber Jonas 解釋說,目標是取得微妙的平衡。她指出:“我們希望向家長提供足夠的信息,以便他們採取行動並與青少年進行對話,同時仍保留一定程度的青少年隱私。”該委員會現在將正式確定這一顧問角色,幫助制定未來的安全功能和產品政策。
全行業對人工智能安全的思考
OpenAI 面臨的挑戰並不是獨一無二的。它們反映了對人工智能心理影響的更廣泛、全行業的思考。專家們長期以來一直警告人們對旨在模仿人類聯繫的聊天機器人產生情感依賴的危險。
雖然 OpenAI 的新理事會和家長控制是重要的一步,但一些批評者認為他們做得還不夠。家長控制的選擇加入性質給監護人帶來了激活它們的負擔。
OpenAI 承認這些只是第一步。該公司還在開發一種長期年齡預測系統,默認情況下自動應用適合青少年的設置。目前,專家委員會的成立標誌著對解決安全問題的明確承諾。