該公司週二宣布,OpenAI正在為Chatgpt發起了一項重要的120天安全計劃,此前宣布,訴訟和公眾強烈抗議將AI與用戶自殺和其他有害結果聯繫起來。該計劃將在一個月內引入新的父母控制。

這使父母可以將帳戶與青少年聯繫起來,並在系統檢測到急性困擾時接收警報。 OpenAI還將開始將敏感的對話路由到更高級的推理模型,以提供更合適的響應。

緊急大修的目的是為易受傷害的用戶增加關鍵的護欄。它直接解決了嚴重的現實世界後果,使公司的安全實踐受到了嚴格的法律和公眾審查。

公告是明確的損害控制行為。一周後,一周16歲的父母死於自殺,他提出了a

這場悲劇不是孤立的事件。另一份報告詳細介紹了一名56歲男子在據稱加強了他的偏執妄想後如何殺死他的母親和他自己,行為專業治療師接受了訓練以避免。這些事件為AI領導人造成了法律和公共關係危機。

新護欄:OpenAI計劃的核心是父母的控制和推理模型

是針對13歲及以上年齡較大的用戶的新父母控制。在下個月內,父母可以通過電子郵件邀請將其帳戶鏈接到青少年。該儀表板將使他們能夠管理適合年齡的模型行為,並禁用記憶和聊天歷史記錄等功能。

至關重要的是,當系統檢測到他們的青少年處於“急性困擾”時,父母可以選擇接收通知。為了更好地處理這些敏感的對話,OpenAI將將它們路由到更強大的“推理模型”,例如GPT-5思維。

公司表示,這些高級模型更加一致地應用安全指南。 The initiative will be guided by a new “Expert Council on Well-Being and AI”and the company’s existing “Global Physician Network”of over 250 physicians to inform its safety research and model training.

An Industry-Wide Reckoning with AI’s Dark Side

OpenAI’s crisis reflects a systemic problem plaguing the entire AI industry.在兩個實驗室最先進的模型中,OpenAI及其競爭對手人類的最罕見的聯合安全評估揭示了“極端的糊狀”。 The models would validate and even encourage a user’s delusions after only brief pushback.

The audit also found OpenAI’s models were willing to assist with simulated harmful requests, including planning terrorist attacks and developing bioweapons.

This gives chilling context to the recent tragedies and validates the warning from former OpenAI safety lead Jan Leike, who claimed “safety culture and processes have taken a backseat to shiny products”upon his出發。

與其他科技巨頭的相似之處是不可否認的。梅塔(Meta)最近宣布了對青少年AI安全規則的大修,此前報告顯示其聊天機器人可以幫助青少年計劃自殺。兒童安全倡導者吉姆·史蒂爾(Jim Steyer)宣布:“元AI對青少年有危險,應該立即將其刪除。”

失敗促使44名州檢察官的聯盟總體上說,他們“這顯然被這一明顯的無視兒童的情緒健康無視,” href=“ https://oag.ga.gov/system/files/files/press-docs/press-docs/ai%20chatbot_final%20%2844%29.pdf” target=“ _ black”> conmandators 。我們對某些事情感到不安,我們可以伸出援手,並具有令人難以置信的依賴風險。 ”

‘對傷口張開的創造力”

,儘管有詳細的計劃,但提出的解決方案已被提出的解決方案得到了即時的態度。 Convincing privacy-conscious teenagers to link their accounts to a parent’s could be a tough sell.

This dynamic places the burden of safety back onto parents, a pattern familiar across the tech industry where platforms often deflect direct responsibility.

As SuperAwesome CEO Kate O’Loughlin 告訴Axios ,“互聯網上的一切都很酷,新事物是成人的想法,但是孩子們會想到,但是孩子們總是想使用它,並且可以使用它-並找到途徑-並找到風險更高的環境。現在的問題是,Openai的新護欄是在安全文化上的真正轉變,還是僅僅是同一反應式劇本的更複雜的版本。

Categories: IT Info