Anthropic已發布了一個新的框架,以創建安全且值得信賴的AI代理商。該指南於8月4日發布,旨在解決整個科技行業日益增長的安全危機。 This move follows a wave of alarming failures, including AI agents that deleted user data, hallucinated fake studies, and were tricked by hackers.

Anthropic’s framework promotes core像人類控制和透明度這樣的原則。隨著OpenAI和Google Race等公司的建立更強大和自主的AI,它為自我調節提供了途徑。這使得公共信任成為升級市場優勢競爭的關鍵戰場。

時機是戰略性的,與新的“ Claude Opus 4.1″模型的洩漏相吻合。這表明擬人化是與其安全計劃並行推動功能,試圖證明進步和責任可以共存。

擬人化的安全標準的推動力不會在真空中發生。對於AI代理商來說,這是對災難性一年的直接回應,其特徵是侵蝕了公眾和開發者信任的引人注目的失敗。這些事件揭示了一種不可預測且經常破壞性的行為的模式。

在7月下旬,一位產品經理看著

Categories: IT Info