Anthropic正在更新其隱私政策,使其成為使用消費者聊天數據進行模型培訓的最新主要AI開發人員。立即開始為新用戶開始,並向現有用戶應用於9月28日不選擇退出的現有用戶,該公司將保留並分析其Claude AI服務的對話,以改善未來的模型。
此轉變使人類對流與具有類似選擇退出政策的Google和Meta等競爭對手保持一致。 The move intensifies the ongoing debate over user privacy and data control in the race for more powerful AI, placing the burden on individuals to actively manage how their personal information is used.
Anthropic Adopts Opt-Out Data Training Policy
Under the new terms, data from users of Claude’s free, Pro, and Max tiers will be collected unless they navigate to their settings and 明確選擇退出。對於那些同意的人,擬人化也從前30天到五年大大延長其數據保留期。
朝著默認數據收集的行業轉變
Anthropic的策略更改在真空中沒有發生。它反映了更廣泛的行業趨勢,默認數據收集已成為面向消費者的AI產品的規範。 Google最近宣布了Gemini的類似退出政策,該政策定於9月2日生效。
該策略相似,涵蓋了用戶更計劃的文件,照片,視頻,甚至是用戶詢問問題的屏幕截圖。 Likewise, Meta’s AI app, launched in April 2025, also remembers user chats by default to personalize responses and was found to capture sensitive details inferred from chats.
This convergence of strategies among Big Tech players underscores the immense value of real-world user data in the competitive race to build more capable and context-aware AI systems.
Privacy Backlash and Legal先例Mount
這個整個行業的樞紐已受到隱私擁護者的重大抵制,並引發了法律挑戰。評論家認為,這些退出系統旨在阻止用戶保護其數據。美國消費者聯合會的本·溫特斯(Ben Winters)稱這種披露和選擇“圍繞隱私設置的披露和消費者選擇真是太糟糕了。 ”
法律景觀對科技公司的危害也變得越來越危險。 2025年1月,針對LinkedIn提起了集體訴訟,指責其使用高級訂戶的私人INMAIL消息來培訓AI型號,據稱違反了《已存儲的通訊法》。
進一步使事務更加複雜,美國法院在7月份命令OpenAI在7月份的OpenAI命令保留所有用戶與所有用戶的聊天有關的證據,這些用戶卻被刪除了紐約的範圍,以置於新的範圍內,以否定的範圍侵犯了侵犯。這位統治震驚的隱私專家像傑伊·埃德爾森(Jay Edelson)這樣警告,他警告說:“您有一群律師,他們將對地球上的一些最敏感的數據進行任何操作,使每個人都感到不安。 ”
這些案例強調了技術行業的thirs thirs thirs thir thirst for thirs for for數據和法律和道德的使用者之間的刺耳態度,並使他們的使用者與使用者相關。 Many feel the balance is off, with Justin Brookman of Consumer Reports noting, “the idea of an agent is that it’s working on my behalf — not on trying to manipulate me on others’ behalf.”
A Clear Divide: Stricter Privacy for Enterprise Users
A crucial detail in these policy shifts is the clear line companies are drawing between consumer and enterprise users.擬人化明確指出其新的退出策略不適用於其商業產品,包括工作,gov,gov,gov,gov,gov,gov,gov,gov,gov,api is的cloction is procons commance commance intt intt intt intt intt intunt intt intt
隨著AI更加融合到日常生活中,這種鴻溝很可能會進一步就公平和同意的辯論。正如牛津大學卡羅琳·格林大學(Caroline Green)的一位研究人員指出,“在AI發展方面存在一些問題,道德和人是第二個想法,而不是起點。 ”
Meta發言人托馬斯·理查茲(Thomas Richards)托馬斯·理查茲(Thomas Richards)捍衛了他公司的態度,並確定了我們在平台上為人們提供了跨越的人的經驗……我們可以為人們提供過度的個人化,以便我們的人數及以上的人數,所以我們的成就是我們的,所以我們的成就是我們的,所以我們的成績是我們的,所以我們可以為我們提供了多個人的成就,我們可以為我們提供了多個人,所以我們可以為我們提供了多樣化的成就,因此,我們為我們提供了多樣化的成就,因此我們可以為我們提供了良好的態度。這對他們來說是正確的,”但是對於許多人來說,默認設置講述了一個不同的故事。