人類はプライバシーポリシーを更新しているため、デフォルトでモデルトレーニングに消費者チャットデータを使用する最新のAI開発者になっています。新規ユーザーのためにすぐに開始し、9月28日までにオプトアウトしない既存のユーザーに申請すると、同社は将来のモデルを改善するためにClaude AIサービスからの会話を保持および分析します。この動きは、より強力なAIのレースでのユーザープライバシーとデータ制御に関する継続的な議論を強化し、個人情報の使用方法を積極的に管理するための個人に負担をかけます。 href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”ターゲット=”_ blank”>明示的にオプトアウト。同意する人の場合、人類はまた、以前の30日間から5年までデータ保持期間を大幅に延長しています。実際の相互作用からのデータが、どの応答が最も便利かつ正確であるかについての重要な洞察を提供することを説明することにより。たとえば、Claudeを使用した開発者のデバッグコードは、同様のタスクでのモデルの将来のパフォーマンスを改善する貴重なシグナルを提供します。これは、デフォルトのデータ収集が消費者向けのAI製品の標準となっているより広範な業界の傾向を反映しています。 Googleは最近、Geminiの同様のオプトアウトポリシーを発表しました。これは、9月2日に施行される予定です。

は、ポリシーが同様に広く、ユーザーが質問するユーザーがウプロードしたファイル、写真、ビデオ、さらには質問をするスクリーンショットをカバーしています。同様に、2025年4月に発売されたMETAのAIアプリも、デフォルトで応答をパーソナライズするためにユーザーチャットを覚えており、チャットから推測されるデリケートな詳細をキャプチャすることがわかりました。 Mount

この業界全体のピボットは、プライバシー擁護者からの大きな抵抗に遭遇し、法的課題を引き起こしました。批評家は、これらのオプトアウトシステムは、ユーザーがデータを保護することを阻止するように設計されていると主張しています。アメリカの消費者連盟のベン・ウィンターズは、そのような開示と選択を「プライバシーの設定に関する開示と消費者の選択は笑いながら悪い」と呼びました。 2025年1月、LinkedInに対して集団訴訟が提起され、プレミアム加入者からのプライベートインメールメッセージを使用してAIモデルを訓練したと非難し、保存された通信法に違反したと言われています。この判決は、ジェイ・エデルソンのようなプライバシーの専門家を警戒し、「地球上の最もデリケートなデータのいくつかで何をしようとしている弁護士がたくさんいるという考えは、誰もが不安になるはずです。」消費者レポートのジャスティン・ブルックマンは、「エージェントの考えは、他の人に代わって私を操作しようとするのではなく、私の代わりに取り組んでいるということです。」

は、エンタープライズユーザーのためのより厳しいプライバシー

これらのポリシーシフトでは、企業が描かれています。人類は、その新しいオプトアウトポリシーを明示的に述べていますは、仕事、政府、教育、またはAPIの顧客を介してClaude for Work、Gov、Educationなどを含む。企業は、敏感な企業情報を処理し、より厳格な管理を需要がある企業の顧客に支払うために、より強力なプライバシー保証とデータの分離を提供しています。これにより、日常のユーザーがモデルトレーニングのリソースとして扱われる2層システムが作成されます。

AIが日常生活により統合されるようになると、この格差は公平性と同意に関するさらなる議論を促進する可能性があります。オックスフォード大学の1人の研究者として、キャロライングリーンは、「倫理と人々が出発点ではなく、倫理と人々が二度目の考えである場合、少し問題がある」と述べました。彼らにとっては正しいことですが、多くの人にとって、デフォルトの設定は別のストーリーを伝えています。

Categories: IT Info