Googleは、Androidメッセージアプリ内で「敏感なコンテンツ警告」機能の有効化を開始し、2024年10月に最初に詳細に詳述した機能を提供します。このシステムは、ユーザーデバイスで局所的に実行されている人工知能を使用して、潜在的なヌードを画像の潜在的なヌードを検出し、自動的にぼやけし、コンテンツが表示される前に、コンテンツに浸透する前に受信者と送信者の両方にコントロールを提供します。数か月前に、有害なオンラインコンテンツと闘い、AI駆動型のサイバー脅威の増加に対抗するためのより広範な業界の取り組みの中で到着します。入ってくる写真がオンデバイスAIによってフラグを立てると、会話でぼやけているように見えます。受信者は、そのようなコンテンツに関連する潜在的な害について学ぶか、送信者をブロックするオプションを見ています。 「はい、表示」、表示されている場合、「プレビューを削除」し、画像を再blurするオプションが残ります。並列警告システムは、潜在的なヌードとして識別された画像を *送信 *しているユーザーをプロンプトします。
画像を送信するには、「次へ」をタップしてから、「はい、送信」をスワイプするか、「いいえ、送信しないで」を選択してキャンセルして明示的に確認する必要があります。現在、この検出は画像のみに適用され、まだビデオを分析していません。
デバイスの処理とプライバシー保証
機能のデザインの中心は、ユーザーのプライバシーを維持するためのローカル処理に依存することです。画像分析は、 android system Safetycore 、「
Googleはを強調します。さらに、公式のドキュメントでは、Safetycoreが「アプリケーションがSafetycoreと統合されている場合にのみアクティブであり、コンテンツを分類することを特に要求することを明確にしています。繊細なコンテンツ警告機能を備えたGoogleメッセージを介して送信されない場合は、画像は分類されません。 href=”https://www.zdnet.com/article/android-quietly-installed-a-feature-thatscans-your-photos-for-show-to-remove-it/”ターゲット=”_ blank”アクティブ。コンポーネントは、技術分析に反映されるポイントであるデバイスでのみ動作します。