Gmail が Gemini 人工知能 (AI) モデルをトレーニングするためにプライベート メールを密かに収集していたという主張に対するウイルスの反発が広がる中、Google とセキュリティ研究者は緊急の修正を発表しました。

最初の警告の主な情報源である Malwarebytes は、金曜日遅くに報告書を撤回しました。彼らは、物議を醸している「スマート機能」設定は、新しい生成 AI データ取得ではなく、実際には 2020 年のレガシー コントロールであることを明らかにしました。

Google は、これらのツールがスパム フィルタリングなどのローカル ユーティリティのためにコンテンツをスキャンする一方で、消費者の Gmail データは基礎モデルのトレーニングから厳密に除外されていることを確認しました。

ウイルス パニックの解剖学: 誤解がどのように広がったか

今週初めの最初の火種に油を注いだのは、テクノロジー ブロガー Dave Jones (EEVBlog) による X に関するバイラル投稿で、ユーザーにプライバシーの認識を警告しました。違反。ジョーンズ氏は、Google が「AI モデルをトレーニングするために、ユーザーがすべてのプライベート メッセージと添付ファイルに Gmail にアクセスできるように自動的にオプトインするシステム」を有効にしていると主張し、この声明はすぐにプライバシー擁護派の間で注目を集めました。

具体的な懸念は、Google にメッセージ コンテンツのスキャン許可を与える「スマート機能とパーソナライゼーション」設定に集中していました。

セキュリティ会社 Malwarebytes は当初、この話を拡大し、主張を検証すると思われる分析を公開しました。彼らのレポートは、AI データ収集のベクトルとして設定を構成し、設定を無効にするためのガイドを提供しました。

しかし、金曜日までに物語は劇的に変化しました。 Malwarebytes は最新の訂正を発行し、「Gmail のスマート メッセージの文言と配置の最近の変更を巡る完全な誤解の嵐に貢献した」と認めました。

同社のメタデータ担当ディレクターであるピーター・アーンツ氏は、この混乱は用語の混同から生じたと指摘した。

Google の広報担当者ジェニー・トムソン氏は、高まる熱意に迅速に対応した。 The Verge への声明の中で、彼女は「Gmail データは Gemini 基盤モデルのトレーニングに使用されていない」ことを明確に認めました。

ソーシャル メディアの議論で失われがちな注目すべき違いを強調するこの修正では、ローカルのユーティリティベースの機械学習 (タブの並べ替えや、

撤回にもかかわらず、このインシデントは、Gmail の AI 翻訳バグなどの以前のインシデントによってさらに悪化した、ユーザーの信頼の脆弱さを露呈しました。

修正が定着する前に広く共有されたこの混乱に関する最初のレポートは、多くのユーザーに、自分たちの通信がグローバル大規模言語モデル (LLM) に入力されているという印象を与えました。

技術的な現実: レガシー ML と生成 AI の区別

最近の開発とは程遠く、「スマート機能とパーソナライゼーション」設定は今月ひっそりと展開されたわけではありません。これらは最初に 2020 年後半に導入されました

主に GDPR 要件に準拠するように設計されたこの制御により、Google が特定の受信トレイ ユーティリティのデータを処理できるかどうかをユーザーが細かく制御できるようになりました。 設定に付随する法的文章は次のように説明しています:

「この目的で情報を処理することは、サービスの提供、維持、改善… 新しい製品や機能の開発… ユーザーと公衆に利益をもたらす研究の実施における Google とユーザーの正当な利益のために必要です。」

現代の生成 AI とは異なります。膨大なデータセットを取り込んで新しいコンテンツを作成する場合、これらのレガシー機能は予測モデルに依存してユーザーの受信トレイ内で特定のタスクを実行します。

これらの設定を無効にすると、批評家が「ユーティリティ トラップ」と呼ぶものが引き起こされます。データ処理をオフにすると、フライト確認による自動カレンダー イベント、荷物追跡、電子メール内のインタラクティブ マップなどの重要な統合が中断されます。

Google の Gemini Apps Privacy Hub により、境界がさらに明確になります。ポリシーでは境界を明確に示し、次のように述べています。

「Gemini Apps が Google サービスから取得する個人コンテンツは次のとおりです。Gemini Apps サービスを提供するために使用されます… Gemini Apps を強化する生成機械学習テクノロジーを改善するためには使用されません。」

AI 侵入の証拠としてよく引用される Gemini による要約などの機能は、ローカライズされたユーザー固有のベースで動作します。彼らは、パブリック Web スクレイピングが基礎モデルのトレーニングに行うような方法で、集中化された「ワールド モデル」を提供しません。

信頼の欠如: なぜ「スマート」が「怪しい」を意味するのか

混乱をさらに悪化させるのは、ブランディングの根本的な問題です。 2025 年、消費者用語集では「スマート」という言葉が「生成 AI」と密接に結びついており、従来の用語が問題となっています。

これらの設定について 2020 年の命名法を維持するという Google の決定により、セマンティックな地雷原が生じました。 「スマート機能」は現在、「Gemini 統合」と簡単に混同されており、ユーザーはデータ使用について最悪の事態を想定するようになりました。

アーンツ氏は、「設定自体は新しいものではありませんが、最近 Google が設定を書き換えて表面化した方法を見て、多くの人が Gmail のコンテンツが Google の AI モデルのトレーニングに使用されるのではないかと信じるようになりました」と説明し、インターフェースのデザインがパニックの主なきっかけであると指摘しました。

オプトアウト プロセスのナビゲートは依然として複雑な作業です。 Google の設定では、「Gmail のスマート機能」と「他の Google サービスのスマート機能」が区別されており、データ処理を完全に無効にするには、ユーザーは複数のスイッチを切り替える必要があります。

地域格差も影響しています。米国のユーザーにとって、これらの従来の機能のデフォルトの「オン」状態は、EEA および英国のユーザーに与えられている厳格なオプトイン保護とは顕著に対照的です。

プライバシーがプレミアムな贅沢品としてますます見なされている広範な業界の変化を反映して、Perplexity のような競合他社はこの不安を利用し、広告サポート モデルとは異なる有料機能として「トレーニングなし」ポリシーをマーケティングしています。

技術的な現実は、Google にこの問題を免れていますが、特定の「トレーニング」の責任があるにもかかわらず、UI の曖昧さは依然として正当な批判です。データ使用の制限を明確に伝えていないインターフェースでは、ユーザーは不安を抱えてギャップを埋めることになります。

Categories: IT Info