Googleは、ユーザーが写真を撮ったり、画像の内容についてAIに生成された応答を受け取ることができる新しいマルチモーダル機能を使用して、実験的なAIモードを拡張しています。 4月7日に発売された新機能は、米国で数百万人のユーザーが利用できるようになりました検索ラボ AndroidおよびiOS。 href=”https://labs.google.com/search/experiment/22″ターゲット=”_ blank”> Google 1つのAIプレミアムサブスクライバーは、Gemini言語モデルとGoogleレンズを組み合わせています。結果は、AIが写真内のオブジェクトを認識し、コンテキストを理解し、リンク、提案、およびオプションのフォローアッププロンプトで構造化された応答を生成できるようにするエクスペリエンスです。
AIモードは、オブジェクトが互いにどのように関連するか、独自の素材、色、シェイプ、アレンジメントに関連するコンテキストを含む画像のシーン全体を理解できるようになりました。このシステムは、画像から複数のクエリを生成する「ファンアウト」手法を使用して機能し、会話の回答に合成されます。
bloomberg ページ。インデックスを維持する人は、多くの場合、交通がほとんどないAIに生成された応答で使用されているコンテンツを見つけます。オンライン学習Cheggは、Googleが独自のコンテンツを削って、検索概要でAIを使用してそれを言い換えたと主張しています。 Googleは不正行為を否定しました。
広告と収益化の課題
AIモードの拡張は、Googleの広告ビジネスに関する疑問も提起します。同社は、2024年5月のWinbuzzer Reportで確認されているように、概要のAIに生成されたコンテンツ内に広告の配置を開始しています。同様の収益化モデルがAIモードに拡張される可能性があります。
しかし、会話型AI結果の広告配置は新しい課題を提示します。有料リンクが上部または指定されたセクションに表示される従来の検索結果とは異なり、AIモードは、ユーザーの信頼を損なうことなく広告で中断するのが難しい統合された回答を生成します。応答の構造はより平坦で合成され、商業的な挿入物がより微妙になり、より物議を醸すものになります。
Googleは、検索製品からの広告収益に大きく依存しているため、このバランスを正しくすることが重要です。ユーザーがAIに生成された回答にもっと依存しており、従来のリストに少ない場合、Googleはこれらの経験にスポンサーのコンテンツをどのように組み込むかをオーバーホールする必要がある場合があります。 Openaiは、Live WebアクセスでChatGPTの検索機能を着実に拡大しており、ユーザーは自然言語の質問をして、引用で最新の回答を受け取ることができます。一方、Perplexity AIは、複数のソースと表面情報からのリアルタイムデータを引用補助形式で集約するディープリサーチツールを促進しています。競合他社はAIアシスト検索の透明性と精度を目指しているため、GoogleはGeminiのコンテキストの理解と視覚ツールとの統合がそれを先に保つことを賭けています。米国司法省は、Googleの構造的変化につながる可能性のある救済策を提案しました。これには、検索およびブラウザ運用の一部を分割することが含まれます。 DOJは、Googleが検索エコシステムとAIツールの統合を制御することで、競合他社やコンテンツクリエーターよりも不公平な利点をもたらす可能性があると主張しています。
Google、Openai、およびOpenaiや困惑などの新興競合他社がアプローチを絞り込んでいます。