YouTubeは、Googleレンズを統合することにより、ショーツプラットフォームを大幅にアップグレードし、ユーザーがショートフォームビデオ内で直接視覚検索を実行できるようにします。この新機能により、視聴者はアイテム、ランドマーク、または表示される視覚的要素を特定し、詳しく知ることができます。 YouTubeによると、今後数週間にわたってiOSとAndroidでのグローバルロールアウトを開始するように設定されています。視聴者の好奇心をシームレスに満たすことを目指しています。
統合により、ユーザーは短い「レンズ」オプションを一時停止し、新しい「レンズ」オプションを選択してから、関心のあるオブジェクトをタップ、ハイライト、または描画できます。 Googleレンズは、関連する検索結果とビデオ自体の情報をオーバーレイします。
新しいレンズ機能は、コンテンツの発見をより直感的でインタラクティブにするように設計されています。今、あなたがショートを見て、画面上で何かに興味を持っているなら、Googleレンズを使用してYouTubeアプリ内からすぐに認識して調べることができます。同様の視覚検索機能は現在、TiktokやInstagramリールなどのライバルプラットフォームでは標準ではないため、競争上の優位性があります。
初期ベータ期間中、YouTubeはこれらのレンズ駆動の検索が表示されないと述べています。さらに、同社は、この機能がYouTubeショッピングアフィリエイトリンクや有料製品プロモーションを含むショートパンツではアクティブではないことを明らかにしました。
より深いエンゲージメントとクリエイターツール
レンズのショートパンツへの統合は、プラットフォームのエンゲージメントメトリックを増やし、潜在的に増加したいユーザーのための重要な摩擦ポイントを削除します。これは、YouTubeショーツ用のAI駆動型の一連の拡張機能の最新であり、クリエイターをエンパワーし、視聴者を引き付けるツールを一貫して追加しています。昨年、YouTubeはAIに生成されたナレーションとショートパンツの自動キャプションを展開しました。この2月のYouTubeは、VEO 2 AIビデオ生成モデルを統合し、作成者がテキストプロンプトから高解像度の映画スタイルのビデオを作成できるようにしました。
4月、YouTubeは、改善されたビデオエディターやAI創造ステッカーなど、ショーツクリエイター向けの新しい機能を発表しました。さらに、魅力的なコンテンツの作成を支援することを目指しています。特に視覚的な検索、製品エコシステム全体を通して。 Googleレンズは、以前は2024年8月にChromeデスクトップブラウザーに組み込まれており、ユーザーが画像またはWebページの選択した部分を使用して検索できるようにしました。
このような機能の技術基盤は、しばらくの間開発されてきました。たとえば、GoogleのGemini Live Aiアシスタントは、3月にライブビデオと画面上のコンテンツを処理する能力を獲得し、リアルタイムのマルチモーダルAI支援を可能にしました。このイベントでは、プロジェクトASTRAを搭載したGoogle検索でのリアルタイムカメラベースの対話を可能にする機能「Search Live」も紹介しました。 YouTubeは、YouTube StudioでのAIモデルトレーニングのAI生成コンテンツと作成者の許可に関するポリシーを実装しています。