YouTube aktualisiert die Shorts-Plattform erheblich durch Integration von Google Lens und ermöglicht den Benutzern die Möglichkeit, visuelle Suchanfragen direkt in Kurzformvideos durchzuführen. Die neue Funktion ermöglicht es den Zuschauern, mehr über Gegenstände, Sehenswürdigkeiten oder visuelle Elemente zu identifizieren und zu erfahren. Laut YouTube soll es in den kommenden Wochen mit dem globalen Rollout für iOS und Android beginnen, um die Curiosity-Zuschauer nahtlos zu befriedigen. Google Lens überlagert dann relevante Suchergebnisse und Informationen im Video selbst. Wenn Sie nun einen kurzen Blick auf etwas auf dem Bildschirm ansehen und auf dem Bildschirm neugierig werden, können Sie Google Lens schnell erkennen und nachschlagen-Right aus dem YouTube-App. Der Wettbewerbsvorteil, da ähnliche visuelle Suchfunktionen derzeit in konkurrierenden Plattformen wie Tiktok oder Instagram-Reells nicht Standard sind.
Während der anfänglichen Beta-Periode hat YouTube erklärt, dass diese Objektivsuche nicht angezeigt werden. Darüber hinaus hat das Unternehmen klargestellt, dass die Funktion nicht auf Shorts mit YouTube-Einkaufsbetreuungslinks oder bezahlten Produktaktionen aktiv ist.
Tiefere Engagement-und Ersteller-Tools
Die Integration von Linsen in den Shorts-Spieler entfernt einen bedeutenden Reibungspunkt für Benutzer, die mehr über das erfahren möchten, was sie sehen, und steigern möglicherweise die Engagementmetriken für die Plattform. Es ist die neueste in einer Reihe von KI-gesteuerten Verbesserungen für YouTube-Shorts, die in konsequent Tools hinzugefügt wurden, um Schöpfer zu stärken und die Zuschauer zu engagieren. In diesem Februar hat YouTube sein VEO 2 AI-Videogenerierungsmodell integriert, sodass die Ersteller hochauflösende, filmische Videos aus Textaufforderungen produzieren können.
Im April kündigte YouTube neue bevorstehende Funktionen für Shorts-Schöpfer an, darunter ein verbesserter Video-Editor und Ai-Generated-Aufkleber, der weiterhin dazu beitragen soll, inhaltliche Inhalte zu produzieren. Suche während des gesamten Produktökosystems. Google Lens wurde zuvor im August 2024 in den Chrome-Desktop-Browser aufgenommen, sodass Benutzer mit Bildern oder ausgewählten Teilen der Webseiten suchen können.
Die technologische Grundlage für solche Merkmale ist seit einiger Zeit in der Entwicklung. Googles Gemini Live-KI-Assistent von Google erlangte beispielsweise im März die Möglichkeit, Live-Video-und Bildschirminhalte zu verarbeiten und in Echtzeit, multimodaler KI-Unterstützung zu ermöglichen. Das Ereignis zeigt auch „Search Live“, eine Funktion, die eine in Echtzeit-Kamera basierende Interaktion in der Google-Suche ermöglicht, die von Project Astra betrieben wird. YouTube hat Richtlinien in Bezug auf AI-generierte Inhalte und Erstellungsberechtigungen für das AI-Modelltraining in YouTube Studio implementiert.