Google hat seinen KI-angetriebenen Videogenerator Veo 2 auf Gemini Advanced Users erweitert und die textbasierte Videoerstellung direkt von den Web-und Mobile-Schnittstellen der Plattform ermöglicht. Abonnenten des AI-Premium-Plans von 19,99 USD/Monat können jetzt VEO 2 verwenden, um 8-Sekunden-, 720p-Videoclips basierend auf schriftlichen Eingabeaufforderungen zu generieren. Der Umzug markiert eine Verschiebung von Experimenten auf Unternehmensebene zur Kreativität auf Verbraucher, so dass es den Nichtspezialisten einfacher mit Tools zur Produktion von KI-Videoproduktion ingeht. Dieses Tool, das über Google Labs zugänglich ist, eröffnet Bild-zu-Video-Workflows für Hobbyisten und visuelle Designer gleich. Zuvor verwendeten Entwickler und Enterprise-Teams VEO 2 über Vertex AI, wobei die Kosten 0,50 USD pro Sekunde des gerenderten Inhalts betragen. Die Rollout to Gemini Advanced folgt seiner Cloud-Ankündigung am 9. April und dem Entwicklerzugriff am 11. April und vervollständigt eine mehrstufige Startstrategie. Realismus

Im Gegensatz zu einfacheren Tools zur Video-Eingabeaufforderung können Benutzer die filmischen Eigenschaften beeinflussen. Anweisungen wie”Verfolgen Sie das Thema mit einer flachen Feldtiefe”oder”Verwenden Sie eine Weitwinkelobjektiv”werden in der endgültigen Ausgabe verstanden und widerspiegeln. Google gibt an, dass das Modell in der „Sprache der Kinematographie“ trainiert wurde und die Schussspezifikstilregelung ermöglichte, die in der Verbraucher-AI-Videoplattformen normalerweise nicht zu sehen ist. Diese Beispiele, die in frühen Demos gezeigt wurden, zeigten die Fähigkeit von Veo 2, das Beleuchtungsverhalten, natürliche Bewegung und die Treue der Textur zu replizieren-und die die meisten generativen Videosysteme in Frage stellen. Während Gemini Advanced die Erzeugung auf eine kurze Ausgabe mit geringer Auflösung beschränkt, bleibt die grundlegende Engine gleich.

Nach Google zeigten interne Tests, dass „59% der Benutzer die Ausgaben von VEO 2 gegenüber denen von Sora Turbo bevorzugen“, das OpenAI-Videomodell von 1080p und 20 Sekunden pro Clip pro Clip belegt ist. Dies verleiht Veo einen wettbewerbsfähigen Vorteil in der visuellen Qualität, obwohl Zugriffsstufenbeschränkungen für Nicht-Enterprise-Benutzer immer noch die vollständige Leistung einschränken. Shorts-Schöpfer können natürliche Sprache verwenden, um visuelle Stile auf A-generierte Clips anzuwenden. 

Diese Tools basieren auf derselben VEO 2-Infrastruktur, jedoch mit unterschiedlichen UI-Schichten und Zugriffsmodellen. Gemini Advanced bietet gebündelten Zugriff an, während YouTube und Labors die Strategie von Google widerspiegeln, generative KI in bestehende kreative Ökosysteme einzubetten. Gemini-Benutzer zahlen ein pauschales monatliches Abonnement und erhalten eine begrenzte Anzahl von Generationen, wobei Google feststellt, dass die Benutzer „benachrichtigt werden, wenn sie sich ihrer monatlichen Generationsgrenze nähern. Im Gegensatz dazu kann die Verwendung von Scheitelpunkte AI je nach Auflösung und Cliplänge Hunderte von Dollar pro Minute kosten. Das AI-Studio, das zwischen 0,35 USD pro Sekunde zu einem Preis für Entwickler war, diente als Brücke. Features like time-lapse, multi-shot sequencing, and background editing tools are exclusive to Vertex AI’s feature preview, part of Google’s commercial product stack for Enterprise Video Workflows. Diese Einschränkungen signalisieren einen absichtlichen, gestaffelten Rollout-Ausgleich von Zugriff und Leistung, um Überladungen von Server und Qualitätsverschlechterung zu verhindern. Diese unsichtbare Signatur ermöglicht die Überprüfung des Inhalts, ohne sich zu beeinträchtigen. Das System stimmt mit C2PA-Standards überein und untermauert die Behauptungen von Google, verantwortungsbewusste KI-Bereitstellung. Synthid allein kann die Nutzungsrichtlinien jedoch nicht durchsetzen, es sei denn, die Plattformen von Drittanbietern unterstützen die Erkennung und Durchsetzung-etwas, das in allen Diensten immer noch inkonsistent ist. Während Schöpfer auf YouTube eine Modellausbildung von Drittanbietern abschließen können, behält das Unternehmen das Rechte, öffentliche Inhalte für seine eigene KI zu verwenden. Die YouTube-Richtlinie besagt, dass „der Zugriff auf den Erstellungsinhalt auf nicht autorisierte Weise, wie z. B. unbefugtes Scraping, verboten bleibt“. Bis dahin wird die Rolle von YouTube-Daten bei der Erstellung von VEO-Funktionen fortgesetzt. For example, the model was used to help enhance The Wizard of Oz for the immersive LED dome at the Las Vegas Sphäre , kombiniert Originalmaterial mit AI-erweiterten Kulissen. Diese Anwendung zeigt das Potenzial von VEO zur Unterstützung der digitalen Restaurierung und der skalierbaren Inhaltsvergrößerung in professionellen Umgebungen. Diese Modelle werden zunehmend in die Vertex-AI-und Google Labs integriert, um die Erstellung von Cross-Media-Inhalten zu unterstützen. DeepMind-CEO Demis Hassabis erklärte kürzlich, dass”Google seine Gemini-und VEO-AI-Modelle schließlich kombinieren werde, um das Verständnis der physischen Welt zu verbessern”, ein Schritt, der den Weg für einheitliche, multimodale AI-Anwendungen ebnen könnte.

Diese Vision bleibt in der Entwicklung. Im Moment signalisiert die Ankunft von VEO 2 in Gemini einen unmittelbareren Ehrgeiz: Nicht-Experten ein Tool zu geben, das Ideen animieren kann, ohne Kameras, Crews oder teure Bearbeitungssoftware zu benötigen. Es ist immer noch eingeschränkt-durch Lösung, Dauer und Zugriffsstufen-, aber es ist auch das klarste Beispiel für Googles Absicht, generative Videos in alltägliche kreative Workflows zu bringen.

Categories: IT Info