Google rozszerzył generator wideo zasilany przez AI Veo 2 do zaawansowanych użytkowników Gemini, umożliwiając tworzenie wideo oparte na tekstach bezpośrednio z interfejsów internetowych i mobilnych platformy. Subskrybenci planu premium AI 19,99 USD/miesiąc mogą teraz użyć VEO 2 do wygenerowania 8-sekundowych klipów wideo na podstawie pisemnych podpowiedzi. Ten ruch oznacza przejście z eksperymentów na poziomie przedsiębiorstw do kreatywności skierowanej do konsumentów, ułatwiając osobom nie-specjaliści angażowanie się z narzędziami do produkcji wideo AI.

Google wprowadza również narzędzie do Animate-to-Video, umożliwiając użytkownikom animowanie obrazów statycznych w krótkie sekwencje wideo. To narzędzie, dostępne za pośrednictwem Google Labs, otwiera przepływy pracy od obrazu do filmu dla hobbystów, jak i projektantów wizualnych.

Dostęp do Veo 2 w Gemini Advanced śledzi wcześniejsze uruchomienie podglądu za pośrednictwem Google AI Studio, gdzie wybrani użytkownicy USA mogą wygenerować wideo za 0,35 USD na sekundę. Wcześniej deweloperzy i zespoły korporacyjne używali VEO 2 do Vertex AI, gdzie koszt wynosi 0,50 USD na sekundę renderowanej treści. Wdrożenie do Gemini Advanced podąża za swoją chmurą w następnym 2025 r. 9 kwietnia i dostępu do programistów 11 kwietnia, wypełniając strategię uruchomienia wielu tiersów.

Strysk Realizm

W przeciwieństwie do prostszych narzędzi szybkich do głosowania, Veo 2 umożliwia użytkownikom wpływanie na cechy filmowe. Instrukcje takie jak „Śledź temat z płytką głębokością pola” lub „Użyj soczewki szerokokątnej” są rozumiane i odzwierciedlone w końcowym wyjściu. Google stwierdza, że ​​model został przeszkolony w zakresie „języka zdjęć”, umożliwiając kontrolę stylu specyficznego dla strzału, która zwykle nie widziana na platformach wideo Consumer AI.

Silnik wizualny modelu opiera się na możliwościach pokazanych po raz pierwszy w grudniu 2024 r., Kiedy to przedstawiono szczegółowe sceny, takie jak pszczoły otoczone przez pszczoły i technik laboratoryjny. Przykłady te, przedstawione we wczesnych demonstracjach, wykazały zdolność Veo 2 do replikacji zachowania oświetlenia, naturalnego ruchu i wierności tekstury-które kwestionują najbardziej generatywne systemy wideo. Podczas gdy Gemini zaawansowało wytwarzanie do krótkiej, niskiej wydajności, podstawowy silnik pozostaje taki sam.

Według Google, testy wewnętrzne wykazały, że „59% użytkowników preferowało wyjścia Veo 2 w stosunku do wyników Sora Turbo”, model wideo Openai przylegał do 1080p i 20 sekund na klip. Daje to Veo przewagę konkurencyjną w jakości wizualnej, choć ograniczenia poziomu dostępu nadal ograniczają pełną wydajność dla użytkowników niebędących przedsiębiorstwami.

[zawartość osadzona]

Wdrożenie w ekosystemie Google

Veo 2 po raz pierwszy pojawiło się w publicznej funkcji z YouTube w lutym 2025 r., Osadzone w funkcji ekranu snów. Krótkie twórcy mogą używać języka naturalnego do zastosowania stylów wizualnych do klipów generowanych przez AI. 

Te narzędzia opierają się na tej samej infrastrukturze Veo 2, ale z różnymi warstwami interfejsu użytkownika i modeli dostępu. Gemini Advanced oferuje dostęp do pakietu, podczas gdy YouTube i Labs odzwierciedlają strategię Google dotyczącą generatywnej sztucznej inteligencji w istniejących kreatywnych ekosystemach.

Warunkowane wyceny i różnicowanie funkcji

Wydanie Gemini sprawia, że ​​Veo 2 bardziej dostępne finansowo niż opcje przedsięwzięcia. Użytkownicy Gemini płacą płaską miesięczną subskrypcję i otrzymują ograniczoną liczbę pokoleń, a Google zauważa, że ​​użytkownicy zostaną „powiadomieni, ponieważ zbliżają się do ich miesięcznego limitu generacji” zgodnie z jego oficjalnym blogiem . Natomiast użycie AI Vertex może kosztować setki dolarów na minutę, w zależności od rozdzielczości i długości klipu. AI Studio, wycenione pomiędzy 0,35 USD/sekundę, służyło jako most na początku kwietnia dla programistów.

Mimo to użytkownicy Gemini nie otrzymują tego samego zestawu sterowania. Funkcje takie jak kryta się w czasie, wiele shot i narzędzia edytowania tła są wyłączne do

Etyczne luki w zakresie porażek i ujawniania danych

Aby zapobiec niewłaściwemu użyciu, Google integruje syntezowe wskaźniki w każdym wideo z generowanym przez VEO. Ten niewidzialny podpis umożliwia weryfikację treści bez wpływu na jakość. System jest zgodny ze standardami C2PA i podstawą roszczeń Google o odpowiedzialnym wdrożeniu AI. Jednak sam synthid nie może egzekwować zasad dotyczących użytkowania, chyba że platformy zewnętrzne nie wspierają wykrywania i egzekwowania-coś jest nadal niespójne w różnych usługach.

Stanowisko Google w zakresie danych szkoleniowych pozostanie niejasne. Podczas gdy twórcy na YouTube mogą zrezygnować z szkolenia modelowego, firma zachowuje prawa do wykorzystywania treści publicznych dla własnej sztucznej inteligencji. Polityka YouTube stwierdza, że ​​„dostęp do treści twórców w nieautoryzowany sposób, takie jak nieautoryzowane skrobanie, pozostaje zabronione”, ale krytycy zauważają, że nie w pełni rozwiązuje obawy dotyczące mimowolnych wkładów modeli.

Problem nabiera większej pilności, gdy AI AI Unii Europejskiej zmienia się w kierunku egzekwowania prawa, co może wymagać firm takich jak Google, aby wykorzystywać ich modele, aby wyszkolić ich modele. Do tego czasu spekulacje na temat roli danych YouTube w budowaniu możliwości Veo.

Kreatywne przypadki użycia i szersze ambicje

Google zaprezentowało już VEO 2 w doskonałych kreatywnych projektach. Na przykład model został użyty, aby ulepszyć kreatora Oz dla wciągającej kopuły LED na