Google zestalił swoją strategię sztucznej inteligencji, przenosząc swoje potężne modele Gemini 2.5 Pro i 2.5 Flash w ogólną dostępność do użytku produkcyjnego, jednocześnie rozszerzając swój portfolio o nowy, opłacalny model o nazwie Gemini 2.5 Flash-Lite. Firma ustanowiła wyraźną trzypoziomową rodzinę produktów, znaczący ruch zaprojektowany w celu zapewnienia programistom przewidywalnego i dostosowanego zestawu opcji, które równoważą wydajność, szybkość i koszty.

Strategiczny remont zapewnia jasność na platformę Google na platformie Google. W publikuj na temat słów kluczowych, oficjalny blog Google , starszy reżyser Tulsee Doshi doshi, wyjaśniając cel, aby stworzyć „rodzinę rozumowania hybrydowego” dostarcza rem jest reżyserem TULSEE. „Pareto granica kosztów i prędkości.”

To dojrzewanie jest dodatkowo podkreślane przez poważne uproszczenie w cenach Flash Gemini 2.5, który porzuca złożoną strukturę podglądu dla pojedynczej, zjednoczonej prędkości.

Model dla każdej misji: pro, flash i flash-lite

nowo zdefiniowana hierarchia tworzy wyraźną rolę dla każdej modelu , strategime, a strategie w Oficjalna dokumentacja Google dla programistów . U góry Gemini 2.5 Pro jest ustawiony dla „maksymalnej dokładności odpowiedzi i najnowocześniejszej wydajności”, co czyni go silnikiem dla najbardziej złożonych zadań kodowania, analizy i agencji. Wewnętrzne testy porównawcze pokazują, że prowadzi w trudnych domenach, takich jak matematyka i edycja kodu.

Zajmowanie środkowego poziomu to Flash Gemini 2.5, zaprojektowany dla „niskich opóźnień, dużej objętości, które wymagają myślenia.” Służy jako zrównoważony wszechstronny, oferując wydajność, która często zbliża się do pro, ale przy znacznie niższych kosztach. Hierarchia nie zawsze jest ściśle liniowa; W godnym uwagi niuansu z własnego testowania Google model Flash z myśleniem faktycznie przewyższył silniejszy model PRO w określonym odniesieniu do odniesienia długiego kontaktu, sugerując wyspecjalizowane optymalizacje w architekturze.

Najnowszym członkiem, Gemini 2.5 Flash-Lite, jest specjalistą ds. Speedu i skali. Teraz dostępny w podglądu, jest opisywany jako „najbardziej opłacalny model obsługujący wysoką przepustowość” dla aplikacji w czasie rzeczywistym, takich jak klasyfikacja danych i podsumowanie danych na skalę.

Ceny, uproszczona: wyraźniejsza ścieżka dla programistów

Krytycznym komponentem tego strategicznego wyjaśnienia jest aktualizowana cena dla Gemini 2.5 Flash. Podczas fazy podglądu, która rozpoczęła się w kwietniu, model zawierał mylący system podwójnych cen w oparciu o to, czy jego funkcja rozumowania była aktywna. Google wyeliminowało teraz tę złożoność, ustalając jedną stawkę 0,30 USD za milion tokenów wejściowych i 2,50 USD za tokeny wyjściowe.

Firma wyjaśniła, że ​​korekta była specyficzną odzwierciedleniem „wyjątkowej wartości”, dodając, że nadal oferuje „najlepszą dostępną kosztową dostępność”. Struktura cenowa jest dodatkowo wyjaśniona przez gemini api „wolny poziom” , który oferuje programistom sposób eksperymentowania z niższym limitami stawki przed zobowiązaniem się do wyższego poziomu opłaconego. AI Reasoning

Centralny dla całej rodziny 2.5 jest koncepcją „rozumowania hybrydowego”, funkcji kontrolowanej, która pozwala modele wykonywać głębszą, wielopiętrową logiczną weryfikację przed odpowiedzią. To więcej niż prosty przełącznik; Deweloperzy mogą ustawić „budżet myślenia” Aby kontrolować zasoby obliczeniowe, których model używa dla rozumowania na podstawie na bazie. Funkcja, po raz pierwszy wprowadzona z podglądem Flash 2.5 rozszerzonym na Gemini 2.5 Pro w maju, jest podstawową częścią architektury rodziny. Jego wpływ jest namacalny: na przykład umożliwianie „myślenia” na Gemini 2.5 Flash-Lite, zwiększa swój wynik w kluczowym wzniesieniu matematyki z 49,8% do 63,1%, dając programistom dźwignię w celu zwiększenia dokładności w razie potrzeby.

od sprintów do stabilności: maturing ai strategia

to jest to konieczne. Atmosfera otaczająca początkowe wydanie serii Gemini 2.5. Pod koniec marca Google przekazał swój eksperymentalny model 2.5 Pro do wszystkich bezpłatnych użytkowników zaledwie kilka dni po wyłącznej premiery płacących subskrybentów. Konto firmy w mediach społecznościowych oświadczyło wówczas: „Zespół sprintuje, TPU jest gorąco i chcemy, aby nasz najbardziej inteligentny model w ręce większej liczby osób było jak najszybciej.”

To szybkie wdrożenie spotkało się jednak z krytyką ze strony ekspertów zarządzania AI, gdy towarzyszący raport bezpieczeństwa pojawił się kilka tygodni później z niektórymi szczegółami. Kevin Bankston z Centrum Demokracji i Technologii opisał to w tym czasie w ramach „niepokojącej historii wyścigu na dno bezpieczeństwa i przejrzystości AI, gdy firmy popędzą swoje modele na rynek.”

Dzisiejsze ogłoszenie „ogólnej dostępności” sygnalizuje strategiczne dojrzewanie. Jak wspomniano w vertex ai uwagi , status sugeruje, że modele są stabilne, obsługiwane do użytku produkcyjnego i są dostarczane z umowami poziomu serwisowego. To przejście z eksperymentalnych sprintów na stabilną, wielopoziomową i przewidywalnie wyceną rodzinę produktów pokazuje, że Google buduje bardziej trwałe podstawy dla swoich szerokich ambicji AI, które były w pełni wyświetlane podczas ostatniej konferencji I/O.

Categories: IT Info