Google znacznie rozwija swoje modele sztucznej inteligencji Gemini 2.5, podkreślone przez wprowadzenie „Deep Think”, eksperymentalnego trybu rozumowania dla jego flagowego Gemini 2.5 Pro. Ujawnione na Google I/O 2025, Deep Think ma na celu rozwiązanie bardzo złożonej matematyki i kodowania poprzez umożliwienie modelu rozważenie wielu hipotez przed odpowiedzią. Ten rozwój, w połączeniu z ulepszeniami wydajności dla zorientowanego na prędkość Flash Gemini 2.5 i nowymi możliwościami w obu modelach, w tym natywne wyjście audio, podkreśla zobowiązanie Google w dostarczanie silniejszych i wszechstronnych narzędzi AI.
, jak szczegółowo opisał Google DeepMind, jest zaprojektowany w celu podniesienia możliwości analitycznych Gemini 2.5 Pro. Demis Hassabis, szef Google Deepmind, stwierdził podczas briefingu prasowego, że Deep Think „przesuwa wydajność modelu do swoich granic”, wykorzystując najnowocześniejsze badania. Takie podejście może być podobne do technik stosowanych przez konkurentów, takich jak Openai.
Wczesne wyniki pokazują, że głębokie myślenie umożliwiające Gemini 2.5 Pro na dodatek wymagającej oceny kodowania LiveCodeBench i przewyższając O3 Openai na test umiejętności multimodalnych MMMU. Jednak Google przyjmuje ostrożne podejście, początkowo uwalniając głębokie przemyślenie zaufanych testerów za pośrednictwem gemini api W celu dalszej oceny bezpieczeństwa, z dostępnością na AI wierzchołków dla tych testerów wkrótce. src=”data: image/svg+xml; nitro-empty-id=mty0nto5mde=-1; base64, phn2zyB2awv3qm94psiWiDagody0idqx Miigd2lkdgg9ijg2ncigagvpz2h0psi0mtiihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”Źródło: Google
Wraz z tymi wysokiej klasy ulepszeniami, Gemini 2.5 Flash, zoptymalizowany pod kątem szybkości i wydajności, również otrzymał znaczną aktualizację. Model oferuje teraz lepszą wydajność w rozumowaniu, multimodalności, kodowaniu i długich kontekstach, a jednocześnie jest o 20-30% bardziej token-efektywny, jak szczegółowo opisał Google.
Zaktualizowany błysk 2.5 jest obecnie w podglądu w vertex ai oraz
Opiera się na jego kwietniowym wprowadzeniu, gdzie zostało przedstawione jako rozwiązanie zadań o wysokiej częstotliwości zawierającej „Dynamiczne i kontrolowane obliczenia”. Geotab, firma zarządzająca flotą, odnotowaną w stwierdzenie dzielenia się przez Google że dla ich agenta analitycznego, Gemini 2.5 Flash na Vertex Ai oferuje doskonałą równowagę. „Dobra spójność”, zwłaszcza „dostarczanie 25% szybszych czasów reakcji na tematy, w których ma mniejszą znajomość.”
Ulepszona interakcja i szersze możliwości
Seria Gemini 2.5 obejmuje teraz natywną moc dźwięku za pośrednictwem API na żywo , umożliwiając bardziej naturalne i ekspresyjne rozmowy AI. Obejmuje to dane wejściowe audiowizualne oraz możliwość kierowania tonem i akcentem AI, a nawet instruowania go, aby korzystać z narzędzi takich jak wyszukiwanie. Eksperymentalne funkcje API na żywo obejmują dialog afektywny, umożliwiający modelowi wykrywanie i reagowanie na emocje użytkownika oraz proaktywny dźwięk dla wymagających wskazówek odpowiedzi w hałaśliwych środowiskach.
Ponadto nowe podgląd tekstu na mowę dla obu modeli obsługuje wiele głośników i ponad 24 języki, z możliwością przechwytywania subtelnych subtelnych, takich jak Whispers.
[Osadzone w mowie]
w całym GEMInie w całym GEMInesie w całym GEMINI w całym GEMINI. Został wzmocniony zaawansowane zabezpieczenia , według Google Deepmind, przeciwko zagrożeniom, takim jak pośrednie inkusydacje. Patrząc w przyszłość, Project Mariner, eksperymentalny agent AI funkcjonujący jako rozszerzenie chromu do autonomicznego przeglądania i interakcji ze stronami internetowymi, zostanie zintegrowany z API Gemini i Vertex AI.
Eksperymenty programistów dla Project Mariner, z początkowym dostępem do subskrypcji Google Ultra w USA. Gemini Live, zawierający udostępnianie aparatu i ekranu zasilane przez Project Astra, również przechodzi również do wszystkich użytkowników na iOS.
[Wbudowana treść]
Focus Developer i ewoluujący ekosystem
Google kontynuuje, aby udoskonalić doświadczenie programistów poprzez wprowadzenie podsumowujących podsumowania w Gemini i Vertex AI do utworzenia rozkładu w modelu. Budżety myślenia, które pozwalają na kontrolę nad kosztami obliczeniowymi, są rozszerzane z Flash do 2,5 Pro. Aktualizacje te są częścią szybkiego cyklu iteracji dla Bliźnięta. „I/O Edition” Gemini 2.5 Pro zostało już wydane 6 maja, koncentrując się na lepszych umiejętnościach kodowania.
To szybkie wdrożenie ma czasami kontrolę. Początkowa karta modelowa dla Gemini 2.5 Pro, opublikowana tygodnie po jego publicznej dostępności pod koniec marca, została określona przez Kevina Bankstona z Centrum Demokracji i Technologii. To podsycające obawy dotyczące przejrzystości bezpieczeństwa AI, ponieważ modele są szybko wprowadzane na rynek.
Aplikacja Chatbot Gemini AI obsługuje teraz ponad 400 milionów aktywnych użytkowników i integrację CEO Sundar Pichai na I/O 2025.
Nowe podmioty subskrypcyjne
Coincing z tym modelem Impornsion, Google, Google wprowadziło News A. Tier subskrypcji „Google AI Ultra” po 249,99 USD/miesiąc, który zapewni wczesny i maksymalny dostęp do funkcji takich jak Gemini 2.5 Pro z Deep Think For Consumers, Veo 3 (nowy model generowania wideo z natywnym audio) i Project Mariner. Istniejący poziom „AI Premium” jest przemianowany na „Google AI Pro” po 19,99 USD/miesiąc.
Gemini jest również głębiej zintegrowane z innymi produktami Google. Bliźnięta będzie dostępne w przeglądarce Chrome na komputerze dla AI Pro i Ultra Subskrybentów w celu wyjaśnienia lub podsumowania treści internetowych. Ponadto agent prototypowania aplikacji FireBase Studio wykorzystuje teraz najnowsze modele GEMINI 2.5 i nowe funkcje API, takie jak natywne wyjście audio. Te ruchy ilustrują strategię Google w celu osadzenia jego coraz bardziej wyrafinowanej sztucznej inteligencji w jej ekosystemie, mającym na celu uczynienie jego narzędzi bardziej inteligentnymi i interaktywnymi.