Google hat seine Strategie für künstliche Intelligenz festgenommen und seine leistungsstarken Gemini 2.5 Pro-und 2,5-Flash-Modelle in die allgemeine Verfügbarkeit für die Produktionsnutzung verlegt und gleichzeitig sein Portfolio mit einem neuen, kostengünstigen Modell mit dem Namen Gemini 2.5 Flash-Lite erweitert. Das Unternehmen hat eine klare dreistufige Produktfamilie eingerichtet, einen bedeutenden Schritt, der den Entwicklern eine vorhersehbare und maßgeschneiderte Reihe von Optionen bietet, die Leistung, Geschwindigkeit und Kosten ausgleichen. In a post on The Keyword, Google’s official blog, Senior Director Tulsee Doshi framed the strategy, explaining the goal was to create a “family of hybrid reasoning models”that deliver top-tier performance while remaining at Die „Pareto-Grenze von Kosten und Geschwindigkeit“. src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=MtyzodoxMjy4-1; Base64, PHN2ZyB2AWV3QM94PSIWIDAGMTI4MCAXNDA4 IIB3AWR0AD0IMTI4MCIGAGVPZ2H0PSIXNDA4IIB4BWXUCZ0IAHR0CDOVL3D3DY53MY5VCMCVMJAWMC9ZDMCIPJWVC3ZNPG==”>
Ein Modell für jede Mission: Pro, Flash und Flash-Lite
Das Googles offizielle Dokumentation für Entwickler . Oben ist Gemini 2.5 Pro für „maximale Reaktionsgenauigkeit und hochmoderne Leistung“ positioniert, wodurch es zum Motor für die komplexesten Codierung, Analyse und Agentenaufgaben ist. Interne Benchmarks zeigen, dass es in schwierigen Domänen wie Mathematik und Code-Bearbeitung führt. Die Hierarchie ist jedoch nicht immer streng linear; In einer bemerkenswerten Nuance von Googles eigenen Tests übertraf das Flash-Modell mit Thinking Enabled das leistungsstarke Pro-Modell eines bestimmten langkontextreichen Benchmarks, was auf spezielle Optimierungen innerhalb der Architektur hindeutet. Jetzt in der Vorschau erhältlich, wird es als „das kostengünstigste Modell, das einen hohen Durchsatz unterstützt“ für Echtzeit-Anwendungen wie Datenklassifizierung und Zusammenfassung im Maßstab beschrieben. Während seiner Vorschauphase, die im April begann, zeigte das Modell ein verwirrendes Doppelpreissystem, das darauf basiert, ob seine Argumentationsfunktion aktiv war. Google hat nun diese Komplexität beseitigt und einen einzelnen Preis von 0,30 USD pro Million Input-Token und 2,50 USD pro Million Output-Token festgelegt. Die Preisstruktur wird durch die Gemini-API”freie Stufe”, die den Entwicklern einen Weg zur Erlebnis von niedrigeren Raten-Grenzen bietet. Controllierbares AI-Argumenting
zentral für die gesamte 2.5-Familie ist das Konzept des „hybriden Denkens“, ein kontrollierbares Merkmal, mit dem die Modelle vor der Reaktion eine tiefere, mehrstufige logische Überprüfung durchführen können. Dies ist mehr als ein einfacher Umschalten; Entwickler können Setzen Sie ein”Denkbudget”. Die Funktion, die zuerst mit der 2,5-Flash-Vorschau eingeführt wurde, die im Mai auf Gemini 2.5 Pro erweitert wurde, ist ein zentraler Bestandteil der Architektur der Familie. Sein Auswirkungen ist greifbar: Das Ermöglichen von „Denken“ auf Gemini 2,5-Flash-Lite erhöht beispielsweise die Punktzahl bei einem wichtigen Mathematik-Benchmark von 49,8% auf 63,1%, wodurch Entwickler einen Hebel zur Verbesserung der Genauigkeit bei Bedarf erhöhen. Atmosphäre rund um die anfängliche Freisetzung der Gemini 2.5-Serie. Ende März hat Google sein experimentelles 2,5-Pro-Modell nur wenige Tage nach seiner exklusiven Start an zahlende Abonnenten an alle kostenlosen Benutzer weitergeleitet. Das Social-Media-Konto des Unternehmens erklärte zu dieser Zeit: „Das Team sprintet, TPUs läuft heiß und wir möchten unser intelligentestes Modell so schnell wie möglich in die Hände von mehr Menschen bringen. Kevin Bankston vom Zentrum für Demokratie und Technologie beschrieb es zu dieser Zeit als Teil einer „beunruhigenden Geschichte eines Rennens auf dem Grund zur KI-Sicherheit und-transparenz, während Unternehmen ihre Modelle auf den Markt bringen“. Wie in Vertex-AI-Versionsnotizen erwähnt, impliziert dieser Status, dass die Modelle stabil sind, für die Produktionsnutzung unterstützt werden und mit Service-Level-Vereinbarungen unterstützt werden. Diese Verschiebung von experimentellen Sprints zu einer stabilen, abgestuften und vorhersehbar preisgünstigen Produktfamilie zeigt Google eine dauerhaftere Grundlage für ihre breiten AI-Ambitionen, die auf seiner jüngsten E/A-Konferenz vollständig ausgestellt waren.