Google hat sein fortschrittlichstes KI-Modell, Gemini 2.5 Pro (experimentell), allen Benutzern der kostenlosen Gemini-Web-App zur Verfügung gestellt. Ersetzt die ältere Version und die Entfernung der vorherigen Paywall. Stattdessen bemerkten Benutzer die Änderung in der Gemini-Web-App selbst, in der die Antworten nun für einige auf”Gemini 2.5 Pro (Exp)”zugeschrieben wurden. Kostenlose Benutzer können jetzt Gemini 2.5 Pro über den Modellauswahl auswählen. Diese Dringlichkeit weist auf eine Strategieverschiebung hin-Google schränkt ihre oberste KI hinter einer Paywall nicht mehr ein, sondern drückt sie kostenlos an alle. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtcwmjoxmtcx-1; Base64, Phn2ZyB2AWV3QM94psiwidagmtaynca4mz ciihdpzhropsixmdi0iibozwlnahq9ijgznyig1SBNM9IMH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2ZZ4=”>
Gemini 2.5 Pro nimmt ab. href=”https://t.co/eqcjwwvhxj”target=”_blank”> https://t.co/eqcjwwvhxj
-Google Gemini App (@geminiapp) March 29, 2025
From Premium Access to Public Release in Under a Week
Nur fünf Tage zuvor, am 25. März, wurde Gemini 2.5 Pro exklusiv für die Zahlung von Abonnenten von Gemini Advanced und Benutzern von Google AI Studio zur Verfügung gestellt. Diese Version war zuerst auf den $ 19,99/Monat Google One AI Premium-Plan beschränkt. Am Ende der Woche wurde die experimentelle Version desselben Modells für alle, die die Gemini-App verwendeten, der freie Stufe, einschließlich derjenigen auf der freien Stufe. Es spiegelt auch das Vertrauen in die Leistung und die reale Bereitschaft des Modells wider, selbst in experimenteller Form. Im Gegensatz zu herkömmlichen generativen Modellen, die auf Einzelpassvorhersagen angewiesen sind, führt dieses Modell eine logische Mehrschrittüberprüfung durch, um seine Argumentation zu stärken.
Dieses große Kontextfenster ermöglicht es Gemini, ganze Bücher, Rechtsverträge oder Codebasen auf einmal zu verarbeiten. Auf dem MRCR 128K-Benchmark, der das Verständnis über Langforminhalte in den Langform-Inhalten testet, erreichte Gemini eine Genauigkeit von 91,5% und behielte eine Leistung von 83,1% in vollem Umfang vor-signifikant vor den GPT-4,5 von 36,3%. href=”https://lmarena.ai/?leaderboard”target=”_ leer”> Die Larberna-Rangliste um fast 40 Punkte. Bei multimodalen Aufgaben, die sowohl Text als auch Bilder beinhalten, erzielte sie 81,7% auf dem MMMU-Benchmark-stehen vor Claude 3.7 Sonnet und GPT-4,5.
Die Leistung variiert jedoch in den Kategorien. Gemini erzielte 52,9% bei SimpleQa, einem sachlichen Rückruftest mit 62,5% der GPT-4,5. In autonomen Software-Engineering-Szenarien (Agentencodierung) führt Claude 3.7 Sonett immer noch mit 70,3%, während Gemini bei 63,8%. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=MtcxMzoxode4-1; Base64, Phn2zyb2AWV3QM94psiwidagmtaynca2mjkiih dpzhropsixmdi0iibozwlnahq9ijyosigg1sbnm9imh0dha6ly93d3cudzMub3jnlziwmdavc3znij48l3n2zz4=”> Quelle: Google
Entwickler-Tools und multimodale Funktionen
Während OpenAIs O3-Mini-High-Leads in der Live-Codegenerierung (74,1% auf LivecodeBench), hat Gemini 2.5 Pro bei 70,4% die eigene. Es führt bei Code-Bearbeitungsaufgaben noch besser ab. Auf dem AID-Polyglot-Benchmark, der zum Testen der mehrsprachigen Codemodifikation geführt wurde, bewertet Gemini 74,0%, und die neuesten Modelle von Claude und Deepseek. Diese Fähigkeit erstreckt sich auf Tools wie Gemini Live, die Bildschirm-und Kamera-basierte Unterstützung ermöglicht. Google hat auch Gemini in Arbeitsspace-Tools wie Google Mail, DOCs und Drive integriert-aufgebaute Smart-Zusammenfassungen, E-Mail-Search-Verbesserungen und Dokument-Navigationshilfsmittel. Es ersetzt auch Google Assistant als Standard-Voice AI auf Android-Geräten. Die Änderung hat gemischte Reaktionen gezogen. Einige Benutzer haben die Leistung von Gemini bei Aufgaben wie Codierung und Forschung gelobt. Gemini beinhaltet auch die Suchgeschichte für personalisierte Antworten und ärgert sich in zukünftigen Überschneidungen zwischen KI und traditioneller Suche. Ob sich diese Strategie auszahlt, hängt davon ab, wie Benutzer reagieren.