Google a solidifié sa stratégie d’intelligence artificielle, déplaçant ses puissants modèles Gemini 2.5 Pro et 2.5 Flash dans la disponibilité générale pour une utilisation de la production tout en élargissant simultanément son portefeuille avec un nouveau modèle rentable nommé Gemini 2.5 Flash-Lite. La société a créé une famille de produits à trois niveaux clairs, une décision significative conçue pour donner aux développeurs un ensemble d’options prévisibles et sur mesure qui équilibrent les performances, la vitesse et le coût.

La refonte stratégique apporte une clarté à ce qui avait été une série rapide et parfois déroutante de versions d’aperçu, signalant une nouvelle phase de stabilité pour les développeurs sur la plate-forme de Google. Dans un Publier sur le mot-clé, le blog officiel de Google La «frontière de Pareto du coût et de la vitesse». src=”data: image/svg + xml; nitro-empty-id=mtyzodoxmjy4-1; base64, phn2zyb2awv3qm94psiwidagmti4mcaxnda4 IIB3AWR0AD0IMTI4MCIGAGVPZ2H0PSIXNDA4IIB4BWXUCZ0IAHR0CDOVL3D3DY53MY5VCMCVMJAWMC9ZDMCIPJWVC3ZNPG==”>

un modèle pour chaque mission: pro, flash et flash-lite

le davantage déamélit href=”https://ai.google.dev/gemini-api/docs/models/gemini”cible=”_ Blank”> Documentation officielle de Google pour les développeurs . En haut, Gemini 2.5 Pro est positionné pour la «précision de réponse maximale et les performances de pointe», ce qui en fait le moteur pour le codage, l’analyse et les tâches agentiques les plus complexes. Les références internes montrent que cela a conduit dans des domaines difficiles comme les mathématiques et l’édition de code.

Occupant le niveau intermédiaire est Gemini 2.5 Flash, conçu pour «des tâches à faible latence et à haut volume qui nécessitent une réflexion». Il sert de coût tout à fait équilibré, offrant des performances qui approchent souvent Pro mais à un coût nettement inférieur. La hiérarchie n’est cependant pas toujours strictement linéaire; Dans une nuance notable des propres tests de Google, le modèle Flash avec une réflexion a permis en fait le modèle Pro plus puissant sur une référence de récupération de contexte à long contexte spécifique, suggérant des optimisations spécialisées au sein de l’architecture.

Le plus récent membre, Gemini 2.5 Flash-Lite, est le spécialiste de la vitesse et de l’échelle. Désormais disponible en prévisualisation, il est décrit comme le «modèle le plus rentable prenant en charge un débit élevé» pour des applications en temps réel comme la classification des données et la résumé à grande échelle.

Prix, Simplified: un chemin plus clair pour les développeurs

Un composant critique de cette clarification stratégique est la tarification mise à jour pour GEMINI 2.5 FLOK. Au cours de sa phase d’aperçu, qui a commencé en avril, le modèle comportait un système à double tarification déroutant en fonction de la question de savoir si sa fonction de raisonnement était active. Google a désormais éliminé cette complexité, fixant un taux unique de 0,30 $ par million de jetons d’entrée et 2,50 $ par million de jetons de production.

La société a expliqué que l’ajustement était un reflet spécifique de la «valeur exceptionnelle du modèle» du modèle. La structure de tarification est en outre clarifiée par le “Gemini API”Tier gratuit”, qui offre aux développeurs un moyen d’expérimenter”la forte”Raisonnement de l’IA contrôlable

Central de toute la famille 2.5 est le concept de «raisonnement hybride», une caractéristique contrôlable qui permet aux modèles d’effectuer une vérification logique en plusieurs étapes plus profonde avant de répondre. C’est plus qu’une simple bascule; Les développeurs peuvent Définir un”budget de réflexion” Pour contrôler les ressources informatiques qu’un modèle utilise pour raisonner sur une base de réponse à la réponse. La fonctionnalité, introduite pour la première fois avec l’aperçu Flash 2.5 étendu à Gemini 2.5 Pro en mai, fait partie intégrante de l’architecture de la famille. Son impact est tangible: permettre la «réflexion» sur Gemini 2.5 Flash-Lite, par exemple, augmente son score sur un référence en mathématiques clés de 49,8% à 63,1%, donnant aux développeurs un levier pour améliorer la précision en cas de stratégie AI. Atmosphère entourant la libération initiale de la série Gemini 2.5. Fin mars, Google a poussé son modèle expérimental 2.5 Pro à tous les utilisateurs gratuits quelques jours seulement après son lancement exclusif aux abonnés payants. Le compte de médias sociaux de l’entreprise a déclaré à l’époque: «L’équipe sprinte, les TPU sont chauds et nous voulons mettre notre modèle le plus intelligent entre les mains de plus de personnes.”

Ce déploiement rapide, cependant, a été rencontré par les critiques des experts de la gouvernance de l’IA lorsque le rapport de sécurité accompagne est arrivé des semaines plus tard avec ce que certains ont considéré des détails. Kevin Bankston du Center for Democracy and Technology l’a décrit à l’époque dans le cadre d’une «histoire troublante d’une course vers le bas sur la sécurité et la transparence de l’IA alors que les entreprises se précipitent sur le marché de leurs modèles». Comme indiqué dans Vertex AI Release Notes , ce statut implique que les modèles sont stables, pris en charge pour l’utilisation de la production et sont livrés avec des accords de niveau de service. Ce passage des sprints expérimentaux à une famille de produits stable, à plusieurs niveaux et à un prix prévisible montre que Google construit une base plus durable pour ses larges ambitions d’IA, qui étaient entièrement exposées lors de sa récente conférence d’E/S.

.

Categories: IT Info