Google ha consolidato la sua strategia di intelligenza artificiale, spostando i suoi potenti modelli Gemini 2.5 Pro e 2.5 Flash in disponibilità generale per l’uso della produzione, espandendo contemporaneamente il proprio portafoglio con un nuovo modello economico chiamato Gemini 2.5 Flash-Lite. La società ha istituito una chiara famiglia di prodotti a tre livelli, una mossa significativa progettata per offrire agli sviluppatori una serie prevedibile e adattata di opzioni che bilanciano prestazioni, velocità e costi.
La revisione strategica porta chiarezza a quella che era stata una serie in rapido movimento e talvolta confuse di rilasci di anteprima, segnalando una nuova fase di stabilità per gli sviluppatori che si basano sulla piattaforma di Google. In a post sulla parola chiave, il blog ufficiale di Google , il regista senior di Tulsee Doshi ha incorniciato la strategia, spiegando l’obiettivo di creare una famiglia di ipotesi di top””Pareto Frontier del costo e della velocità.”
Questa maturazione è ulteriormente sottolineata da una grande semplificazione dei prezzi per Gemini 2.5 Flash, che abbandona una struttura di anteprima complessa per una singola velocità unificata.
Un modello per ogni missione: Pro, Flash e Flash-lite
The nuovi creati herarchy per ogni modello La documentazione ufficiale di Google per gli sviluppatori . Nella parte superiore, Gemini 2.5 Pro è posizionato per”Accuratezza della risposta massima e prestazioni all’avanguardia”, rendendolo il motore per le codifiche, l’analisi e le attività agenti più complesse. I benchmark interni mostrano che conduce in domini difficili come la matematica e l’editing del codice.
Occupazione del livello intermedio è Gemini 2,5 Flash, progettato per”basse latenza, attività ad alto volume che richiedono pensiero”. Serve da tutto round bilanciato, offrendo prestazioni che spesso si avvicinano a pro ma a un costo significativamente più basso. La gerarchia non è sempre rigorosamente lineare, tuttavia; In una notevole sfumatura dai test di Google, il modello flash con pensiero abilitato ha effettivamente sovraperformato il modello Pro più potente su uno specifico punto di riferimento di recupero a lungo contesto, suggerendo ottimizzazioni specializzate all’interno dell’architettura.
Il nuovo membro, Gemini 2.5 Flash-Lite, è la velocità e la scala specialistiche. Ora disponibile in anteprima, è descritto come il”modello più economico che supporta un throughput elevato”per applicazioni in tempo reale come la classificazione dei dati e il riepilogo su scala.
Prezzi, semplificati: un percorso più chiaro per gli sviluppatori
Un componente critico di questo chiarificazione strategica è il prezzi di gemini 2.5. Durante la sua fase di anteprima, iniziata ad aprile, il modello presentava un sistema confuso a doppio prezzo basato sul fatto che la sua caratteristica di ragionamento fosse attiva. Google ha ora eliminato che la complessità, impostando un singolo tasso di token di input di $ 0,30 per milione e token di uscita di $ 2,50 per milione. La struttura dei prezzi è ulteriormente chiarita da gemini API”Livello libero”, che offre agli sviluppatori un modo di sperimentare i limiti di tasso più basso prima di impegnarsi per i vantaggi a pagamento più alto. AI Reasoning
centrale per l’intera famiglia 2.5 è il concetto di”ragionamento ibrido”, una caratteristica controllabile che consente ai modelli di eseguire una verifica logica più profonda e in più fasi prima di rispondere. Questo è più di un semplice levetta; Gli sviluppatori possono impostare un”budget pensante” per controllare le risorse computazionali che un modello usa per il ragionamento su base per fatica.
Questo calcolo di risposta per la risposta, per controllare le risorse computazionali, il modello di risposta computazionale, il modello che un modello usa per il ragionamento su una base per giunzione.
Questo calcolo granorele permette per la risposta, per controllare le risorse di risposta computazionale, e il modello di risposta computazionale, e il modello di risposta computazionale, il modello di risposta computazionale, e il modello di risposta computazionale, il modello di risposta computazionale, il modello che un modello utilizza per il ragionamento per una riduzione per fattura. La funzione, introdotta per la prima volta con l’anteprima di Flash 2.5 estesa a Gemini 2.5 Pro a maggio, è una parte fondamentale dell’architettura della famiglia. Il suo impatto è tangibile: abilitare il”pensiero”su Gemini 2.5 Flash-Lite, ad esempio, aumenta il suo punteggio su un punto di riferimento della matematica chiave dal 49,8% al 63,1%, dando agli sviluppatori una leva per migliorare l’accuratezza quando è necessario. Atmosfera che circonda il rilascio iniziale della serie Gemini 2.5. Alla fine di marzo, Google ha spinto il suo modello Experimental 2.5 Pro a tutti gli utenti gratuiti pochi giorni dopo il suo lancio esclusivo per pagare gli abbonati. L’account dei social media dell’azienda ha dichiarato all’epoca:”Il team sta sprint, i TPU sono in calo e vogliamo portare il nostro modello più intelligente nelle mani di più persone al più presto.”
che lo schieramento rapido, tuttavia, è stato accolto con la critica degli esperti di governance di AI quando il rapporto di sicurezza di accompagnamento è arrivato a ciò che alcuni hanno preso in considerazione i dettagli di Mager. Kevin Bankston del Center for Democracy and Technology lo ha descritto all’epoca come parte di una”storia preoccupante di una corsa in fondo alla sicurezza e alla trasparenza dell’IA mentre le aziende affrettano i loro modelli sul mercato.”
L’annuncio di oggi di”disponibilità generale”segnala una maturazione strategica. Come notato in Note di rilascio di AI vertice , questo stato implica che i modelli sono stabili, supportati per l’uso di produzione e vengono con gli accordi a livello di servizio. Questo passaggio da sprint sperimentali a una famiglia di prodotti stabile, a più livelli e prevedibilmente a prezzi che Google sta costruendo una base più durevole per le sue ampie ambizioni di AI, che erano in mostra alla sua recente conferenza I/O.