Google ha rilasciato la documentazione preliminare questa settimana per il suo ultimo modello di ragionamento PRO Gemini 2.5, ma la mossa è arrivata settimane dopo che il modello è stato ampiamente disponibile e ha attirato gravi critiche da parte di specialisti della governance dell’IA. Il documento, noto come una”scheda modello”, è apparso online intorno al 16 aprile, ma gli esperti sostengono che mancasse di dettagli critici di sicurezza e suggerisce che Google potrebbe non essere all’altezza delle promesse di trasparenza fatte ai governi e agli organi internazionali.
La controversia deriva dalla sequenza temporale: Gemini Pro-03-25. Apparendo il 28 marzo, per Google Cloud Docs ) e l’accesso è stato rapidamente espanso a tutti gli utenti gratuiti tramite l’app Web Gemini a partire da March. accompanying model card detailing safety evaluations and limitations, however, only surfaced more than two weeks after this broad public access began.
Kevin Bankston, a senior advisor at the Center for Democracy and Technology, described the Documento a sei pagine sulla piattaforma sociale X Come documentazione”Meager”, aggiungendo che racconta una”storia di problemi di un ratto per la sicurezza in fondo alla sicurezza Ai su AI Sicurezza e sulla transazione delle loro aziende. > Dettagli mancanti e impegni non messi in contatto
Una preoccupazione primaria espressa da Bankston è l’assenza di risultati dettagliati da valutazioni cruciali della sicurezza, come”team rossi”che gli esercizi destinati a scoprire se l’intelligenza artificiale non poteva essere spinto a generare i suoi test di sicurezza prima di generare i suoi test di sicurezza prima di generare i suoi test di sicurezza. Modello più potente”e”Non ha ancora completato quel test anche ora”o che la società abbia adottato una nuova politica di trattenere risultati completi fino a quando un modello non è considerato generalmente disponibile.
Altri esperti, incluso Peter Wabeford e Thomas Woodswing, ha evidenziato la mancanza di una carta di FSF. Usato.
Questo approccio appare incompatibile con diversi impegni pubblici che Google ha intrapreso per quanto riguarda la sicurezza e la trasparenza dell’IA. Questi includono impegni realizzati su un luglio 2023 Meeting della Casa Bianca Per pubblicare i rapporti dettagliati per potenti modelli, Ai. Nell’ottobre 2023 e le promesse fatte al vertice di sicurezza di AI di Seoul nel maggio 2024.
Thomas Woodside del progetto AI Secure ha anche sottolineato che l’ultima pubblicazione dedicata di Google sui pericolosi test di capacità risale a giugno 2024, mettendo in discussione l’impegno dell’azienda agli aggiornamenti regolari. Anche Google non ha confermato se Gemini 2.5 Pro fosse stato inviato agli istituti di sicurezza AI statunitensi o nel Regno Unito per la valutazione esterna prima della sua versione di anteprima. href=”https://storage.googleapis.com/model-cards/documents/gemini-2.5-pro-preview.pdf”Target=”_ blank”> scheda modello offre alcune intuizioni. Google delinea la sua politica in esso:”Un rapporto tecnico dettagliato verrà pubblicato una volta per il rilascio della famiglia del modello, con il prossimo rapporto tecnico che rilascia dopo che la serie 2.5 sarà resa generalmente disponibile.”
Aggiunge che i rapporti separati su”valutazioni pericolose delle capacità”seguiranno”alle cadenze regolari”. Google aveva precedentemente affermato che gli ultimi Gemini sono stati sottoposti a”test pre-release, comprese le valutazioni dello sviluppo interno e le valutazioni di garanzia che erano state condotte prima che il modello fosse rilasciato.”
La scheda pubblicata si basa su Gemini 2.5 Pro Build sulla miscela di esperti di esperti (MoE) Trasformatore Architettura, un design che mira per l’efficienza attivando le parti del modello. Descrive in dettaglio la finestra di contesto di input token del modello e il limite di output del token 64K, insieme alla sua formazione su diversi dati multimodali con filtraggio di sicurezza allineato con i principi di AI di Google.
La carta include i benchmark per le prestazioni come potenziali come potenziali”. Imposta il taglio delle conoscenze a gennaio 2025. Durante il delineazione di processi di sicurezza che coinvolgono recensioni interne (RSC) e varie mitigazioni e mostrano alcuni miglioramenti metrici di sicurezza automatizzati rispetto a Gemini 1.5, conferma”le refusali eccessive”si impegnano come una limitazione. Sandra Wachter, professore presso l’Oxford Internet Institute, in precedenza