Google a lansat în această săptămână documentația preliminară pentru ultimul său model de raționament Gemini 2.5 Pro, dar mișcarea a venit la câteva săptămâni după ce modelul a fost pus la dispoziție pe scară largă și a atras critici ascuțite din partea specialiștilor din guvernanța AI. Documentul, cunoscut sub numele de „card de model”, a apărut online în jurul 16 aprilie, cu toate acestea, experții susțin că îi lipsește detalii critice privind siguranța și sugerează că Google poate scădea de promisiunile de transparență făcute guvernelor și organismelor internaționale.

Controversa provine din cronologia: Gemini 2.5 Pro și Gemini-22.5-pro-exp-03-25, apărând pe 28 martie, pe Google Cloud Docs APP începând cu 29 martie.

Cartea modelului însoțitor de detalii despre evaluările și limitările de siguranță, cu toate acestea, a apărut doar la mai mult de două săptămâni după ce a început acest acces public larg.

on the social platform X as “meager”documentation, adding it tells a “troubling story of a race to the bottom on AI safety și transparența, deoarece companiile își grăbesc modelele pe piață.”

Detalii lipsă și gaj nesatisfăcute

O preocupare principală exprimată de Bankston este absența unor rezultate detaliate din evaluările cruciale de siguranță, cum ar fi„ echipele roșii “, pentru a descoperi dacă AI-ul poate fi solicitat să genereze conținut nociv ca instrucțiuni pentru crearea de bioweapons. Timpul și omisiunile ar putea însemna că Google „nu și-a terminat testarea de siguranță înainte de a-și elibera cel mai puternic model” și „încă nu a finalizat această testare nici acum”, sau că compania a adoptat o nouă politică de reținere a rezultatelor cuprinzătoare până când un model este considerat în general disponibil.

alte experți, inclusiv un model, în general, a evidențiat că a subliniat un mod de la Frontiera de la Frontiera de la Frontiera, de la Frontiera, sau de Referințe detaliate sau de la THOMAS Woodside, a evidențiat faptul că lipsa de siguranță a unui model de frontie Framework (FSF), în ciuda cardului menționând procesul FSF.

Această abordare pare incompatibilă cu mai multe angajamente publice pe care Google a întreprins-o cu privire la siguranța și transparența AI. Acestea includ gajele făcute la A iulie 2023 Casa Albă Meeting pentru a publica rapoartele detaliate pentru modele noi puternice, aderența Casei Albe pentru G7, pentru a publica rapoartele detaliate pentru modele noi puternice, aderența Casei Albe pentru G7, pentru a publica rapoartele detaliate pentru modele noi puternice, aderența Casei Albe pentru G7, pentru a publica rapoartele detaliate pentru modele noi puternice, aderența Casei Albe pentru G7. În octombrie 2023, și promisiunile făcute la Summit-ul de siguranță din Seul AI din mai 2024.

Thomas Woodside al proiectului AI securizat a subliniat, de asemenea, că ultima publicație dedicată a Google cu privire la testarea capacității periculoase date din iunie 2024, punând la îndoială angajamentul companiei față de actualizări obișnuite. Google also did not confirm whether Gemini 2.5 Pro had been submitted to the US or UK AI Safety Institutes for external evaluation prior to its preview release.

Google’s Position and Model Card Contents

While the full technical report is pending, the released Model card oferă câteva informații. Google își prezintă politica în acest sens: „Un raport tehnic detaliat va fi publicat o dată pe lansarea modelului familiei model, urmând ca următorul raport tehnic să fie lansat după ce seria 2.5 este pusă în general la dispoziție.”

adaugă că rapoartele separate despre „Evaluările de capacitate periculoasă”vor urma”la cadențe obișnuite”. Google a afirmat anterior că cea mai recentă Gemeni a suferit „teste înainte de eliberare, inclusiv evaluări de dezvoltare internă și evaluări de asigurare care au fost efectuate înainte de lansarea modelului. Acesta detaliază fereastra de context de intrare a modelului de 1 milion de jetoane și limita de ieșire de 64k jeton, împreună cu pregătirea sa pe diverse date multimodale, cu filtrare de siguranță aliniată cu principiile AI ale Google.

Cardul include valori de referință de performanță (rulate pe `Gemini-2.5-pro-exp-03-25’Versiunea) care arată rezultatele competitive din 2025. Reducerea cunoștințelor la ianuarie 2025. În timp ce conturează procesele de siguranță care implică recenzii interne (RSC) și diverse atenuări și care arată unele îmbunătățiri automate ale metricii de siguranță față de Gemeni 1.5, confirmă „supra-reformele„ persistă ca limitare.

o cursă din industrie înainte?

situația reflectă tensiunile largi. Sandra Wachter, profesor la Oxford Internet Institute, anterior