Google a publié cette semaine la documentation préliminaire pour son dernier modèle de raisonnement Gemini 2.5 Pro, mais cette décision est survenue des semaines après la mise à disposition du modèle et a suscité de vives critiques de la part des spécialistes de la gouvernance de l’IA. Le document, connu sous le nom de «carte modèle», est apparu en ligne vers le 16 avril, mais les experts soutiennent qu’il manque de détails de sécurité critiques et suggère que Google pourrait ne pas être en deçà des promesses de transparence faites aux gouvernements et aux organismes internationaux.
La controverse provient du 25 mars (avec la version expérimentale spécifique, avec la version expérimentale spécifique, GEMINI-2.5-PRO-EXP-03-25, apparaissant le 28 mars, Per Google Cloud Docs ) et l’accès a été rapidement étendu aux utilisateurs Free via GEMPS PERD THEL web app starting March 29th.
The accompanying model card detailing safety evaluations and limitations, however, only surfaced more than two weeks after this broad public access began.
Kevin Bankston, Un conseiller principal au Center for Democracy and Technology, a décrit le document de six pages sur la plate-forme sociale x En tant que «meager», ajoutant cela La transparence lorsque les entreprises précipitent leurs modèles sur le marché.”
Détails manquants et engagements non satisfaits
Une préoccupation principale exprimée par Bankston est l’absence de résultats détaillés des évaluations de sécurité cruciales, telles que les”exercices d’équipe rouge”destinés à découvrir si l’IA peut être invité à générer un contenu préjudiciable comme les instructions pour créer des armes Biow. Et les omissions pourraient signifier que Google”n’avait pas terminé ses tests de sécurité avant de publier son modèle le plus puissant”et”il n’a toujours pas terminé ce test même maintenant”, ou que la société a adopté une nouvelle politique de retenue de résultats complets jusqu’à ce qu’un modèle soit généralement disponible. (FSF), malgré la carte mentionnée par le processus FSF. These include pledges made at a July 2023 White House meeting to publish detailed reports for powerful new models, adherence to the G7’s AI code of conduct agreed in October 2023, et les promesses faites au Somme de sécurité de l’IA de Séoul en mai 2024.
Thomas Woodside du projet Secure IA a également souligné que la dernière publication dédiée de Google sur les tests de capacités dangereux remonte à juin 2024, remettant en question l’engagement de la société à des mises à jour régulières. Google n’a pas non plus confirmé si Gemini 2.5 Pro avait été soumis aux instituts de sécurité AI américains ou au Royaume-Uni pour l’évaluation externe avant sa version de prévisualisation.
La position de Google et le contenu de la carte modèle
pendant que le rapport technique complet est en attente, le La carte modèle offre quelques informations. Google décrit sa politique là-bas: «Un rapport technique détaillé sera publié une fois par la version de la famille du modèle, le prochain rapport technique publiant après la mise à jour de la série 2.5. Google avait précédemment déclaré que les derniers Gemini avaient subi des «tests de pré-libération, y compris des évaluations du développement interne et des évaluations d’assurance qui avaient été menées avant la publication du modèle.»
La carte publiée confirme l’architecture Gemini 2.5 Pro pour l’efficacité par l’activation sélectionnée des parties du modèle. Il détaille la fenêtre de contexte d’entrée de 1 million de jetons du modèle et la limite de sortie des jetons de 64K, ainsi que sa formation sur diverses données multimodales avec un filtrage de sécurité aligné avec les principes d’IA de Google.
La carte comprend des références de performance (exécutées sur la version concurrentielle de la Gemini-2,5. Définit le seuil de connaissances en janvier 2025. Tout en décrivant les processus de sécurité impliquant des examens internes (RSC) et diverses atténuations, et montrant certaines améliorations des métriques de sécurité automatisées par rapport aux Gémeaux 1.5, il confirme les”sur-réfusités”persistent comme une limitation. Sandra Wachter, professeur à l’Oxford Internet Institute, auparavant