Dans une évolution historique vers la transparence, Google a publié les tout premières données détaillées sur le coût environnemental de ses modèles d’IA. Publié jeudi, google Document technique révèle un Query Median à son gemin Tâches.

Pendant des années, le véritable coût énergétique de l’IA générative a fait l’objet d’une spéculation et d’un débat intenses. Cette divulgation intervient au milieu de la pression de montage sur les grandes technologies pour quantifier l’appétit vorace de la technologie pour l’énergie et l’eau, offrant une référence cruciale, quoique contrôlée par la société: Google met un nombre sur la consommation d’énergie (WH) d’énergie, émet 0,03 gramme d’équivalent de CO2 (GCO2E) et utilise 0,26 milliliters d’eau, comme détaillé sur le Document technique de magnitude.

La méthodologie de l’entreprise est conçue pour refléter les réalités opérationnelles de la description d’un produit mondial comme les Gémeaux. Pour garantir une haute disponibilité et une faible latence, une quantité importante de capacité doit être provisoire mais inactive, prête à gérer les pointes de trafic ou les bascules. Ce coût opérationnel du monde réel, ainsi que la puissance des processeurs hôtes et les frais généraux du centre de données, sont souvent exclus des estimations académiques ou tierces. Google soutient que ces opinions plus étroites représentent ce qu’elle appelle “Un scénario optimiste au mieux.”

La rupture résultant du 0,24. Les accélérateurs AI actifs (TPUS de Google) ne représentent que 58% de l’énergie totale. Le processeur et la mémoire de la machine hôte nécessaire contribuent à 24%. L’énergie consommée par les machines d’inactivité provisionnées ajoute 10% significative au total. Enfin, 8% provient des frais généraux du centre de données comme le refroidissement et la conversion de puissance, un facteur capturé par la métrique de l’efficacité de l’utilisation de l’énergie (PUE) standard de l’industrie.

Cette vision holistique est un département significatif des méthodes de mesure plus étroites. L’impact de cette frontière complète est substantiel. Bien qu’il crée le chiffre officiel de 0,24 WH, Google note que s’il utilisait une approche plus limitée-ne mangeant que la puce d’IA active dans ses centres de données les plus efficaces-le résultat ne serait que 0,10 WH par invite. Cette différence de 2,4x souligne la quantité d’énergie consommée par l’infrastructure de support essentielle requise pour un service fiable.

Dans une interview exclusive avec mit teinching “Jeff Dean, scientifique en chef de Google, a confirmé l’intention de l’entreprise, déclarant:”Nous voulions être assez complets dans tout ce que nous avons inclus.”Cette comptabilité détaillée révèle que près de la moitié du coût énergétique d’une invite provient de systèmes autres que le processeur d’IA lui-même, un aperçu critique de la compréhension de la véritable empreinte environnementale de l’IA à grande échelle.

Un 33 fois le saut dans l’efficacité

Parallèlement aux figures par emploi, affirme qu’il a fait des gains d’efficacité dramatiques au cours de la année passée. Dans son Blog de durabilité , la société affirme que entre mai 2024 et mai 2025, la consommation d’énergie d’un nettoyant en gémini, une source d’intérêt, un facteur de l’énergie médiane, le nettoyant, le nettoyant des gémanes, le facteur 33. L’empreinte carbone associée a chuté encore plus de 44 fois.

Ces améliorations stupéfiantes ne sont pas le résultat d’une seule percée mais plutôt de l’effet de composition des optimisations à travers ce que Google appelle son “Approche complète du développement de l’IA.” La société Document technique Fournit une rupture détaillée,”La réduction de l’énergie 33x a été entraînée par une amélioration 23x par rapport à l’efficacité du modèle et une amélioration de 1,4x par rapport à une meilleure utilisation de la machine.

Au niveau du modèle, Google pointe vers des architectures plus efficaces comme le mélange d’Experts (MOE). Cette technique permet au système d’activer uniquement un petit sous-ensemble pertinent d’un grand modèle pour une requête donnée, réduisant les calculs d’un facteur de 10 à 100. D’autres techniques logicielles telles que le décodage spéculatif et la distillation, ce qui crée des modèles plus petits et optimisés comme le flash gemini, réduisent davantage la charge de calcul.

Ces gains logiciels sont amplifiés par matériel. La société met l’accent sur ses unités de traitement des tenseurs conçues sur mesure (TPU), qui sont co-conçues avec ses modèles d’IA pour maximiser les performances par Watt. Selon Google, son TPU”Ironwood”de la dernière génération est 30 fois plus économe en énergie que sa première version accessible au public, offrant une base matérielle puissante pour ses efforts d’efficacité.

Enfin, les optimisations au niveau du système jouent un rôle crucial. La pile de service de Google utilise une pile de logiciels ML avancée et un placement dynamique de modèle à temps presque réel pour minimiser le ralenti de l’accélérateur, une source importante d’énergie gaspillée dans les déploiements à grande échelle. Ces couches d’innovation, de l’architecture modèle jusqu’au silicium, contribuent collectivement à la réduction spectaculaire d’une année à l’autre de l’impact environnemental des Gémeaux.

Une divulgation incomplète, si incomplète,

. Jae-Won Chung, un leader de l’effort ML.Energy à l’Université du Michigan, a déclaré à MIT Technology Review que «je pense que ce sera une pièce de clé dans le domaine de l’énergie de l’IA. C’est l’analyse la plus complète jusqu’à présent.»

Cependant, la divulgation n’est pas sans ses critiques et ses limites. Un élément clé d’informations manquants est le nombre total de requêtes Gemini gère quotidiennement. Sans cela, le calcul de la demande d’énergie globale du service reste impossible.

En outre, les émissions de carbone de Google de 0,03 GCO2E par invite repose sur la comptabilité”basée sur le marché”. Cette méthode, qui permet à l’entreprise de soustraire ses achats d’énergie renouvelable à partir de son empreinte, a été un point de discorde.

Cette méthode comptable a été précédemment critiquée par des groupes comme la bourse Kairos après le rapport environnemental annuel de Google. Le chercheur principal Franz Ressel a fait valoir que «les émissions basées sur le marché sont une métrique adaptée aux entreprises qui obscurcit l’impact réel d’un pollue sur l’environnement». Ce débat souligne la nature complexe et souvent politisée de la comptabilité climatique des entreprises.

La décision de transparence est établie contre une ruée vers le pouvoir à l’échelle de l’industrie. À mesure que les demandes énergétiques de l’IA augmentent, les géants de la technologie font de plus en plus des investissements massifs dans des sources d’énergie propre «fermes» comme l’hydroélectricité et l’énergie nucléaire pour assurer une offre stable 24/7 pour leurs centres de données.

Ce débat abstrait a des conséquences tangible Bien que le rapport de Google soit une étape importante, il met également en évidence la nécessité de rapports standardisés à l’échelle de l’industrie. En tant que Sasha Luccioni, un chercheur en IA et en climat à Hugging Face, noté ,”Ce n’est pas un remplacement ou un proxy pour les compresons standardisés.”. Sans critère commun, le véritable coût de la révolution de l’IA restera difficile à mesurer.

Categories: IT Info