I ett landmärke-rörelse mot öppenhet har Google släppt de första detaljerade uppgifterna om miljökostnaden för sina AI-modeller. Publicerad på torsdagen, Googles Teknisk tidning avslöjar en median quer till dess GEMI-assistent ADAGE ASSITSERA A BEDAG ANDAGEN AVERSAKT ANISKA ENAGE OF ENAGE OF ENAGE OF THE ENAGE OF THE ENAGE OF ENAGE OF ENAGE OF ENAY ENACHE ENAY ENAY ENAY ENAY ENAY ENAGE ANAGE Uppgifter.
I flera år har den verkliga energikostnaden för generativ AI varit föremål för intensiv spekulation och debatt. Denna avslöjande kommer mitt i ökande tryck på Big Tech för att kvantifiera teknikens glupiga aptit för energi och vatten, vilket ger en avgörande, om än företagskontrollerad, benchmark. (WH) av energi, avger 0,03 gram CO2-ekvivalent (GCO2E) och använder 0,26 milliliter vatten, såsom beskrivs på technical paper, Google notes that a lack of consensus on what to measure has led to public estimates for similar AI tasks varying by an storleksordning.
Företagets metod är utformad för att återspegla de operativa verkligheterna för att betjäna en global produkt som Gemini. För att säkerställa hög tillgänglighet och låg latens måste en betydande kapacitet tillhandahållas men i viloläge, redo att hantera trafikspikar eller failovers. Denna verkliga driftskostnad, tillsammans med kraften för värd CPU: er och allmänna datacenter-omkostnader, är ofta utesluten från akademiska eller tredje parts uppskattningar. Google hävdar att dessa smalare åsikter representerar vad den kallar “ett optimistiskt scenario i bästa fall.”
det resulterande utbrottet av 0.3. De aktiva AI-acceleratorerna (Googles TPU: er) står för bara 58% av den totala energin. Den nödvändiga värdmaskinens CPU och minne bidrar med ytterligare 24%. Energin som konsumeras av tillhandahållna tomgångsmaskiner lägger till en betydande 10% till det totala. Slutligen kommer 8% från datacenter över huvudet som kylning och kraftkonvertering, en faktor som fångas av branschstandard kraftanvändningseffektivitet (PUE) metrisk.
Denna holistiska vy är en betydande avvikelse från smalare mätmetoder. Effekterna av denna omfattande gräns är betydande. Medan den ger den officiella 0,24 WH-siffran, konstaterar Google att om den använde en mer begränsad strategi-bara för det aktiva AI-chipet i sina mest effektiva datacentra-skulle resultatet vara bara 0,10 WH per prompt. Denna 2,4x-skillnad understryker hur mycket energi som konsumeras av den väsentliga stödjande infrastrukturen som krävs för en pålitlig tjänst.
i en exklusiv intervju med
tillsammans med per prompt-figurer, Google-krav på 33-faldig språng
längs Per-Prompt-figurerna, Google Claimatics dramatiska GAMATISKA FÖRESKRIFTER. In its sustainability blog post, the company asserts that between May 2024 and May 2025, the energy consumption of a median Gemini prompt plummeted by a factor of 33. When combined with cleaner energy sources, Det tillhörande koldioxidavtrycket föll ännu större 44 gånger. Dessa häpnadsväckande förbättringar är inte resultatet av ett enda genombrott utan snarare den sammansatta effekten av optimeringar över vad Google kallar dess “Fullstack tillvägagångssätt för AI-utveckling.” Företagets
På modellnivå pekar Google på effektivare arkitekturer som blandning av experter (MOE). Denna teknik gör det möjligt för systemet att aktivera endast en liten, relevant delmängd av en stor modell för en given fråga, vilket minskar beräkningar med en faktor på 10 till 100. Andra mjukvarutekniker som spekulativ avkodning och destillation, som skapar mindre, optimerade modeller som Gemini Flash, minskar ytterligare beräkningsbelastningen. Dessa mjukvaror är Amplified med hårdvaror. Företaget betonar sina specialdesignade tensorbehandlingsenheter (TPU), som är samdesignade med sina AI-modeller för att maximera prestanda per watt. Enligt Google är dess senaste generationens”Ironwood”TPU 30 gånger mer energieffektivt än sin första offentligt tillgängliga version, vilket ger en kraftfull hårdvarufundament för sina effektivitetsinsatser. Slutligen spelar optimering av systemnivå en avgörande roll. Googles serveringsstack använder en avancerad ML-programvarustack och dynamisk, nära realtidsmodellplacering för att minimera acceleratorens tomgång, en betydande källa till bortkastad energi i storskaliga distributioner. Dessa lager av innovation, från modellarkitekturen ner till kisel, bidrar kollektivt till den dramatiska minskningen av år över år i Geminis miljöpåverkan. frisläppandet av första partdata har möttes med Cautious Optimism från den forskningssamhället. Jae-won Chung, ledare för ML.Energy-ansträngningen vid University of Michigan, berättade för MIT Technology Review att”Jag tror att detta kommer att vara en keystone-del inom AI Energy Field. Det är den mest omfattande analysen hittills.” Upplysningen är dock inte utan dess kritiker och begränsningar. En viktig del av saknad information är det totala antalet frågor som Gemini hanterar dagligen. Utan detta förblir beräkning av tjänstens sammanlagda energibehov omöjligt. Vidare förlitar sig Googles koldioxidutsläpp på 0,03 GCO2E per fråga på “marknadsbaserad” redovisning. Denna metod, som gör det möjligt för företaget att subtrahera sina inköp av förnybar energi från sitt fotavtryck, har varit en stridighetspunkt. Denna redovisningsmetod kritiserades tidigare av grupper som Kairos stipendium efter Googles årliga miljörapport. Den blyforskaren Franz Ressel hävdade:”Marknadsbaserade utsläpp är en företagsvänlig metrisk som döljer en förorenares faktiska inverkan på miljön.”Denna debatt understryker den komplexa och ofta politiserade karaktären av företagens klimatbokföring. Flytten för öppenhet ställs in mot en branschövergripande förvrängning för makten. När AI: s energibehov eskalerar, gör tekniska jättar allt mer massiva investeringar i”fasta”rena kraftkällor som vattenkraft och kärnkraft för att säkerställa en stabil, 24/7 leverans för sina datacentra. Denna abstrakta debatt har konkreta konsekvenser, med vissa AI-projekt som skapar betydande lokala miljöburdens, som ses i samhället över Xi-facilitet. Medan Googles rapport är ett betydande steg, belyser det också behovet av standardiserad, branschövergripande rapportering. Som Sasha Luccioni, en AI-och klimatforskare vid kramning ansikte, noterade ,”detta är inte en ersättning eller inte en ersättning eller proxy-proxy-jämförelse. Utan en vanlig måttstock kommer de verkliga kostnaderna för AI-revolutionen att förbli svåra att mäta. ett 33-faldigt hopp i effektivitet
En välkommen, om ofullständig, avslöjande