Technical Public , no Google, no Google, um dos consultores de consenso, com o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que você está Magnitude.
A metodologia da empresa foi projetada para refletir as realidades operacionais de servir um produto global como Gemini. Para garantir alta disponibilidade e baixa latência, uma quantidade significativa de capacidade deve ser provisionada, mas ociosa, pronta para lidar com picos de trânsito ou failover. Esse custo operacional do mundo real, juntamente com o poder para as CPUs hospedeiras e as despesas gerais de data center, é frequentemente excluído das estimativas acadêmicas ou de terceiros. O Google argumenta que essas visualizações mais estreitas representam o que chama de um cenário otimista de melhor. Os aceleradores de IA ativos (TPUs do Google) representam apenas 58% da energia total. A CPU e a memória da máquina host necessária contribuem com outros 24%. A energia consumida por máquinas ociosas provisionadas adiciona 10% significativamente ao total. Finalmente, 8% vem da sobrecarga do data center, como refrigeração e conversão de energia, um fator capturado pela métrica do uso de energia padrão da indústria (PUE).
Essa visão holística é um afastamento significativo dos métodos de medição mais estreitos. O impacto desse limite abrangente é substancial. Embora produz a figura oficial de 0,24 WH, o Google observa que, se usasse uma abordagem mais limitada-medindo apenas o chip AI ativo em seus data centers mais eficientes-o resultado seria um mero 0,10 WH por prompt. Essa diferença de 2.4x ressalta quanta energia é consumida pela infraestrutura essencial de suporte necessária para um serviço confiável. Dean, cientista-chefe do Google, confirmou a intenção da empresa, afirmando:”Queríamos ser bastante abrangentes em todas as coisas que incluímos”. Essa contabilidade detalhada revela que quase metade do custo energético de um prompt vem de sistemas que não sejam o próprio processador de IA, uma visão crítica para entender a verdadeira pegada ambiental da IA em escala. Em seu Blog de sustentabilidade Postagem , a empresa afirma que, entre maio de 2024 e 2020, o consumo de energia de uma mediana. pegada caiu de 44 vezes ainda maiores. Para o desenvolvimento da IA. Melhoria das eficiências do modelo e uma melhoria de 1,4x da melhor utilização da máquina. Essa técnica permite que o sistema ative apenas um subconjunto pequeno e relevante de um modelo grande para qualquer consulta, reduzindo os cálculos em um fator de 10 a 100. Outras técnicas de software, como decodificação e destilação especulativas, que criam modelos menores e otimizados como flash, reduzem a carga computacional. A Companhia enfatiza suas unidades de processamento de tensores (TPUs) projetadas personalizadas, que são co-projetadas com seus modelos de IA para maximizar o desempenho por watt. De acordo com o Google, sua TPU”Ironwood”mais recente da geração é 30 vezes mais eficiente em termos de energia do que sua primeira versão disponível ao público, fornecendo uma poderosa base de hardware para seus esforços de eficiência.
Finalmente, as otimizações no nível do sistema desempenham um papel crucial. A pilha de servir do Google usa uma pilha de software ML avançada e a colocação dinâmica do modelo de tempo quase real para minimizar a marcha lenta do acelerador, uma fonte significativa de energia desperdiçada em implantações em larga escala. Essas camadas de inovação, desde a arquitetura do modelo até o silício, contribuam coletivamente para a redução dramática ano a ano no impacto ambiental de Gêmeos. Jae-Won Chung, líder do esforço de Energia da ML. Na Universidade de Michigan, disse à MIT Technology Review que “acho que essa será uma peça de pedra-chave no campo de energia da IA. É a análise mais abrangente até agora.”
No entanto, a divulgação não está sem seus críticos e limitações. Uma peça importante das informações ausentes é o número total de consultas de gêmeos diariamente. Sem isso, o cálculo da demanda agregada de energia do serviço permanece impossível. Esse método, que permite à empresa subtrair suas compras de energia renovável de sua pegada, tem sido um ponto de discórdia. O pesquisador principal Franz Ressel argumentou:”As emissões baseadas no mercado são uma métrica para as empresas que obscurece o impacto real de um poluidores no meio ambiente”. Esse debate ressalta a natureza complexa e frequentemente politizada da contabilidade do clima corporativo. As demandas de energia da IA aumentam, os gigantes da tecnologia estão cada vez mais fazendo investimentos enormes em fontes de energia limpas”firmes”, como energia hidrelétrica e energia nuclear, para garantir um suprimento estável e 24 horas por dia, 7 dias por semana, para seus centers de dados. O relatório é uma etapa significativa, também destaca a necessidade de relatórios padronizados em todo o setor. Como Sasha Luccioni, um pesquisador de IA e clima em Hugging Face, notado ,”this não é um não,”tira”ou”_”> notado
, “não é um, não é o que não é o que não é o que não é o que não é o que não é o que não é o que não é o que não é o que não é o que não é o que não é um que não é o que não é um que não é o que não é um que não é um que não é o que não é um que não é o que não é o que não. Sem um critério comum, o verdadeiro custo da revolução da IA permanecerá difícil de medir.