Muchas personas con conocimiento ambiental se enfrentan con una sensación de inquietud al usar herramientas de IA como ChatGPT, un sentimiento destacado en un análisis de Hannah Ritchie para”
su artículo, que menciona alineaciones con el trabajo detallado de otros analistas como De 12,000 WH, diez de esas consultas (30 WH) representan solo alrededor del 0.2% de ese total diario. Esta cifra aumenta a alrededor del 2% si un usuario hace 100 consultas. Para los usuarios en los Estados Unidos, donde el consumo individual de electricidad es más alto, estos porcentajes son aún más bajos, a aproximadamente 0.09% para diez consultas y 0.9% para cien. En términos de salida de carbono, algunas fuentes estiman una consulta para producir alrededor de 2 a 3 gramos de CO2 , una figura que incluye las emisiones amortizadas del proceso intensivo de energía de entrenamiento de modelos AI. Ritchie calcula que diez consultas diarias durante un año agregarían aproximadamente 11 kilogramos de CO2 a la huella de un individuo. Esto representa un aumento fraccional, un 0.16% para un residente promedio del Reino Unido (cuyo La huella de energía e industria es de aproximadamente 7 toneladas ) y 0.07% para un estadounidense. Para contextualizar aún más esto, Ritchie, hacer referencia a Análisis de Andy Masley , señala que se ahorra de 50,000 cuestiones de chatgpt: un volumen que representa aproximadamente 14 años de diez interacciones diarias: se produce un rendimiento de los cotizas de cotas. reciclaje o uso de bolsas reutilizables. Agregar otra capa a esto, Ritchie destaca la investigación más reciente de Epoch ai sugiriendo que la energía por cuenta podría ser tan baja como 0. Mayor 3 WH WH Estimación. Si esta figura más reciente se mantiene, el impacto ambiental individual se reduce aún más; Diez consultas diarias representarían solo el 0.02% del consumo de electricidad de un individuo del Reino Unido.”Una consulta típica usa mucha menos energía que una bombilla estándar, o incluso solo ejecutar su computadora portátil durante 5 minutos”, observa Ritchie. su consejo para los usuarios de IA basado en texto es directo:”Para el usuario regular o relativamente alto de LLM basados en texto: deje de estresar la energía y la huella de carbono. Sin embargo, ella advierte que esta perspectiva puede no extenderse a los usuarios que generan videos o contenido de audio de alta calidad. Si bien las consultas individuales pueden ser ligeras en los recursos, la Ritchie es firme en distinguir esto del perfil de energía general de la industria de AI.”No estoy diciendo que la demanda de energía de IA, en conjunto, no sea un problema”, aclara en su artículo, que sigue su anterior sobre el uso de energía más amplio de AI .”Es, incluso si es”solo”de una magnitud similar a los otros sectores que necesitamos para electrificar, como los automóviles, la calefacción o las partes de la industria. Es solo que las personas que consultan chatbots son una parte relativamente pequeña del consumo total de energía de la IA”. Las fases de capacitación para estos modelos de idiomas grandes son particularmente exigentes; Por ejemplo, la capacitación de GPT-3 de OpenAI consumió 1.287 MWH, mientras que el GPT-4 significativamente más grande requirió un estimado de 62,318 MWh. Esta preocupación más amplia es demostrada vívidamente por la situación que se desarrolla en Memphis, Tennessee, donde el Xai de Elon Musk está desarrollando su supercribe de AI”colossus”. La instalación ha encendido protestas comunitarias sobre la contaminación del aire. El núcleo del problema radica en el uso de Numerosas turbinas de gas metano de XAI, que supuestamente operan sin controles de emisión estándar o los permisos de la Ley de Aire Limpio necesarios, para alimentar las operaciones intensivas en energía. El área también alberga más de 17 otras instalaciones industriales registradas con el inventario de liberación de tóxicos de la EPA. Las demandas de energía del proyecto”Coloso”son inmensas. Se lanzó con más de 100,000 GPU de la tolva NVIDIA en junio de 2024, estos son procesadores avanzados optimizados para cargas de trabajo de IA, que ofrecen una potencia computacional sustancial pero que también consumen energía considerable. Para diciembre de 2024, Xai anunció planes para una expansión de diez veces a más de 1 millón de GPU. Musk ha declarado que Coloso necesitará 2,000 megavatios (MW) de energía, superando con creces los 150 MW actualmente aprobados por la Autoridad del Valle de Tennessee (TVA). En agosto de 2024, según los informes, el sitio tenía acceso a solo 8MW de potencia de cuadrícula, requiriendo el uso de generadores móviles. Los grupos ambientales estiman que XAI podría convertirse en un emisor líder de óxidos de nitrógeno (NOX), que contribuyen a smog y pueden empeorar las enfermedades respiratorias, en el condado de Shelby, que potencialmente liberan 1,200 a 2,000 tensiones anuales. El representante estatal Justin Pearson declaró a ABC24 Memphis:”Están diciendo que tienen un permiso para 15 turbinas de gas. En este momento, sabemos que tienen 35 turbinas de gas en esa instalación, y sabemos que 33 de ellas están operando actualmente”. Más allá de la calidad del aire, también se informa que la instalación de Memphis XAI consume 5 millones de litros de agua por día para enfriar, agregando otra capa a la tensión de recursos locales. Esto refleja una tendencia más amplia, ya que la demanda global de IA podría conducir a retiros de agua de 4.2–6.6 mil millones de metros cúbicos en 2027. Los residentes cerca de la instalación de Memphis han informado efectos de salud tangibles.”¿Cómo es que no puedo respirar en casa y todos pueden respirar en casa?”Preguntó el residente de Boxtown Alexis Humphreys en una audiencia pública del 25 de abril de 2025, mostrando su inhalador de asma. xai ha caracterizado las turbinas de gas como una medida temporal. Shannon Lynn, consultor ambiental para XAI, sugirió una exención regulatoria para fuentes temporales, un reclamo disputado por expertos en derecho ambiental. Bruce Buckheit, ex Director de Control de Aire de la EPA, Remarking A Politico:”No siempre requiere que una comunidad diga:”Bueno, estamos de acuerdo con eso o no lo estamos. Es algo capitalista. Las empresas entran y operan”. campo. Si bien la interacción de un individuo con una IA como ChatGPT puede parecer intrascendente desde el punto de vista de la energía, la infraestructura acumulada requerida para brindar estos servicios a nivel mundial cuenta una historia diferente. Las principales empresas tecnológicas están viendo sus métricas ambientales afectadas; Las emisiones de gases de efecto invernadero de Google aumentó en un 13% en 2023 en gran parte debido a los centros de datos de IA , y el consumo de electricidad de Microsoft por dólar de ingresos de los ingresos aumentó en más del 50% de 2020 a 2023 Por razones similares. La Agencia Internacional de Energía proyecta que la demanda de electricidad de los centros de datos de todo el mundo podría , con IA como un impulsor principal. El artículo de Ritchie enfatiza fuertemente el desafío de obtener datos claros.”Mencioné esto en mi artículo anterior, pero permítanme decir nuevamente lo loco que creo que es que nos quedamos debatiendo el uso de energía de la orden de magnitud de LLM”, escribe.”No solo estamos hablando de si se trata de 3, 3.5 o 4 WH. Estamos hablando de si nuestros cálculos actuales son diez veces demasiado altos. Por supuesto, las compañías tecnológicas saben cuál es el número correcto; es solo que la falta de transparencia significa que el resto de nosotros nos queda bumling, que desperdician el tiempo”. y huella de recursos. Mientras que algunas investigaciones, como a Nuevo método de entrenamiento de la universidad técnica de la universidad técnica de Munich ser significativamente más enérgico, se refleja más potencial, ofrece un método de entrenamiento de la universidad técnica de la universidad técnica de Munich La sed colosal de la infraestructura de IA
voces locales y preguntas reguladoras
.