
En la parte 2 de nuestra serie de dos partes en Impactos ambientales de inteligencia industrial generativa, MIT News Explora algunas de las formas en que los expertos están trabajando para ceñir la huella de carbono de la tecnología.
Las demandas de energía de IA generativa Se dilación que continúen aumentando drásticamente durante la próxima plazo.
Por ejemplo, un noticia de abril de 2025 de la Agencia Internacional de Energía predice que el demanda de electricidad entero de los centros de datosque albergan la infraestructura informática para entrenar y desplegar modelos de IA, será más del doble para 2030, a aproximadamente de 945 horas de terawatt. Si admisiblemente no todas las operaciones realizadas en un centro de datos están relacionadas con la IA, esta cantidad total es levemente más que el consumo de energía de Japón.
Encima, un observación de agosto de 2025 de la investigación de Goldman Sachs pronostica que aproximadamente el 60 por ciento de las crecientes demandas de electricidad de los centros de datos se cumplirán con los combustibles fósiles quemados, aumentando, aumentando emisiones globales de carbono por aproximadamente 220 millones de toneladas. En comparación, conducir un automóvil con gasolina durante 5,000 millas produce aproximadamente 1 tonelada de dióxido de carbono.
Estas estadísticas son asombrosas, pero al mismo tiempo, los científicos e ingenieros del MIT y en todo el mundo están estudiando innovaciones e intervenciones para mitigar la huella de carbono de AI, desde aumentar la eficiencia de los algoritmos hasta repensar el diseño de los centros de datos.
Considerando las emisiones de carbono
La conversación de ceñir la huella de carbono de IA generativa generalmente se centra en el «carbono eficaz», las emisiones utilizadas por los procesadores poderosos, conocidos como GPU, interiormente de un centro de datos. A menudo ignora el «carbono encarnado», que son emisiones creadas por la construcción del centro de datos en primer circunscripción, dice Vijay Gadepally, verificado senior del Laboratorio MIT Lincoln, que dirige proyectos de investigación en el Centro de Supercomputación del Laboratorio Lincoln.
Construir y modernizar un centro de datos, construido con toneladas de arma blanca y concreto y harto de unidades de espacio acondicionado, hardware de computación y millas de cable, consume una gran cantidad de carbono. De hecho, el impacto ambiental de la construcción de centros de datos es una razón por la cual compañías como Meta y Google están explorando más materiales de construcción sostenibles. (El costo es otro factótum).
Encima, los centros de datos son edificios enormes: el más alto del mundo, el Parque de Información de Mongolia-Innere de China, Engulfs, Engulfs aproximadamente 10 millones de pies cuadrados – Con aproximadamente 10 a 50 veces la densidad de energía de un edificio de oficinas habitual, agrega gadepalmente.
«El banda eficaz es solo una parte de la historia. Algunas cosas en las que estamos trabajando para ceñir las emisiones operativas además pueden prestarse a la reducción del carbono incorporado, pero debemos hacer más en ese frente en el futuro», dice.
Reducción de las emisiones de carbono eficaz
Cuando se alcahuetería de ceñir las emisiones operativas de carbono de los centros de datos de IA, hay muchos paralelos con las medidas de economía de energía en el hogar. Por un banda, simplemente podemos apearse las luces.
«Incluso si tiene las peores bombillas en su casa desde el punto de perspectiva de la eficiencia, apagarlas o atenuarlos siempre usará menos energía que dejarlas a toda velocidad», dice Gadepally.
De la misma forma, la investigación del centro de supercomputación ha demostrado que «rehusar» las GPU en un centro de datos para que consumen sobre tres décimas la energía Tiene un impacto leve en el rendimiento de los modelos de IA, al tiempo que hace que el hardware sea más viable de calmar.
Otra táctica es usar menos hardware de computación intensivo en energía.
Exigiendo cargas de trabajo generativas de IA, como capacitar a nuevos modelos de razonamiento como GPT-5, generalmente necesitan muchas GPU funcionando simultáneamente. El observación Goldman Sachs estima que un sistema de última gestación podría tener hasta 576 GPU conectadas que operan a la vez.
Pero los ingenieros a veces pueden alcanzar resultados similares al ceñir la precisión del hardware de la computación, tal vez cambiando a procesadores menos potentes que se han sintonizado para manejar una carga de trabajo de IA específica.
Todavía hay medidas que aumentan la eficiencia de la capacitación de modelos de formación profundo hambriento de potencia antaño de implementarse.
El categoría de Gadepally descubrió que aproximadamente la fracción de la electricidad utilizada para capacitar a un maniquí de IA se gasta para obtener los últimos 2 o 3 puntos porcentuales en precisión. Detener el proceso de entrenamiento temprano puede racionar mucha energía.
«Puede ocurrir casos en los que el 70 por ciento de precisión sea lo suficientemente buena para una aplicación en particular, como un sistema de recomendación para el comercio electrónico», dice.
Los investigadores además pueden exprimir las medidas de refuerzo de eficiencia.
Por ejemplo, un postdoc en el centro de supercomputación se dio cuenta de que el categoría podría ejecutar mil simulaciones durante el proceso de capacitación para nominar los dos o tres mejores modelos de IA para su tesina.
Al construir una aparejo que les permitiera evitar aproximadamente del 80 por ciento de los ciclos informáticos desperdiciados, redujeron drásticamente las demandas de energía de la capacitación sin reducción en la precisión del maniquí, dice Gadepally.
Aprovechando las mejoras de eficiencia
La innovación constante en el hardware de la computación, como las matrices más densas de transistores en chips de semiconductores, todavía permite mejoras dramáticas en la eficiencia energética de los modelos de IA.
A pesar de que las mejoras de eficiencia energética se han desacelerado para la mayoría de los chips desde aproximadamente 2005, la cantidad de cálculo que las GPU pueden hacer por Joule of Energy ha mejorado en un 50 a 60 por ciento cada año, dice Neil Thompson, director del Plan de Investigación Futuretech en el Laboratorio de Informática de Computación e Inteligencia Industrial del MIT e investigador principal de la iniciativa del MIT en la peculio digital.
«La tendencia de ‘Moore’s Law’ que sigue siendo de largura de obtener más y más transistores en ChIP todavía es importante para muchos de estos sistemas de IA, ya que ejecutar operaciones en paralelo sigue siendo muy valiosa para mejorar la eficiencia», dice Thomspon.
Aún más significativa, la investigación de su categoría indica que las ganancias de eficiencia de las arquitecturas de nuevos modelos que pueden resolver problemas complejos más rápido, consumir menos energía para alcanzar los mismos o mejores resultados es duplicar cada ocho o nueve meses.
Thompson acuñó el término «necaflop«Para describir este objeto. De la misma forma que un» Natawatt «representa la electricidad ahorrada conveniente a las medidas de economía de energía, un» Negaflop «es una operación informática que no necesita realizarse conveniente a mejoras algorítmicas.
Estas podrían ser cosas como «poda«Acullá de los componentes innecesarios de una red neuronal o empleando técnicas de compresión que permiten a los usuarios hacer más con menos cálculo.
«Si necesita usar un maniquí verdaderamente poderoso hoy para completar su tarea, en solo unos primaveras, es posible que pueda usar un maniquí significativamente más pequeño para hacer lo mismo, lo que conllevaría una carga mucho menos ambiental. Hacer que estos modelos sean más eficientes es lo más importante que puede hacer para ceñir los costos ambientales de la IA», dice Thompson.
Maximizando el economía de energía
Si admisiblemente ceñir el uso normal de energía de los algoritmos de IA y el hardware de computación reducirá las emisiones de gases de objeto invernadero, no toda la energía es la misma, agrega Gadepally.
«La cantidad de emisiones de carbono en una hora de 1 kilovatio varía de forma asaz significativa, incluso solo durante el día, así como durante el mes y el año», dice.
Los ingenieros pueden exprimir estas variaciones aprovechando la flexibilidad de las cargas de trabajo de IA y las operaciones del centro de datos para maximizar las reducciones de emisiones. Por ejemplo, algunas cargas de trabajo generativas de IA no necesitan realizarse en su totalidad al mismo tiempo.
Dividir las operaciones informáticas para que algunas se realicen más tarde, cuando más de la electricidad alimentada en la red proviene de fuentes renovables como la energía solar y el derrota, puede contribuir en gran medida a ceñir la huella de carbono de un centro de datos, dice Deepjyoti Deka, verificado investigador de la Iniciativa de Energía del MIT.
Deka y su equipo además están estudiando centros de datos «más inteligentes» donde las cargas de trabajo de IA de múltiples compañías que usan el mismo equipo informático se ajustan de forma flexible para mejorar la eficiencia energética.
«Al observar el sistema en su conjunto, nuestra esperanza es minimizar el uso de energía, así como la dependencia de los combustibles fósiles, al tiempo que mantienen los estándares de confiabilidad para las compañías y usuarios de IA», dice Deka.
Él y otros en Mitei están construyendo un maniquí de flexibilidad de un centro de datos que considera las diferentes demandas de energía de capacitar a un maniquí de formación profundo en comparación con ese maniquí. Su esperanza es descubrir las mejores estrategias para programar y optimizar las operaciones informáticas para mejorar la eficiencia energética.
Los investigadores además están explorando el uso de unidades de almacenamiento de energía de larga duración en los centros de datos, que almacenan el exceso de energía para los momentos en que es necesario.
Con estos sistemas en su circunscripción, un centro de datos podría usar energía almacenada generada por fuentes renovables durante un período de reincorporación demanda, o evitar el uso de generadores de respaldo diesel si hay fluctuaciones en la red.
«El almacenamiento de energía de larga duración podría cambiar el deporte aquí porque podemos diseñar operaciones que verdaderamente cambien la combinación de emisiones del sistema para subordinarse más de la energía renovable», dice Deka.
Encima, los investigadores de MIT y la Universidad de Princeton están desarrollando una aparejo de software para la planificación de inversiones en el sector eléctrico, llamado Genxque podría estar de moda para ayudar a las empresas a determinar el circunscripción ideal para averiguar un centro de datos para minimizar los impactos y costos ambientales.
La ubicación puede tener un gran impacto en la reducción de la huella de carbono de un centro de datos. Por ejemplo, Meta opera un Centro de datos en Luleauna ciudad en la costa del ártico de Suecia, donde las temperaturas más frías reducen la cantidad de electricidad necesaria para calmar el hardware informático.
Pensando más fuera de la caja (mucho más allá), algunos gobiernos incluso están explorando la construcción de Centros de datos en la vidriera donde potencialmente podrían operarse con casi todas las energía renovable.
Soluciones basadas en IA
Actualmente, la expansión de la gestación de energía renovable aquí en la Tierra no se mantiene en el ritmo del rápido crecimiento de la IA, que es un obstáculo importante para ceñir su huella de carbono, dice Jennifer Turliuk MBA ’25, un profesor a corto plazo, ex becario de Sloan y ex líder de ejercicio de la AI climática y de energía AI en el Centro de Martin Trust para el plan del MIT.
Los procesos de revisión locales, estatales y federales requeridos para un nuevo tesina de energía renovable pueden sufrir primaveras.
Los investigadores del MIT y en otros lugares están explorando el uso de IA para acelerar el proceso de conectar nuevos sistemas de energía renovable a la red eléctrica.
Por ejemplo, un maniquí de IA generativo podría optimizar los estudios de interconexión que determinan cómo un nuevo tesina afectará la red eléctrica, un paso que a menudo lleva primaveras completarse.
Y cuando se alcahuetería de Acelerar el exposición e implementación de tecnologías de energía limpiaLa IA podría desempeñar un papel importante.
«El formación forzoso es excelente para asaltar situaciones complejas, y se dice que la red eléctrica es una de las máquinas más grandes y complejas del mundo», agrega Turliuk.
Por ejemplo, la IA podría ayudar a optimizar la predicción de la gestación de energía solar y eólica o identificar ubicaciones ideales para nuevas instalaciones.
Todavía podría estar de moda para realizar mantenimiento predictivo y detección de fallas para paneles solares u otra infraestructura de energía verde, o para monitorear la capacidad de los cables de transmisión para maximizar la eficiencia.
Al ayudar a los investigadores a reunir y analizar grandes cantidades de datos, la IA además podría informar las intervenciones de políticas específicas destinadas a obtener la anciano «arrebato por el patrimonio» de áreas como la energía renovable, dice Turliuk.
Para ayudar a los formuladores de políticas, científicos y empresas considerar los costos y beneficios multifacéticos de los sistemas de IA, ella y sus colaboradores desarrollaron el puntaje neto de impacto climático.
El puntaje es un ámbito que se puede utilizar para ayudar a determinar el impacto climático neto de los proyectos de IA, considerando las emisiones y otros costos ambientales cercano con posibles beneficios ambientales en el futuro.
Al final del día, las soluciones más efectivas probablemente resultarán de colaboraciones entre empresas, reguladores e investigadores, con la institución liderando el camino, agrega Turliuk.
«Todos los días cuentan. Estamos en un camino donde los pertenencias del cambio climático no se conocerán completamente hasta que sea demasiado tarde para hacer poco al respecto. Esta es una oportunidad única en innovar y hacer que los sistemas de IA sean menos intensos en carbono», dice ella.