En una serie de dos partes, Informativo del MIT explora las implicaciones ambientales de la IA generativa. En este artículo, analizamos por qué esta tecnología requiere tantos fortuna. Un segundo artículo investigará qué están haciendo los expertos para aminorar la huella de carbono y otros impactos de genAI.
El entusiasmo que rodea a los posibles beneficios de IA generativaEs difícil ignorar los avances, desde la progreso de la productividad de los trabajadores hasta el avance de la investigación científica. Si acertadamente el crecimiento explosivo de esta nueva tecnología ha permitido el rápido despliegue de modelos potentes en muchas industrias, las consecuencias ambientales de esta “fiebre del oro” generativa de la IA siguen siendo difíciles de precisar, y mucho menos mitigar.
La potencia computacional necesaria para entrenar modelos de IA generativa que a menudo tienen miles de millones de parámetros, como el GPT-4 de OpenAI, puede demandar una cantidad asombrosa de electricidad, lo que conduce a mayores emisiones de dióxido de carbono y presiones sobre la red eléctrica.
Por otra parte, implementar estos modelos en aplicaciones del mundo verdadero, permitir que millones de personas utilicen IA generativa en su vida diaria y luego ajustar los modelos para mejorar su rendimiento, consume grandes cantidades de energía mucho luego de que se haya desarrollado un maniquí.
Más allá de las demandas de electricidad, se necesita una gran cantidad de agua para refrigerar el hardware utilizado para entrenar, implementar y ajustar los modelos de IA generativa, lo que puede sobrecargar los suministros de agua municipales y alterar los ecosistemas locales. El creciente número de aplicaciones de IA generativa incluso ha estimulado la demanda de hardware informático de detención rendimiento, añadiendo impactos ambientales indirectos derivados de su fabricación y transporte.
«Cuando pensamos en el impacto ambiental de la IA generativa, no se proxenetismo solo de la electricidad que se consume cuando se conecta la computadora. Hay consecuencias mucho más amplias que llegan a nivel del sistema y persisten en función de las acciones que tomamos», dice Elsa A. Olivetti, profesora del Sección de Ciencia e Ingeniería de Materiales y líder de la Encomienda de Descarbonización del nuevo MIT Plan Climático.
Olivetti es autor principal de un artículo de 2024, “Las implicaciones climáticas y de sostenibilidad de la IA generativa”, escrito en coautoría por colegas del MIT en respuesta a una convocatoria de artículos de todo el Instituto que exploren el potencial transformador de la IA generativa, tanto en direcciones positivas como negativas para la sociedad.
Centros de datos exigentes
Las demandas de electricidad de los centros de datos son un hacedor importante que contribuye a los impactos ambientales de la IA generativa, ya que los centros de datos se utilizan para entrenar y ejecutar modelos de educación profundo detrás de herramientas populares como ChatGPT y DALL-E.
Un centro de datos es un edificio con temperatura controlada que alberga infraestructura informática, como servidores, unidades de almacenamiento de datos y equipos de red. Por ejemplo, Amazon tiene más de 100 centros de datos en todo el mundocada uno de los cuales tiene más o menos de 50.000 servidores que la empresa utiliza para respaldar los servicios de computación en la montón.
Si acertadamente los centros de datos existen desde la división de 1940 (el primero se construyó en la Universidad de Pensilvania en 1945 para respaldar la primera computadora digital de uso normalENIAC), el auge de la IA generativa ha aumentado drásticamente el ritmo de construcción de centros de datos.
“Lo que diferencia a la IA generativa es la densidad de potencia que requiere. Básicamente, se proxenetismo sólo de informática, pero un categoría de entrenamiento de IA generativa podría consumir siete u ocho veces más energía que una carga de trabajo informática típica”, afirma Noman Bashir, autor principal del artículo sobre impacto, que es becario de Computación e Impacto Climático en el MIT Climate. and Sustainability Consortium (MCSC) y un postdoctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Fabricado (CSAIL).
Los científicos han estimado que los requisitos de energía de los centros de datos en América del Boreal aumentaron de 2.688 megavatios a finales de 2022 a 5.341 megavatios a finales de 2023, impulsados en parte por las demandas de la IA generativa. A nivel mundial, el consumo de electricidad de los centros de datos aumentó a 460 teravatios en 2022. Esto habría convertido a los centros de datos en el undécimo anciano consumidor de electricidad del mundo, entre las naciones de Arabia Saudita (371 teravatios) y Francia (463 teravatios), según el Ordenamiento para la Cooperación y el Expansión Crematístico.
Para 2026, se paciencia que el consumo de electricidad de los centros de datos se acerque a los 1.050 teravatios (lo que elevaría a los centros de datos al botellín ocupación en la serie mundial, entre Japón y Rusia).
Si acertadamente no todos los cálculos de los centros de datos implican IA generativa, la tecnología ha sido un importante impulsor del aumento de la demanda de energía.
“La demanda de nuevos centros de datos no se puede satisfacer de forma sostenible. El ritmo al que las empresas están construyendo nuevos centros de datos significa que la anciano parte de la electricidad necesaria para alimentarlos debe provenir de centrales eléctricas basadas en combustibles fósiles”, afirma Bashir.
Es difícil determinar la potencia necesaria para entrenar e implementar un maniquí como el GPT-3 de OpenAI. En un artículo de investigación de 2021, científicos de Google y la Universidad de California en Berkeley estimaron que solo el proceso de capacitación consumió 1287 megavatios hora de electricidad (suficiente para respaldar más o menos de 120 hogares promedio en EE. UU. durante un año), generando más o menos de 552 toneladas de dióxido de carbono.
Si acertadamente todos los modelos de educación maquinal deben entrenarse, un problema exclusivo de la IA generativa son las rápidas fluctuaciones en el uso de energía que ocurren en las diferentes fases del proceso de entrenamiento, explica Bashir.
Los operadores de redes eléctricas deben tener una forma de absorber esas fluctuaciones para proteger la red y, por lo normal, emplean generadores a cojín de diesel para esa tarea.
Impactos crecientes de la inferencia
Una vez que se entrena un maniquí de IA generativa, las demandas de energía no desaparecen.
Cada vez que se utiliza un maniquí, tal vez cuando un individuo le pide a ChatGPT que resuma un correo electrónico, el hardware informático que realiza esas operaciones consume energía. Los investigadores han estimado que una consulta ChatGPT consume aproximadamente cinco veces más electricidad que una simple búsqueda en la web.
«Pero un sucesor corriente no piensa demasiado en eso», dice Bashir. «La facilidad de uso de las interfaces de IA generativa y la error de información sobre los impactos ambientales de mis acciones significa que, como sucesor, no tengo muchos incentivos para aminorar mi uso de IA generativa».
Con la IA tradicional, el uso de energía se divide de modo congruo equitativa entre el procesamiento de datos, el entrenamiento de modelos y la inferencia, que es el proceso de utilizar un maniquí entrenado para hacer predicciones sobre nuevos datos. Sin incautación, Bashir paciencia que las demandas de electricidad de la inferencia generativa de IA eventualmente dominen, ya que estos modelos se están volviendo omnipresentes en muchas aplicaciones, y la electricidad necesaria para la inferencia aumentará a medida que las versiones futuras de los modelos se vuelvan más grandes y complejas.
Por otra parte, los modelos de IA generativa tienen una vida útil especialmente corta, impulsada por la creciente demanda de nuevas aplicaciones de IA. Las empresas lanzan nuevos modelos cada pocas semanas, por lo que la energía utilizada para entrenar versiones anteriores se desperdicia, añade Bashir. Los nuevos modelos suelen consumir más energía para entrenar, ya que suelen tener más parámetros que sus predecesores.
Si acertadamente las demandas de electricidad de los centros de datos pueden estar recibiendo la anciano atención en la letras de investigación, la cantidad de agua consumida por estas instalaciones incluso tiene impactos ambientales.
El agua helada se utiliza para refrigerar un centro de datos absorbiendo el calor de los equipos informáticos. Se ha estimado que, por cada kilovatio hora de energía que consume un centro de datos, necesitaría dos litros de agua para enfriarse, afirma Bashir.
“El hecho de que esto se llame ‘computación en la montón’ no significa que el hardware viva en la montón. Los centros de datos están presentes en nuestro mundo físico y, adecuado a su uso de agua, tienen implicaciones directas e indirectas para la biodiversidad”, afirma.
El hardware informático internamente de los centros de datos genera sus propios impactos ambientales menos directos.
Si acertadamente es difícil estimar cuánta energía se necesita para elaborar una GPU, un tipo de procesador potente que puede manejar cargas de trabajo intensivas de IA generativa, sería más de lo que se necesita para producir una CPU más simple porque el proceso de fabricación es más engorroso. La huella de carbono de una GPU se ve agravada por las emisiones relacionadas con el transporte de materiales y productos.
Asimismo existen implicaciones ambientales a la hora de obtener las materias primas utilizadas para elaborar las GPU, que pueden implicar procedimientos de minería sucios y el uso de productos químicos tóxicos para el procesamiento.
La firma de investigación de mercado TechInsights estima que los tres principales productores (NVIDIA, AMD e Intel) enviaron 3,85 millones de GPU a centros de datos en 2023, frente a aproximadamente 2,67 millones en 2022. Se paciencia que esa número haya aumentado en un porcentaje aún anciano en 2024. .
La industria está en un camino insostenible, pero hay formas de fomentar el mejora responsable de una IA generativa que respalde los objetivos medioambientales, afirma Bashir.
Él, Olivetti y sus colegas del MIT sostienen que esto requerirá una consideración integral de todos los costos ambientales y sociales de la IA generativa, así como una evaluación detallada del valía de sus beneficios percibidos.
“Necesitamos una forma más contextual de comprender de modo sistemática y exhaustiva las implicaciones de los nuevos desarrollos en este espacio. Oportuno a la velocidad a la que se han producido mejoras, no hemos tenido la oportunidad de ponernos al día con nuestras capacidades para calcular y comprender las compensaciones”, dice Olivetti.