
Correcto al crecimiento explosivo de la inteligencia fabricado, se estima que los centros de datos consumirán hasta el 12 por ciento del total de la electricidad de EE. UU. para 2028según el Laboratorio Franquista Lawrence Berkeley. Mejorar la eficiencia energética de los centros de datos es una de las formas en que los científicos se esfuerzan por hacer que la IA sea más sostenible.
Con ese objetivo, investigadores del MIT y del MIT-IBM Watson AI Lab desarrollaron una utensilio de predicción rápida que les dice a los operadores de centros de datos cuánta energía se consumirá al ejecutar una carga de trabajo de IA particular en un determinado procesador o chip acelerador de IA.
Su método produce estimaciones de potencia fiables en unos pocos segundos, a diferencia de las técnicas de modelado tradicionales que pueden tardar horas o incluso días en producir resultados. Por otra parte, su utensilio de predicción se puede aplicar a una amplia grado de configuraciones de hardware, incluso a diseños emergentes que aún no se han implementado.
Los operadores de centros de datos podrían utilizar estas estimaciones para asignar eficazmente bienes limitados entre múltiples modelos y procesadores de IA, mejorando la eficiencia energética. Por otra parte, esta utensilio podría permitir a los desarrolladores de algoritmos y proveedores de modelos evaluar el consumo potencial de energía de un nuevo maniquí ayer de implementarlo.
«El desafío de la sostenibilidad de la IA es una pregunta apremiante que debemos reponer. Correcto a que nuestro método de estimación es rápido, conveniente y proporciona feedback directa, esperamos que haga que los desarrolladores de algoritmos y los operadores de centros de datos sean más propensos a pensar en disminuir el consumo de energía», dice Kyungmi Lee, postdoctorado del MIT y autor principal de un artículo sobre esta técnica.
En el artículo la acompañan Zhiye Song, estudiante de posgrado en ingeniería eléctrica e informática (EECS); Eun Kyung Lee y Xin Zhang, directores de investigación de IBM Research y del MIT-IBM Watson AI Lab; Tamar Eilam, miembro de IBM, científica jefa de informática sostenible en IBM Research y miembro del MIT-IBM Watson AI Lab; y la autora principal Anantha P. Chandrakasan, rectora del MIT, profesora Vannevar Bush de Ingeniería Eléctrica e Informática y miembro del Laboratorio de IA Watson del MIT-IBM. La investigación se presentará esta semana en el Simposio Internacional IEEE sobre Prospección de Rendimiento de Sistemas y Software.
Acelerar la estimación de energía
Interiormente de un centro de datos, miles de potentes unidades de procesamiento de gráficos (GPU) realizan operaciones para entrenar e implementar modelos de IA. El consumo de energía de una GPU en particular variará según su configuración y la carga de trabajo que esté manejando.
Muchos métodos tradicionales utilizados para predecir el consumo de energía implican dividir una carga de trabajo en pasos individuales y pugnar cómo se utiliza cada módulo interiormente de la GPU paso a paso. Pero las cargas de trabajo de IA, como el entrenamiento de modelos y el preprocesamiento de datos, son extremadamente grandes y pueden tardar horas o incluso días en simularse de esta guisa.
«Como cámara, si quiero comparar diferentes algoritmos o configuraciones para encontrar la forma de proceder más efectivo desde el punto de panorámica energético, si una sola pugna va a resistir días, eso resultará muy poco práctico», afirma Lee.
Para acelerar el proceso de predicción, los investigadores del MIT intentaron utilizar información menos detallada que pudiera estimarse más rápidamente. Descubrieron que las cargas de trabajo de IA suelen tener muchos patrones repetibles. Podrían utilizar estos patrones para originar la información necesaria para una estimación de potencia confiable pero rápida.
En muchos casos, los desarrolladores de algoritmos escriben programas para que se ejecuten de la guisa más efectivo posible en una GPU. Por ejemplo, utilizan optimizaciones correctamente estructuradas para distribuir el trabajo entre núcleos de procesamiento paralelos y mover fragmentos de datos de la guisa más efectivo.
«Estas optimizaciones que utilizan los desarrolladores de software crean una estructura regular, y eso es lo que intentamos emplear», explica Lee.
Los investigadores desarrollaron un maniquí de estimación superficial, llamado EnergAIzer, que captura el patrón de uso de energía de una GPU a partir de esas optimizaciones.
Una evaluación precisa
Pero si correctamente su estimación fue rápida, los investigadores descubrieron que no tomaba en cuenta todos los costos de energía. Por ejemplo, cada vez que una GPU ejecuta un software, se requiere un costo de energía fijo para instalar y configurar ese software. Luego, cada vez que la GPU ejecuta una operación con una porción de datos, se debe avalar un costo de energía adicional.
Correcto a fluctuaciones en el hardware o conflictos en el entrada o movimiento de datos, es posible que una GPU no pueda utilizar todo el satisfecho de manada arreglado, lo que ralentiza las operaciones y consume más energía con el tiempo.
Para incluir estos costos y variaciones adicionales, los investigadores recopilaron mediciones reales de las GPU para originar términos de corrección que aplicaron a su maniquí de estimación.
«De esta guisa, podemos obtener una estimación rápida que asimismo es muy precisa», afirma.
Al final, un sucesor puede proporcionar información de su carga de trabajo, como el maniquí de IA que desea ejecutar y la cantidad y duración de las entradas del sucesor a procesar, y EnergAIzer generará una estimación del consumo de energía en cuestión de segundos.
El sucesor asimismo puede cambiar la configuración de la GPU o ajustar la velocidad de funcionamiento para ver cómo dichas opciones de diseño impactan el consumo caudillo de energía.
Cuando los investigadores probaron EnergAIzer utilizando información positivo de la carga de trabajo de IA de GPU reales, pudieron estimar el consumo de energía con solo un 8 por ciento de error, lo que es comparable a los métodos tradicionales que pueden tardar horas en producir resultados.
Su método asimismo podría estar de moda para predecir el consumo de energía de futuras GPU y configuraciones de dispositivos emergentes, siempre y cuando el hardware no cambie drásticamente en un corto período de tiempo.
En el futuro, los investigadores quieren probar EnergAIzer en las configuraciones de GPU más nuevas y ampliar el maniquí para que pueda aplicarse a muchas GPU que colaboran para ejecutar una carga de trabajo.
«Para positivamente conquistar un impacto en la sostenibilidad, necesitamos una utensilio que pueda proporcionar una opción rápida de estimación de energía en toda la pila, para diseñadores de hardware, operadores de centros de datos y desarrolladores de algoritmos, para que todos puedan ser más conscientes del consumo de energía. Con esta utensilio, hemos poliedro un paso cerca de ese objetivo», afirma Lee.
Esta investigación fue financiada, en parte, por el MIT-IBM Watson AI Lab.