CES 2026 muestra la aparición de la plataforma NVIDIA Rubin, conexo con la probada preparación de Azure para la implementación.
CES 2026 muestra la aparición de la plataforma NVIDIA Rubin, conexo con AzurLa preparación comprobada para el despliegue. La logística de centro de datos de desprendido trascendencia de Microsoft fue diseñada para momentos exactamente como este, donde los sistemas de próxima coexistentes de NVIDIA se integran directamente en una infraestructura que ha anticipado sus requisitos de energía, calor, memoria y redes primaveras ayer que la industria. Nuestra colaboración a desprendido plazo con NVIDIA garantiza que Rubin encaje directamente en el diseño de plataforma descubierta de Azure.
Construir con propósito para el futuro
Los centros de datos de IA de Azure están diseñados para el futuro de la informática acelerada. Esto permite una integración perfecta de los racks NVIDIA Ribera Rubin NVL72 en las superfábricas de IA de próxima coexistentes más grandes de Azure, desde los sitios actuales de Fairwater en Wisconsin y Atlanta hasta ubicaciones futuras.
La infraestructura de IA de NVIDIA más nueva requiere mejoras significativas en energía, refrigeración y optimización del rendimiento; sin incautación, la experiencia de Azure con nuestros sitios de Fairwater y los múltiples ciclos de modernización a lo desprendido de los primaveras demuestran una capacidad para mejorar y expandir de modo flexible la infraestructura de IA de acuerdo con los avances en la tecnología.
La experiencia comprobada de Azure brindando escalera y rendimiento
Microsoft tiene primaveras de experiencia comprobada en el mercado en el diseño e implementación de infraestructura de IA escalable que evoluciona con cada avance importante de la tecnología de IA. Al mismo ritmo que cada coexistentes sucesiva de la infraestructura informática acelerada de NVIDIA, Microsoft integra rápidamente las innovaciones de NVIDIA y las ofrece a escalera. Nuestras primeras implementaciones a gran escalera de las GPU NVIDIA Ampere y Hopper, conectadas a través de NVIDIA Quantum-2 InfiniBand redes, fueron fundamentales para dar vida a modelos como GPT-3.5, mientras que otros grupos establecieron registros de rendimiento de supercomputaciónlo que demuestra que podemos poner en carrera sistemas de próxima coexistentes más rápido y con un rendimiento existente más parada que el resto de la industria.
Revelamos las primeras y mayores implementaciones de uno y otro Nvidia GB200 NVL72 y NVIDIA GB300 NVL72 plataformas, diseñadas como bastidores en supercomputadoras individuales que entrenan modelos de IA dramáticamente más rápido, lo que ayuda a Azure a seguir siendo la mejor opción para los clientes que buscan capacidades avanzadas de IA.
El enfoque de sistemas de Azure
Azure está diseñado para computación, redes, almacenamiento, software e infraestructura, todos trabajando juntos como una plataforma integrada. Así es como Microsoft construye una preeminencia duradera en Azure y ofrece avances en costos y rendimiento que se agravan con el tiempo.
Maximizar la utilización de la GPU requiere optimización en todas las capas. Encima de que Azure puede adoptar tempranamente las nuevas plataformas informáticas aceleradas de NVIDIA, las ventajas de Azure incluso provienen de la plataforma circundante: almacenamiento Blob de parada rendimiento, ubicación de proximidad y diseño a escalera regional moldeado por patrones de producción reales, y capas de orquestación como CycleCloud y AKS sintonizadas para una programación con bajos gastos generales a escalera de clúster masiva.
Impulso celeste y otros motores de descarga eliminan los cuellos de botella de IO, red y almacenamiento para que los modelos escale sin problemas. Un almacenamiento más rápido alimenta clústeres más grandes, una red más sólida los sostiene y la orquestación optimizada mantiene constante el rendimiento de un extremo a otro. Las innovaciones propias refuerzan el circuito: las unidades intercambiadoras de calor de refrigeración líquida mantienen temperaturas térmicas estrictas, el silicio del módulo de seguridad de hardware (HSM) de Azure descarga el trabajo de seguridad y Azure Cobalt ofrece rendimiento y eficiencia excepcionales para tareas informáticas de uso caudillo y adyacentes a IA. Juntas, estas integraciones garantizan que todo el sistema se escale de modo valioso, de modo que las inversiones en GPU brinden el mayor valía.
Este enfoque de sistemas es lo que prepara a Azure para la plataforma Rubin. Estamos entregando nuevos sistemas y estableciendo una plataforma de extremo a extremo que ya está moldeada por los requisitos que trae Rubin.
Operando la plataforma NVIDIA Rubin
Los superchips NVIDIA Ribera Rubin se entregarán Rendimiento de inferencia NVFP4 de 50 PF por chip y 3,6 EF NVFP4 por armaduraa brinco cinco veces sobre sistemas de rack NVIDIA GB200 NVL72.
Azure ya ha incorporado los supuestos arquitectónicos básicos que requiere Rubin:
- Cambio de NVIDIA NVLink: La sexta coexistentes NVIDIA NVLink El tejido esperado en los sistemas Ribera Rubin NVL72 alcanza ~260 TB/s de satisfecho de facción ampliable, y la cimentación en rack de Azure ya ha sido rediseñada para tratar con esas ventajas de satisfecho de facción y topología.
- Redes escalables de parada rendimiento: La infraestructura de IA de Rubin se podio en la red ultrarrápida NVIDIA ConnectX-9 de 1600 Gb/s, proporcionada por la infraestructura de red de Azure, que ha sido diseñada específicamente para aceptar cargas de trabajo de IA a gran escalera.
- Planificación térmica y de densidad HBM4/HBM4e: La pila de memoria Rubin exige ventanas térmicas más estrictas y mayores densidades de rack; La refrigeración, las envolventes de energía y las geometrías de rack de Azure ya se han actualizado para manejar las mismas limitaciones.
- Expansión de memoria impulsada por SOCAMM2: Rubin Superchips utiliza una nueva cimentación de expansión de memoria; La plataforma de Azure ya ha integrado y validado comportamientos de extensión de memoria similares para sostener los modelos alimentados a escalera.
- Escalado de GPU del tamaño de retícula y empaquetado de múltiples troqueles: Rubin pasa a instalarse espacios de GPU enormemente más grandes y diseños de matrices múltiples. La prisión de suministro, el diseño mecánico y las capas de orquestación de Azure se han cabal previamente para estas características de escalamiento físico y deductivo.
El enfoque de Azure en el diseño de plataformas informáticas aceleradas de próxima coexistentes como Rubin se ha demostrado a lo desprendido de varios primaveras e incluye hitos importantes:
- Operado Las implementaciones comerciales de InfiniBand más grandes del mundo. en múltiples generaciones de GPU.
- Construimos capas de confiabilidad y técnicas de administración de la congestión que desbloquean una anciano utilización del clúster y tamaños de trabajo más grandes que los de la competencia, lo que se refleja en nuestra capacidad de divulgar. Puntos de relato a gran escalera líderes en la industria. (Por ejemplo, las ejecuciones de MLPerf multirack que los competidores nunca han replicado).
- Centros de datos de IA codiseñados con Grace Blackwell y Ribera Rubin desde cero para maximizar el rendimiento y el rendimiento por dólar a nivel de clúster.
Principios de diseño que diferencian a Azure
- Edificación de intercambio de pods: Para permitir un servicio rápido, las bandejas del servidor GPU de Azure están diseñadas para poder intercambiarse rápidamente sin requerir un cableado extenso, lo que mejoría el tiempo de actividad.
- Capa de idea de refrigeramiento: Los componentes de parada satisfecho de facción y múltiples matrices de Rubin requieren un espacio térmico sofisticado que Fairwater ya admite, evitando costosos ciclos de amoldamiento.
- Diseño de energía de próxima coexistentes: Ribera Rubin NVL72 exige una densidad de vatios cada vez anciano; El rediseño de energía de varios primaveras de Azure (revisiones del circuito de refrigeramiento neto, escalado de CDU y busways de parada amperaje) garantiza implementabilidad inmediata.
- Modularidad de la superfábrica de IA: Microsoft, a diferencia de otros hiperescaladores, construye regional supercomputadoras en oportunidad de megasitios singulares, lo que permite un impulso general más predecible de nuevos SKU.
Cómo el codiseño genera beneficios para el afortunado
La plataforma NVIDIA Rubin marca un gran paso delante en la computación acelerada, y los centros de datos y superfábricas de IA de Azure ya están diseñados para aprovecharla al mayor. Abriles de codiseño con NVIDIA en interconexiones, sistemas de memoria, sistemas térmicos, empaquetado y cimentación a escalera de rack significan que Rubin se integra directamente en la plataforma de Azure sin obligación de retornar a trabajar. Los supuestos centrales de Rubin ya se reflejan en nuestros principios de diseño de redes, energía, refrigeración, orquestación e intercambio de pods. Esta adscripción brinda a los clientes beneficios inmediatos con una implementación más rápida, un escalamiento más rápido y un impacto más rápido a medida que construyen la próxima era de IA a gran escalera.