Juntos, Microsoft y Nvidia están acelerando algunas de las innovaciones más innovadoras de la IA. Estamos entusiasmados de continuar innovando con varios anuncios nuevos de Microsoft y Nvidia que mejoran aún más nuestra colaboración de pila completa.
Juntos, Microsoft y Nvidia están acelerando algunas de las innovaciones más innovadoras de la IA. Esta larga colaboración ha estado en el centro de la revolución de la IA en los últimos abriles, desde sufrir el rendimiento de la supercomputación líder de la industria en la abundancia hasta respaldar modelos y soluciones fronterizas como ChatGPT en Servicio Microsoft Azure OpenAI y Copilot de Microsoft.
Hoy, hay varios anuncios nuevos de Microsoft y Nvidia que mejoran aún más la colaboración de la pila completa para ayudar a dar forma al futuro de la IA. Esto incluye la integración de la nueva plataforma Nvidia Blackwell con la infraestructura de servicios de IA Azure AI, incorporando Microservicios nvidia nim en Azure ai fundicióny empoderar a los desarrolladores, nuevas empresas y organizaciones de todos los tamaños como NBA, BMW, Dentsu, Cascarrabias y Origenpara acelerar sus innovaciones y resolver los problemas más desafiantes en todos los dominios.
Empoderando a todos los desarrolladores e innovadores con AI AGENIC
Microsoft y Nvidia colaboran profundamente en toda la pila de tecnología, y con el auge de la IA agente, están encantados de compartir varias ofertas nuevas disponibles en Azure ai fundición. Primero es que Azure Ai Foundry ahora ofrece microservicios nvidia nim. NIM proporciona contenedores optimizados para más de dos docenas de modelos de pulvínulo populares, lo que permite a los desarrolladores implementar aplicaciones y agentes generativos de IA rápidamente. Estas nuevas integraciones pueden acelerar las cargas de trabajo de inferencia para los modelos disponibles en Azure, proporcionando mejoras significativas de rendimiento, respaldando en gran medida el uso creciente de los agentes de IA. Las características esencia incluyen el rendimiento del maniquí optimizado para las plataformas informáticas aceleradas por NVIDIA, los microservicios prebuidados implementables en cualquier zona y una precisión mejorada para casos de uso específicos. Encima, pronto estaremos integrando el maniquí de razonamiento de razonamiento Nemotron Nemotron Nvidia Flama. Nvidia Flama Nemotron Reason es una poderosa comunidad de modelos de IA diseñada para un razonamiento progresista.
Epic, una compañía de registros de lozanía electrónica líder, Está planeando emplear la última integración de Nvidia Nim en Azure Ai Foundry, mejorando las aplicaciones de IA para ofrecer mejores resultados de lozanía y pacientes.
El impulso de microservicios NVIDIA NIM en Azure AI Foundry ofrece una forma segura y competente para que EPIC desplegue modelos de IA generativos de código amplio que mejoren la atención al paciente, aumenten la eficiencia del médico y operante, y descubra nuevas ideas para impulsar la innovación médica. En colaboración con UW Health y UC San Diego Health, todavía estamos investigando métodos para evaluar resúmenes clínicos con estos modelos avanzados. Juntos, estamos utilizando la última tecnología de inteligencia industrial de guisa que en realidad mejore la vida de los médicos y pacientes.
Drew McCombs, VP Cloud and Analytics, Epic
Encima, Microsoft todavía está trabajando en estrecha colaboración con NVIDIA para optimizar el rendimiento de inferencia para modelos de lengua de código amplio populares y avalar que estén disponibles en Azure Ai Foundry para que los clientes puedan emplear al mayor los beneficios de rendimiento y eficiencia de los modelos de pulvínulo. La nueva incorporación de esta colaboración es la optimización del rendimiento para los modelos Meta Flama Usando tensorrt-llm. Los desarrolladores ahora pueden usar los modelos de LLAMA optimizados del catálogo de modelos en Azure Ai Foundry para observar mejoras en el rendimiento sin pasos adicionales.
«En Synopsys, confiamos en modelos de IA de vanguardia para impulsar la innovación, y los modelos optimizados de metalama en Azure Ai Foundry han brindado un rendimiento inusual. Hemos manido mejoras sustanciales en el rendimiento y la latencia, lo que nos permite acelerar nuestras cargas de trabajo al tiempo que optimizamos los costos. Estas avanzaciones hacen que la AZure AI manguita una plataforma ideal para progresar la AI de guisa competente». «.». «.». «.
Arun Venkatachar, VP Ingeniería, Synopsys Central Engineering
Al mismo tiempo, Microsoft está entusiasmado de expandir su catálogo de modelos en la fundición de Azure Ai aún más con la añadidura de Mistral Small 3.1, que pronto vendrá, una lectura mejorada de Mistral Small 3, con capacidades multimodales y una largo de contexto extendido de hasta 128k.
Microsoft todavía está anunciando el Disponibilidad universal de Azure Container Apps Unidades de procesamiento de gráficos sin servidor (GPU) con soporte para NVIDIA NIM. Las GPU sin servidor permiten que las empresas, las nuevas empresas y las compañías de ampliación de software ejecutaran las cargas de trabajo de IA sin problemas bajo demanda con escalera cibernética, comienzo en frío optimizado y facturación por segundo con escalera a cero cuando no se usan para estrechar la sobrecarga operativa. Con el apoyo de NVIDIA NIM, los equipos de ampliación pueden construir e implementar fácilmente aplicaciones de IA generativas unido con aplicaciones existentes adentro de la misma red, seguridad y límites de aislamiento.
Expandir la infraestructura de IA de Azure con NVIDIA
La proceso de los modelos de razonamiento y los sistemas de IA agente está transformando el panorama de inteligencia industrial. La infraestructura robusta y especialmente diseñada es esencia para su éxito. Hoy, Microsoft se complace en anunciar el Disponibilidad universal de la serie Azure ND GB200 V6 Supuesto Machine (VM) Acelerado por NVIDIA GB200 NVL72 y Nvidia Quantum Infiniband Networking. Esta añadidura a la cartera de infraestructura Azure AI, unido con las máquinas virtuales existentes que usan NVIDIA H200 y las GPU NVIDIA H100, resaltan el compromiso de Microsoft para optimizar la infraestructura para la próxima ola de tareas de IA complejas como planificación, razonamiento y amoldamiento en tiempo auténtico.
A medida que empujamos los límites de la IA, nuestra asociación con Azure y la preparación de la plataforma Nvidia Blackwell representan un brinco significativo delante. El NVIDIA GB200 NVL72, con su rendimiento y conectividad incomparables, aborda las cargas de trabajo de IA más complejas, lo que permite a las empresas innovar más rápido y de guisa más segura. Al integrar esta tecnología con la infraestructura segura de Azure, estamos desbloqueando el potencial de razonamiento de IA.
Ian Buck, vicepresidente de HyperScale y HPC, Nvidia
La combinación de las GPU NVIDIA de stop rendimiento con redes de red de mengua latencia infiniband y las arquitecturas escalables de Azure son esenciales para manejar el nuevo rendimiento de datos masivos y las demandas intensivas de procesamiento. Encima, la integración integral de las herramientas de seguridad, gobernanza y monitoreo de Azure admite aplicaciones de IA poderosas y confiables que cumplen con los estándares regulatorios.
Construido con el sistema de infraestructura personalizado de Microsoft y la plataforma Nvidia Blackwell, a nivel de centro de datos cada cuchilla presenta dos Nvidia GB200 Grace ™ Blackwell Superchips y NVIDIA NVLINK ™ Switch Las redes de escalera, que admite hasta 72 GPU NVIDIA Blackwell en un solo dominio NVLink. Encima, incorpora lo final Nvidia Quantum InfiniBandpermitiendo progresar a decenas de miles de GPU de Blackwell en Azure, proporcionando dos veces el Rendimiento de supercomputación de IA de generaciones anteriores de GPU basadas en Estudio de narración GEMM.
A medida que el trabajo de Microsoft con Nvidia continúa creciendo y dando forma al futuro de la IA, la compañía todavía dilación traer el rendimiento de NVIDIA Blackwell Intolerante GPU y las NVIDIA RTX Pro 6000 Blackwell Server Edition to Azure. Microsoft está astuto para exhalar las máquinas virtuales basadas en GPU NVIDIA Blackwell Intolerante más tarde en 2025. Estas máquinas virtuales prometen ofrecer un rendimiento y eficiencia excepcionales para la próxima ola de cargas de trabajo de IA agente y generativa.
La infraestructura de Azure AI, descubierta por la computación acelerada de NVIDIA, ofrece constantemente stop rendimiento a escalera para las cargas de trabajo de IA como lo demuestran los principales puntos de narración de la industria como los resultados de supercomputación TOP500 y MLPERF.1,2 Recientemente, las máquinas virtuales de Azure que utilizan las GPU H200 de NVIDIA lograron un rendimiento inusual en el MLPERF Training V4.1 Benchmarks En varias tareas de IA. Azure demostró un rendimiento líder en la abundancia al progresar 512 GPU H200 en un clúster, logrando un 28% de celeridad sobre GPU H100 En el final entrenamiento de MLPERF se ejecuta por MLCommons.3 Esto resalta la capacidad de Azure para progresar eficientemente grandes grupos de GPU. Microsoft está entusiasmado de que los clientes estén utilizando este rendimiento en Azure para entrenar modelos avanzados y obtener eficiencia para la inferencia generativa.
Empoderar a las empresas con la infraestructura de AI Azure
Medida Está entrenando un maniquí de pulvínulo vasto sobre la infraestructura de AI Azure para automatizar la red de extremo a extremo. El rendimiento y el poder de Azure escalarán significativamente la capacitación e inferencia de IA del contador, ayudando en el ampliación de modelos con miles de millones de parámetros a través de configuraciones basadas en texto, telemetría de serie temporal y datos de red estructurados. Con el soporte de Microsoft, los modelos de Meder tienen como objetivo mejorar la forma en que las redes están diseñadas, configuradas y administradas, y aborda un desafío significativo para el progreso.
Laboratorios de la Selva Negrauna nueva empresa de IA generativa con la cometido de desarrollar y avanzar en los modelos de educación profundo de última concepción para los medios, ha ampliado su asociación con Azure. La infraestructura de Servicios de AI Azure ya se está utilizando para implementar sus modelos de flujo insignia, los modelos de medios de texto de texto a imagen más populares del mundo, que sirven a millones de imágenes de inscripción calidad todos los días con velocidad sin precedentes y control creativo. Sobre la pulvínulo de esta pulvínulo, Black Forest Labs adoptará las nuevas máquinas virtuales ND GB200 V6 para acelerar el ampliación y el despliegue de sus modelos AI de próxima concepción, lo que empuja los límites de la innovación en la IA generativa para los medios de comunicación. Black Forest Labs ha sido un socio de Microsoft desde su inicio, trabajando juntos para reforzar la infraestructura más descubierta, competente y escalable para capacitar y entregar sus modelos fronterizos.
Estamos ampliando nuestra asociación con Microsoft Azure para combinar la experiencia de investigación única de BFL en IA generativa con la poderosa infraestructura de Azure. Esta colaboración nos permite construir y ofrecer los mejores modelos de imágenes y videos posibles más rápido y a viejo escalera, proporcionando a nuestros clientes capacidades visuales de IA visuales para la producción de medios, publicidad, diseño de productos, creación de contenido y más allá.
Robin Rombach, CEO, Black Forest Labs
Creación de nuevas posibilidades para innovadores en todas las industrias
Microsoft y Nvidia han arrojado preconfigurado Nvidia omniverse y nvidia Isaac Sim Estaciones de trabajo de escritorio virtuales, y Transmisión de la aplicación Omniverse Kiten el mercado de Azure. Impulsadas por las máquinas virtuales de Azure que utilizan GPU NVIDIA, estas ofertas brindan a los desarrolladores todo lo que necesitan para comenzar a desarrollar y autodesportar aplicaciones y servicios de simulación de mancuernas digitales y robóticos para la era de la IA física. Varios socios del ecosistema de Microsoft y Nvidia, incluidos Máquinas brillantes, Visión cinética, Aparejoy Suave están adoptando estas capacidades para crear soluciones que permitirán la próxima ola de digitalización para los fabricantes del mundo.
Hay muchas soluciones innovadoras construidas por nuevas empresas de IA en Azure. Sistemas opacos Ayuda a los clientes a garantizar sus datos utilizando computación confidencial; Faros ai Proporciona información de ingeniería de software, lo que permite a los clientes optimizar los bienes y mejorar la toma de decisiones, incluida la medición del ROI de sus asistentes de codificación de IA;Bria ai Proporciona una plataforma de IA generativa visual que permite a los desarrolladores usar la concepción de imágenes de IA de guisa responsable, proporcionando modelos de vanguardia capacitados exclusivamente en conjuntos de datos totalmente licenciados; Datos de pangeaestá entregando mejores resultados del paciente al mejorar la detección y el tratamiento en el punto de atención; y Investigación de Basecampestá impulsando el descubrimiento de biodiversidad con IA y extensos conjuntos de datos genómicos.
Experimente las últimas innovaciones de Azure y Nvidia
Los anuncios de hoy en la conferencia NVIDIA GTC AI subrayan el compromiso de Azure de pasar los límites de las innovaciones de IA. Con productos de última concepción, colaboración profunda e integraciones perfectas, continuamos ofreciendo la tecnología que respalda y capacita a los desarrolladores y clientes en el diseño, personalización y implementación de sus soluciones de IA de guisa competente. Obtenga más información en el evento de este año y explore las posibilidades que Nvidia y Azure tienen para el futuro.
- Visítenos en el stand 514 en Nvidia GTC.
Fuentes:
2Trabajo de narración | Puntos de narración MlCommons
3Partes de narración de escalabilidad de IA líder con Microsoft Azure – Signal65