Athrun Data Intelligence


2025 fue un año fundamental para Azure Storage y nos dirigimos cerca de 2026 con un claro enfoque en ayudar a los clientes a convertir la IA en un impacto actual.

2025 fue un año crucial en Almacenamiento azury nos dirigimos cerca de 2026 con un claro enfoque en ayudar a los clientes a convertir la IA en un impacto actual. Como se describió en el crónica del pasado mes de diciembre Innovaciones de Azure Storage: desbloqueando el futuro de los datosAzure Storage está evolucionando como una plataforma inteligente unificada que admite el ciclo de vida completo de la IA a escalera empresarial con el rendimiento que exigen las cargas de trabajo modernas.

De cara al 2026, nuestras inversiones abarcan todo ese ciclo de vida a medida que la IA se vuelve fundamental en todas las industrias. Estamos mejorando el rendimiento del almacenamiento para la capacitación de modelos de frontera, brindando soluciones diseñadas específicamente para inferencias de IA a gran escalera y aplicaciones agentes emergentes, y potenciando las aplicaciones nativas de la abundancia para ejecutar a escalera agente. Paralelamente, estamos simplificando la apadrinamiento de cargas de trabajo de cometido crítica, reduciendo el TCO y profundizando las asociaciones para diseñar conjuntamente soluciones optimizadas para IA con nuestros clientes.

Agradecemos a nuestros clientes y socios por su confianza y colaboración, y estamos emocionados de dar forma juntos al próximo capítulo de Azure Storage en el próximo año.

Extendiendo del entrenamiento a la inferencia

Las cargas de trabajo de IA se extienden desde el entrenamiento de modelos grandes y centralizados hasta la inferencia a escalera, donde los modelos se aplican continuamente en todos los productos, flujos de trabajo y toma de decisiones en el mundo actual. La capacitación de LLM continúa ejecutándose en Azure y estamos invirtiendo para mantenernos a la vanguardia mediante la ampliación de la escalera, la mejoría del rendimiento y la optimización de cómo los archivos de maniquí, los puntos de control y los conjuntos de datos de capacitación fluyen a través del almacenamiento.

Las innovaciones que ayudaron a OpenAI a ejecutar a una escalera sin precedentes ahora están disponibles para todas las empresas. Cuentas escaladas de blobs Permitir que el almacenamiento escale en cientos de unidades de escalera adentro de una región, manejando millones de objetos necesarios para permitir que los datos empresariales se utilicen como conjuntos de datos de entrenamiento y ajuste para la IA aplicada. Nuestro asociación con NVIDIA DGX en Azure muestra que la escalera se traduce en inferencias del mundo actual. La abundancia DGX fue diseñada conjuntamente para ejecutarse en Azure, combinando computación acelerada con almacenamiento de suspensión rendimiento. Fama administrado por Azure (AMLFS), para respaldar aplicaciones de investigación, automovilismo y robótica de LLM. AMLFS ofrece la mejor relación precio-rendimiento para apoyar las flotas de GPU alimentadas continuamente. Recientemente lanzamos soporte de lectura preliminar para 25 espacios de nombres PiB y hasta 512 GBps de rendimiento, lo que hace que AMLFS sea la mejor implementación de Fama administrada en la abundancia de su clase.

De cara al futuro, estamos profundizando la integración entre marcos populares de IA propios y de terceros, como Fundición de MicrosoftRay, cualquier escalera y LangChainlo que permite conexiones perfectas a Azure Storage listas para usar. nuestro nativo Integración de Azure Blob Storage adentro de Foundry permite la consolidación de datos empresariales en Foundry IQ, lo que hace que el almacenamiento de blobs sea la capa fundamental para fundamentar el conocimiento empresarial, ajustar los modelos y ofrecer un contexto de quebranto latencia para la inferencia, todo ello bajo los controles de seguridad y gobernanza del inquilino.

Desde el entrenamiento hasta la inferencia a gran escalera, Azure Storage admite todo el ciclo de vida del agente: desde la distribución capaz de archivos de modelos grandes, el almacenamiento y la recuperación de contexto de larga duración, hasta el suministro de datos desde almacenes de vectores RAG. Al optimizar cada patrón de un extremo a otro, Azure Storage tiene soluciones de suspensión rendimiento para cada etapa de la inferencia de IA.

Aplicaciones nativas de la abundancia en proceso para escalamiento agente

A medida que la inferencia se convierte en la carga de trabajo de IA dominante, los agentes autónomos están remodelando la forma en que las aplicaciones nativas de la abundancia interactúan con los datos. A diferencia de los sistemas controlados por humanos con patrones de consulta predecibles, los agentes operan continuamente y emiten un orden de magnitud más de consultas que los usuarios tradicionales. Este aumento en la simultaneidad presiona las bases de datos y las capas de almacenamiento, lo que empuja a las empresas a repensar cómo diseñan nuevas aplicaciones nativas de la abundancia.

Azure Storage se está construyendo con líderes de SaaS como Servicio ahora, Ladrillos de datosy Elástico para optimizar la escalera agente aprovechando nuestra cartera de almacenamiento en bloques. Pensando en el futuro, SAN elástico se convierte en un componente central para estas cargas de trabajo nativas de la abundancia, comenzando con la transformación de Microsoft soluciones de bases de datos propias. Ofrece grupos de almacenamiento en bloques totalmente administrados para diferentes cargas de trabajo para compartir bienes aprovisionados con barreras de seguridad para encajar datos de múltiples inquilinos. Estamos superando los límites de las unidades de escalera máxima para permitir capacidades y empaquetamientos más densos para que los proveedores de SaaS administren patrones de tráfico agente.

A medida que las cargas de trabajo nativas de la abundancia adoptan Kubernetes para progresar rápidamente, estamos simplificando el explicación de aplicaciones con estado a través de nuestro orquestador de almacenamiento nativo de Kubernetes. Almacenamiento de contenedores de Azure (ACStor) adjunto con los controladores CSI. Nuestro impulso fresco de ACStor señala dos cambios direccionales que guiarán las próximas inversiones: adoptar el maniquí de cirujano de Kubernetes para realizar una orquestación más compleja y rajar el código pulvínulo para colaborar e innovar con la comunidad de Kubernetes en caudillo.

En conjunto, estas inversiones establecen una pulvínulo sólida para la próxima procreación de aplicaciones nativas de la abundancia donde el almacenamiento debe progresar sin problemas y ofrecer adhesión eficiencia para servir como plataforma de datos para sistemas de escalera agente.

Rompiendo las barreras de precio-rendimiento para cargas de trabajo de cometido crítica

Encima de la proceso de las cargas de trabajo de IA, las empresas continúan aumentando sus cargas de trabajo de cometido crítica en Azure.

SAP y Microsoft se están asociando para expandir el rendimiento central de SAP al tiempo que presentan agentes impulsados ​​por IA como Joule que enriquecen Microsoft 365 Copilot con contexto empresarial. Los últimos avances de la serie M de Azure añaden un importante beneficio de ampliación para SAP HANA. elevando el rendimiento del almacenamiento en disco a ~780k IOPS y 16 GB/s de rendimiento. Para el almacenamiento compartido, Azure NetApp Files (ANF) y Azure Premium Files ofrecen las bases NFS/SMB de suspensión rendimiento en las que confían los entornos SAP, al tiempo que optimizan el TCO con ANF Flexible Service Level y Azure Files Provisioned v2. Próximamente, presentaremos el nivel de servicio de almacenamiento Elastic ZRS en ANF, brindando adhesión disponibilidad con sobra de zona y rendimiento consistente a través de replicación sincrónica entre zonas de disponibilidad aprovechando la inmueble ZRS de Azure, sin complejidad operativa adicional.

De forma similar, los Intolerante Disks se han vuelto fundamentales para plataformas como Aladdin de BlackRockque debe reaccionar instantáneamente a los cambios del mercado y apoyar un suspensión rendimiento bajo carga pesada. Con una latencia promedio muy inferior a 500 microsegundos, compatibilidad con 400 000 IOPS y un rendimiento de 10 GB/s, los Intolerante Disks permiten un cálculo de riesgos más rápido, una trámite de cartera más ágil y un rendimiento resistente en los días de maduro comba de operaciones de BlackRock. Cuando se combinan con máquinas virtuales Ebsv6, los Intolerante Disks pueden alcanzar 800 000 IOPS y 14 GB/s para las cargas de trabajo de cometido crítica más exigentes. Y con un aprovisionamiento flexible, los clientes pueden ajustar el rendimiento con precisión a sus evacuación mientras optimizan el TCO.

Estas inversiones combinadas brindan a las empresas una plataforma más resistente, escalable y rentable para sus cargas de trabajo más críticas.

Diseño para nuevas realidades de energía y suministro.

El aumento general de la IA está poniendo a prueba las redes eléctricas y las cadenas de suministro de hardware. Los crecientes costos de energía, los presupuestos ajustados de los centros de datos y la escasez de HDD/SSD en toda la industria significan que las organizaciones no pueden progresar la infraestructura simplemente agregando más hardware. El almacenamiento debe volverse más capaz e inteligente por diseño.

Estamos optimizando toda la pila para maximizar el rendimiento del hardware con una sobrecarga mínima. Combinado con compensación de carga inteligente y niveles rentables, estamos en una posición única para ayudar a los clientes a progresar el almacenamiento de forma sostenible incluso cuando la disponibilidad de energía y hardware se convierte en limitaciones estratégicas. Con continuas innovaciones en Unidades de procesamiento de datos de Azure Boost (DPU), esperamos ganancias de la función escalonada en la velocidad de almacenamiento y alimenta con un consumo de energía por pelotón aún pequeño.

Los canales de IA pueden cubrir instalaciones locales, clústeres de GPU neo-nube y la abundancia, pero muchos de estos entornos están limitados por la capacidad de energía o el suministro de almacenamiento. Cuando estos límites se convierten en un cuello de botella, facilitamos el cambio de cargas de trabajo a Azure. Estamos invirtiendo en integraciones que conviertan los conjuntos de datos externos en ciudadanos de primera clase en Azure, permitiendo un paso fluido a datos de capacitación, ajuste e inferencia dondequiera que se encuentren. A medida que el almacenamiento en la abundancia evoluciona cerca de conjuntos de datos listos para la IA, Azure Storage presenta experiencias seleccionadas y optimizadas para simplificar la forma en que los clientes introducen datos en los servicios de IA posteriores.

Acelerar las innovaciones a través del ecosistema de socios de almacenamiento

No podemos hacer esto solos. Azure Storage colabora estrechamente con socios estratégicos para admitir el rendimiento de la inferencia al sucesivo nivel. Encima de las capacidades de autoedición disponibles en Azure Marketplace, vamos un paso más allá al enfrascarse bienes con experiencia a diseñar conjuntamente soluciones con socios para crear servicios mucho optimizados y profundamente integrados.

En 2026, verá más soluciones de ingeniería conjunta como Nimbo de Commvault para Azure, Dell PowerScale, Qumulo nativo de Azure, Nimbo de almacenamiento puro, Cúpula de la abundancia de Rubriky Nimbo de datos de Veeam. Nos centraremos en soluciones híbridas con socios como Datos VAST y empresa para permitir el movimiento de datos que desbloquea el poder de la infraestructura y los servicios de IA de Azure, impulsando iniciativas impactantes de agentes y aplicaciones de IA de los clientes.

Por un año nuevo emocionante con Azure Storage

A medida que nos acercamos al año 2026, nuestra visión sigue siendo simple: ayudar a cada cliente a obtener más valencia de sus datos con un almacenamiento más rápido, más inteligente y diseñado para el futuro. Ya sea impulsando la IA, escalando aplicaciones nativas de la abundancia o respaldando cargas de trabajo de cometido crítica, Azure Storage está aquí para ayudarlo a innovar con confianza en el próximo año.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *