Athrun Data Intelligence


Resumiendo las nuevas capacidades de este mes en toda la cartera de IA de Azure que brindan mayores opciones y flexibilidad para crear y prosperar soluciones de IA.

Más de 60.000 clientes, incluidos AT&T, H&R Block, Volvo, Grammarly, Harvey, Leya y más, aprovechan Microsoft Azure AI para impulsar la transformación de la IA. Estamos entusiasmados de ver la creciente apadrinamiento de la IA en industrias y empresas grandes y pequeñas. Este blog resume las nuevas capacidades en Portafolio de IA de Azure que brindan mayores opciones y flexibilidad para construir y prosperar soluciones de IA. Las actualizaciones esencia incluyen:

Zonas de datos de Azure OpenAI para Estados Unidos y la Unión Europea

Estamos encantados de anunciar Zonas de datos de Azure OpenAIuna nueva opción de implementación que brinda a las empresas aún más flexibilidad y control sobre sus micción de residencia y privacidad de datos. Las zonas de datos, diseñadas para organizaciones en los Estados Unidos y la Unión Europea, permiten a los clientes procesar y acumular sus datos en el interior de límites geográficos específicos, lo que garantiza el cumplimiento de los requisitos regionales de residencia de datos y al mismo tiempo mantiene un rendimiento magnífico. Al englobar múltiples regiones en el interior de estas áreas, las zonas de datos ofrecen un firmeza entre la rentabilidad de las implementaciones globales y el control de las implementaciones regionales, lo que facilita a las empresas la diligencia de sus aplicaciones de IA sin inmolar la seguridad o la velocidad.

Esta nueva característica simplifica la tarea, a menudo compleja, de regir la residencia de datos al ofrecer una posibilidad que permite un maduro rendimiento y un ataque más rápido a los últimos modelos de IA, incluida la innovación más fresco del servicio Azure OpenAI. Las empresas ahora pueden exprimir la sólida infraestructura de Azure para prosperar de forma segura sus soluciones de IA y al mismo tiempo cumplir con los estrictos requisitos de residencia de datos. Data Zones está arreglado para Habitual (PayGo) y próximamente para Aprovisionado.

interfaz gráfica de usuario, aplicación

Actualizaciones del servicio Azure OpenAI

A principios de este mes, anunciamos Disponibilidad caudillo de Azure OpenAI Batch API para implementaciones globales. Con Azure OpenAI Batch API, los desarrolladores pueden regir tareas de procesamiento a gran escalera y de gran bombeo de modo más eficaz con cuotas separadas, un tiempo de respuesta de 24 horas y un costo un 50 % último que Standard Total. Ontada, una entidad en el interior de McKesson, ya está aprovechando Batch API para procesar un gran bombeo de datos de pacientes en centros de oncología de Estados Unidos de modo eficaz y rentable.

”Ontada se encuentra en una posición única para alabar servicios a proveedores, pacientes y socios de ciencias biológicas con conocimientos basados ​​en datos. Aprovechamos la API Azure OpenAI Batch para procesar decenas de millones de documentos no estructurados de modo eficaz, mejorando nuestra capacidad de extraer información clínica valiosa. Lo que habría llevado meses procesar ahora tarda sólo una semana. Esto progreso significativamente la praxis de la medicina basada en evidencia y acelera la I+D de productos de ciencias biológicas. Al asociarnos con Microsoft, estamos avanzando en la investigación oncológica impulsada por la IA, con el objetivo de ganar avances en la atención personalizada del cáncer y el incremento de fármacos”. — Sagran Moodley, director de innovación y tecnología, Ontada

Igualmente hemos autorizado Almacenamiento en personalidad rápido para los modelos o1-preview, o1-mini, GPT-4o y GPT-4o-mini en el servicio Azure OpenAI. Con Prompt Caching, los desarrolladores pueden optimizar los costos y la latencia al reutilizar tokens de entrada vistos recientemente. Esta característica es particularmente útil para aplicaciones que usan el mismo contexto repetidamente, como la impresión de código o largas conversaciones con chatbots. El almacenamiento en personalidad rápido ofrece una 50% de descuento en tokens de entrada almacenados en personalidad en proposición standard y tiempos de procesamiento más rápidos.

Para la proposición de implementación mundial aprovisionada, estamos reduciendo la cantidad de implementación auténtico para los modelos GPT-4o a 15 unidades de rendimiento aprovisionadas (PTU) con incrementos adicionales de 5 PTU. Igualmente estamos reduciendo el precio de Provisioned Total Hourly en un 50 % para ampliar el ataque al servicio Azure OpenAI. Obtenga más información aquí sobre la diligencia de costos para las implementaciones de IA.

Adicionalmente, estamos introduciendo un acuerdo de nivel de servicio (SLA) de latencia del 99 % para la reproducción de tokens. Este SLA de latencia garantiza que los tokens se generen a velocidades más rápidas y consistentes, especialmente en grandes volúmenes.

Nuevos modelos y personalización.

Seguimos ampliando la votación de modelos con la incorporación de nuevos modelos al catálogo de modelos. Tenemos varios modelos nuevos disponibles este mes, incluidos Modelos de la industria sanitaria y modelos de Mistral y Cohere. Igualmente anunciamos capacidades de personalización para la comunidad de modelos Phi-3.5.

  • Modelos de la industria sanitariaque comprende modelos avanzados de imágenes médicas multimodales que incluyen MedImageInsight para observación de imágenes, MedImageParse para segmentación de imágenes entre modalidades de imágenes y CXRReportGen. que pueden crear informes estructurados detallados. Desarrollados en colaboración con Microsoft Research y socios de la industria, estos modelos están diseñados para que las organizaciones de atención médica los ajusten y personalicen para satisfacer micción específicas, reduciendo los requisitos computacionales y de datos que normalmente se necesitan para construir dichos modelos desde cero. Explora hoy en Catálogo de modelos de IA de Azure.
  • Ministral 3B de Mistral AI: Ministral 3B representa un avance significativo en la categoría sub-10B, centrándose en el conocimiento, el razonamiento de sentido popular, la citación a funciones y la eficiencia. Con soporte para una distancia de contexto de hasta 128k, estos modelos están diseñados para una amplia serie de aplicaciones, desde la orquestación de flujos de trabajo agentes hasta el incremento de trabajadores de tareas especializados. Cuando se utiliza anejo con modelos de habla más grandes como Mistral Large, Ministral 3B puede servir como intermediario eficaz para la citación de funciones en flujos de trabajo agentes de varios pasos.
  • Cohere Insertar 3: Embed 3, el maniquí de búsqueda de IA de Cohere líder en la industria, ahora está arreglado en el catálogo de modelos de IA de Azure, ¡y es multimodal! Con la capacidad de crear incrustaciones tanto de texto como de imágenes, Embed 3 ofrece un valencia significativo para las empresas al permitirles agenciárselas y analizar sus grandes cantidades de datos, sin importar el formato. Esta puesta al día posiciona a Embed 3 como el maniquí de integración multimodal más potente y capaz del mercado, transformando la forma en que las empresas buscan en activos complejos como informes, catálogos de productos y archivos de diseño.
  • Ajuste de la disponibilidad caudillo para la comunidad Phi 3.5incluidos Phi-3.5-mini y Phi-3.5-MoE. Los modelos de la comunidad Phi son muy adecuados para la personalización y mejorar el rendimiento del maniquí cojín en una variedad de escenarios, incluido el enseñanza de una nueva diplomacia o tarea o la progreso de la coherencia y la calidad de la respuesta. Dada su pequeña huella informática, así como su compatibilidad con la estrato y el borde, los modelos Phi-3.5 ofrecen una alternativa rentable y sostenible en comparación con modelos del mismo tamaño o del ulterior tamaño. Ya estamos viendo la apadrinamiento de la comunidad Phi-3.5 para casos de uso que incluyen razonamiento de vanguardia, así como escenarios no conectados. Los desarrolladores pueden perfeccionar Phi-3.5-mini y Phi-3.5-MoE hoy a través del maniquí como plataforma que ofrece y utiliza un punto final sin servidor.
interfaz gráfica de usuario

Expansión de aplicaciones de IA

Estamos construyendo Azure AI para que sea una plataforma modular abierta, de modo que los desarrolladores puedan acaecer rápidamente de la idea al código y a la estrato. Los desarrolladores ahora pueden explorar y penetrar a los modelos de Azure AI directamente a través de GitHub Marketplace a través de la API de inferencia de modelos de Azure AI. Los desarrolladores pueden probar diferentes modelos y comparar el rendimiento del maniquí en el patio de recreo de forma gratuita (se aplican límites de uso) y cuando esté diligente para personalizar e implementar, los desarrolladores pueden configurar e iniciar sesión sin problemas a su cuenta de Azure para prosperar desde el uso de token de balde hasta puntos finales pagos con seguridad y monitoreo de nivel empresarial sin cambiar mínimo más en el código.

Igualmente anunciamos Plantillas de aplicaciones de IA para acelerar el incremento de aplicaciones de IA. Los desarrolladores pueden usar estas plantillas en GitHub Codespaces, VS Code y Visual Studio. Las plantillas ofrecen flexibilidad con varios modelos, marcos, lenguajes y soluciones de proveedores como Arize, LangChain, LlamaIndex y Pinecone. Los desarrolladores pueden implementar aplicaciones completas o comenzar con componentes, aprovisionando medios en Azure y servicios de socios.

Nuestra comisión es capacitar a todos los desarrolladores de todo el mundo para que construyan con IA. Con estas actualizaciones, los desarrolladores pueden comenzar rápidamente en su entorno preferido, nominar la opción de implementación que mejor se adapte a sus micción y prosperar las soluciones de IA con confianza.

Nuevas funciones para crear aplicaciones de IA seguras y listas para la empresa

En Microsoft, nos centramos en ayudar a los clientes a utilizar y crear IA que es confiablees proponer, IA que es segura, protegida y privada. Hoy, me complace compartir dos nuevas capacidades para crear y prosperar soluciones de IA con confianza.

El catálogo de modelos de Azure AI ofrece más de 1700 modelos para que los desarrolladores exploren, evalúen, personalicen e implementen. Si admisiblemente esta amplia selección potencia la innovación y la flexibilidad, asimismo puede presentar desafíos importantes para las empresas que desean certificar que todos los modelos implementados se alineen con sus políticas internas, estándares de seguridad y requisitos de cumplimiento. Ahora, los administradores de Azure AI pueden use políticas de Azure para aprobar previamente modelos seleccionados para su implementación del catálogo de modelos de Azure AI, simplificando los procesos de gobernanza y selección de modelos. Esto incluye políticas prediseñadas para implementaciones de modelos como servicio (MaaS) y modelos como plataforma (MaaP), mientras que una timonel detallada facilita la creación de políticas personalizadas para el servicio Azure OpenAI y otros servicios de IA. Juntas, estas políticas brindan cobertura completa para crear una serie de modelos permitidos y hacerla cumplir en todo Educación instintivo de Azure y Estudio de IA de Azure.

Para personalizar modelos y aplicaciones, es posible que los desarrolladores necesiten ataque a medios ubicados localmente, o incluso a medios que no son compatibles con puntos de conexión privados pero que aún se encuentran en su red imaginario de Azure (VNET) personalizada. Puerta de enlace de aplicaciones es un equilibrador de carga que toma decisiones de enrutamiento en función de la URL de una solicitud HTTPS. Application Gateway admitirá una conexión privada desde la VNET administrada a cualquier solicitud mediante el protocolo HTTP o HTTP. Hoy en día, se ha verificado que admite una conexión privada a Jfrog Artifactory, Snowflake Database y API privadas. Con Application Gateway en Azure Machine Learning y Azure AI Studioahora arreglado en traducción preliminar pública, los desarrolladores pueden penetrar a medios VNET locales o personalizados para sus escenarios de capacitación, ajuste e inferencia sin comprometer su postura de seguridad.

Comience hoy con Azure AI

Han sido seis meses increíbles aquí en Azure AI, brindando innovación en IA de última reproducción, viendo a los desarrolladores crear experiencias transformadoras utilizando nuestras herramientas y aprendiendo de nuestros clientes y socios. Estoy emocionado por lo que viene a posteriori. Únase a nosotros en Microsoft enciende 2024 para escuchar lo postrer de IA cerúleo.

Bienes adicionales:



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *