Athrun Data Intelligence


Observe cómo funciona un enfoque de modelos múltiples y las empresas implementaron con éxito este enfoque para aumentar el rendimiento y compendiar costos.

Disfrutar las fortalezas de diferentes modelos de IA y reunirlas en una sola aplicación puede ser una excelente organización para ayudarlo a alcanzar sus objetivos de desempeño. Este enfoque aprovecha el poder de múltiples sistemas de IA para mejorar la precisión y la confiabilidad en escenarios complejos.

En el catálogo de modelos de Microsoft hay más de 1.800 modelos de IA disponibles. Aún más modelos y servicios están disponibles a través de Azure OpenAI Service y Azure AI Foundry, para que pueda encontrar los modelos adecuados para crear su posibilidad de IA óptima.

Veamos cómo funciona un enfoque de modelos múltiples y exploremos algunos escenarios en los que las empresas implementaron con éxito este enfoque para aumentar el rendimiento y compendiar costos.

Cómo funciona el enfoque de modelos múltiples

El enfoque de modelos múltiples implica combinar diferentes modelos de IA para resolver tareas complejas de modo más efectiva. Los modelos se entrenan para diferentes tareas o aspectos de un problema, como la comprensión del jerga, el gratitud de imágenes o el prospección de datos. Los modelos pueden funcionar en paralelo y procesar diferentes partes de los datos de entrada simultáneamente, dirigirse a modelos relevantes o estilarse de diferentes maneras en una aplicación.

Supongamos que desea emparejar un maniquí de visión adecuado con un maniquí de jerga amplio para realizar varias tareas complejas de clasificación de imágenes inmediato con consultas en jerga natural. O tal vez tenga un maniquí pequeño adecuado para producir consultas SQL en el esquema de su pulvínulo de datos y le gustaría emparejarlo con un maniquí más amplio para tareas de propósito más universal, como recuperación de información y afluencia en investigación. En entreambos casos, el enfoque de modelos múltiples podría ofrecerle la adaptabilidad para crear una posibilidad de IA integral que se ajuste a los requisitos particulares de su ordenamiento.

Antiguamente de implementar una organización de modelos múltiples

En primer área, identifique y comprenda el resultado que desea ganar, ya que esto es secreto para decidir e implementar los modelos de IA adecuados. Por otra parte, cada maniquí tiene su propio conjunto de ventajas y desafíos a considerar para cerciorarse de nominar los adecuados para sus objetivos. Hay varios utensilios a considerar ayer de implementar una organización de modelos múltiples, que incluyen:

  • El propósito previsto de los modelos.
  • Los requisitos de la aplicación en cuanto al tamaño del maniquí.
  • Formación y gobierno de modelos especializados.
  • Los distintos grados de precisión necesarios.
  • Gobernanza de la aplicación y modelos.
  • Seguridad y sesgo de modelos potenciales.
  • Costo de los modelos y costo esperado a escalera.
  • El jerga de programación adecuado (consulte DevQualityEval para obtener información actualizada sobre los mejores idiomas para usar con modelos específicos).

El peso que le dé a cada criterio dependerá de factores como sus objetivos, tecnología, capital y otras variables específicas de su ordenamiento.

Veamos algunos escenarios y algunos clientes que han implementado varios modelos en sus flujos de trabajo.

Escena 1: Enrutamiento

El enrutamiento es cuando las tecnologías de inteligencia sintético y formación obligatorio optimizan las rutas más eficientes para casos de uso como centros de llamadas, transporte y más. A continuación se muestran algunos ejemplos:

Enrutamiento multimodal para procesamiento de datos diversos

Una aplicación innovadora del procesamiento de múltiples modelos es enrutar tareas simultáneamente a través de diferentes modelos multimodales que se especializan en procesar tipos de datos específicos como texto, imágenes, sonido y video. Por ejemplo, puede utilizar una combinación de un maniquí más pequeño como GPT-3.5 turbo, con un maniquí de jerga amplio multimodal como GPT-4odependiendo de la modalidad. Este enrutamiento permite que una aplicación procese múltiples modalidades dirigiendo cada tipo de datos al maniquí más adecuado para ello, mejorando así el rendimiento universal y la versatilidad del sistema.

Enrutamiento versado para dominios especializados

Otro ejemplo es el enrutamiento de expertos, donde las indicaciones se dirigen a modelos especializados, o “expertos”, según el dominio o campo específico al que se hace narración en la tarea. Al implementar el enrutamiento versado, las empresas se aseguran de que los diferentes tipos de consultas de los usuarios sean manejados por el maniquí o servicio de IA más adecuado. Por ejemplo, las preguntas de soporte técnico podrían dirigirse a un maniquí capacitado en documentación técnica y tickets de soporte, mientras que las solicitudes de información universal podrían manejarse mediante un maniquí de jerga de propósito más universal.

El enrutamiento versado puede ser particularmente útil en campos como la medicina, donde se pueden ajustar diferentes modelos para manejar temas o imágenes particulares. En área de acatar de un único maniquí amplio, se pueden utilizar varios modelos más pequeños, como Phi-3.5-mini-instrucciones y Phi-3.5-visión-instruir podrían estilarse, cada uno optimizado para un dominio definida como chat o visión, de modo que cada consulta sea manejada por el maniquí versado más apropiado, mejorando así la precisión y relevancia de la salida del maniquí. Este enfoque puede mejorar la precisión de la respuesta y compendiar los costos asociados con el ajuste de modelos grandes.

fabricante de automóviles

Un ejemplo de este tipo de ruta proviene de un gran fabricante de automóviles. Implementaron un maniquí Phi para procesar la mayoría de las tareas básicas rápidamente y al mismo tiempo enrutar tareas más complicadas a un maniquí de jerga amplio como GPT-4o. El maniquí fuera de cadeneta Phi-3 maneja rápidamente la decano parte del procesamiento de datos localmente, mientras que el maniquí en cadeneta GPT proporciona la potencia de procesamiento para consultas más grandes y complejas. Esta combinación ayuda a emplear las capacidades rentables de Phi-3, al tiempo que garantiza que las consultas más complejas y críticas para el negocio se procesen de modo efectiva.

Sabio

Otro ejemplo demuestra cómo los casos de uso específicos de la industria pueden beneficiarse del enrutamiento versado. Sage, líder en contabilidad, finanzas, capital humanos y tecnología de salario para pequeñas y medianas empresas (PYMES), quería ayudar a sus clientes a descubrir eficiencias en los procesos contables y aumentar la productividad a través de servicios impulsados ​​por inteligencia sintético que pudieran automatizar tareas rutinarias y proporcionar información en tiempo auténtico.

Recientemente, Sage implementó Mistral, un maniquí de jerga amplio apto comercialmente, y lo ajustó con datos específicos de contabilidad para encarar las brechas en el maniquí GPT-4 utilizado para su Sage Copilot. Este ajuste permitió a Mistral comprender y contestar mejor a las consultas relacionadas con la contabilidad para poder categorizar las preguntas de los usuarios de modo más efectiva y luego enviarlas a los agentes o sistemas deterministas apropiados. Por ejemplo, mientras que el maniquí de jerga amplio Mistral sagaz para usar podría tener problemas con una pregunta de pronóstico de flujo de efectivo, la lectura optimizada podría dirigir con precisión la consulta a través de datos específicos de Sage y de dominio, asegurando una respuesta precisa. y respuesta relevante para el afortunado.

Escena 2: uso en cadeneta y fuera de cadeneta

Los escenarios en cadeneta y fuera de cadeneta permiten el doble beneficio de juntar y procesar información localmente con un maniquí de IA fuera de cadeneta, así como utilizar un maniquí de IA en cadeneta para conseguir a datos disponibles conjuntamente. En esta configuración, una ordenamiento podría ejecutar un maniquí recinto para tareas específicas en dispositivos (como un chatbot de servicio al cliente), y al mismo tiempo tener golpe a un maniquí en cadeneta que podría proporcionar datos en el interior de un contexto más amplio.

Implementación de maniquí híbrido para dictamen retrete

En el sector de la sanidad, los modelos de IA podrían implementarse de forma híbrida para proporcionar capacidades tanto en cadeneta como fuera de cadeneta. En un ejemplo, un hospital podría utilizar un maniquí de IA fuera de cadeneta para manejar el dictamen auténtico y el procesamiento de datos localmente en dispositivos de IoT. Al mismo tiempo, se podría invertir un maniquí de IA en cadeneta para conseguir a las últimas investigaciones médicas desde bases de datos y revistas médicas basadas en la montón. Mientras que el maniquí fuera de cadeneta procesa la información del paciente localmente, el maniquí en cadeneta proporciona datos médicos disponibles conjuntamente. Esta combinación en cadeneta y fuera de cadeneta ayuda a certificar que el personal pueda realizar eficazmente las evaluaciones de sus pacientes y al mismo tiempo beneficiarse del golpe a los últimos avances en investigación médica.

Sistemas de hogar inteligente con IA recinto y en la montón

En los sistemas de hogares inteligentes, se pueden utilizar múltiples modelos de IA para ejecutar tareas tanto en cadeneta como fuera de cadeneta. Se puede integrar un maniquí de IA fuera de cadeneta en el interior de la red doméstica para controlar funciones básicas como iluminación, temperatura y sistemas de seguridad, lo que permite una respuesta más rápida y permite que los servicios esenciales funcionen incluso durante cortes de Internet. Mientras tanto, se puede utilizar un maniquí de IA en cadeneta para tareas que requieren golpe a servicios basados ​​en la montón para actualizaciones y procesamiento reformista, como el gratitud de voz y la integración de dispositivos inteligentes. Este enfoque dual permite que los sistemas domésticos inteligentes mantengan operaciones básicas de forma independiente mientras aprovechan las capacidades de la montón para funciones y actualizaciones mejoradas.

Escena 3: combinación de modelos más amplios y específicos de tareas

Las empresas que buscan optimizar el parquedad de costos podrían considerar combinar una pequeño pero poderoso SLM para tareas específicas como fi-3 con un maniquí de jerga amplio y robusto. Una forma en que esto podría funcionar es mediante el despliegue de Phi-3, uno de La grupo de Microsoft de modelos de jerga pequeños y potentes con un rendimiento renovador a bajo costo y descenso latencia, en escenarios de computación de vanguardia o aplicaciones con requisitos de latencia más estrictos, inmediato con la potencia de procesamiento de un maniquí más amplio como GPT.

Por otra parte, Phi-3 podría servir como filtro auténtico o sistema de clasificación, manejando consultas sencillas y escalando solo solicitudes más matizadas o desafiantes a modelos GPT. Este enfoque escalonado ayuda a optimizar la eficiencia del flujo de trabajo y compendiar el uso innecesario de modelos más caros.

Al crear cuidadosamente una configuración de modelos pequeños y grandes complementarios, las empresas pueden potencialmente ganar un rendimiento rentable adaptado a sus casos de uso específicos.

Capacidad

Capacidad Motor de respuesta impulsado por IA® recupera respuestas exactas para los usuarios en segundos. Al emplear las tecnologías de IA de vanguardia, Capacidad brinda a las organizaciones un asistente de investigación de IA personalizado que puede ascender sin problemas en todos los equipos y departamentos. Necesitaban una modo de ayudar a despersonalizar diversos conjuntos de datos y hacer que la información fuera más fácilmente accesible y comprensible para sus clientes. Al emplear Phi, Capacidad pudo proporcionar a las empresas una posibilidad eficaz de gobierno del conocimiento de IA que restablecimiento la accesibilidad a la información, la seguridad y la eficiencia operativa, ahorrando tiempo y molestias a los clientes. Tras la implementación exitosa de Phi-3-Medium, Capacidad ahora está probando con entusiasmo el maniquí Phi-3.5-MOE para su uso en producción.

Nuestro compromiso con una IA confiable

Organizaciones de todos los sectores están aprovechando las capacidades de Azure AI y Copilot para impulsar el crecimiento, aumentar la productividad y crear experiencias de valía adjunto.

Estamos comprometidos a ayudar a las organizaciones a utilizar y desarrollar IA que es confiablelo que significa que es seguro, privado y protegido. Aportamos las mejores prácticas y aprendizajes de décadas de investigación y creación de productos de IA a escalera para alabar compromisos y capacidades líderes en la industria que abarcan nuestros tres pilares de seguridad, privacidad y protección. Una IA confiable solo es posible cuando se combinan nuestros compromisos, como nuestra Iniciativa Futuro Seguro y nuestros principios de IA Responsable, con las capacidades de nuestros productos para desbloquear la transformación de la IA con confianza.

Comience a usar Azure AI Foundry

Para obtener más información sobre cómo mejorar la confiabilidad, la seguridad y el rendimiento de sus inversiones en la montón y en IA, explore los capital adicionales a continuación.

  • Deletrear sobre Phi-3-minique funciona mejor que algunos modelos que duplican su tamaño.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *