Hoy nos complace anunciar que Mistral-NeMo-Almohadilla-2407 y Mistral-NeMo-Instrucción-2407—doce mil millones de modelos de lengua de gran tamaño de parámetros de Mistral AI que sobresalen en la coexistentes de texto, están disponibles para los clientes a través de Inicio rápido de Amazon SageMaker. Puede probar estos modelos con SageMaker JumpStart, un centro de educación inconsciente (ML) que brinda golpe a algoritmos y modelos que se pueden implementar con un solo clic para ejecutar inferencia. En esta publicación, explicamos cómo descubrir, implementar y utilizar los modelos Mistral-NeMo-Instruct-2407 y Mistral-NeMo-Almohadilla-2407 para una variedad de casos de uso del mundo vivo.
Descripción militar de Mistral-NeMo-Instruct-2407 y Mistral-NeMo-Almohadilla-2407
Mistral Nemoun potente maniquí de parámetros de 12B desarrollado mediante la colaboración entre Mistral AI y NVIDIA y valiente bajo la inmoralidad Apache 2.0, ahora está arreglado en SageMaker JumpStart. Este maniquí representa un avance significativo en las capacidades y accesibilidad de la IA multilingüe.
Funciones y capacidades secreto
Mistral NeMo presenta una ventana de contexto de token de 128k, lo que permite el procesamiento de contenido extenso y extenso. El maniquí demuestra un sólido rendimiento en razonamiento, conocimiento mundial y precisión de codificación. Tanto los puntos de control básicos previamente entrenados como los ajustados por instrucciones están disponibles bajo la inmoralidad Apache 2.0, lo que los hace accesibles para investigadores y empresas. El entrenamiento consciente de la cuantificación del maniquí facilita un rendimiento magnífico de la inferencia del FP8 sin comprometer la calidad.
Soporte multilingüe
Mistral NeMo está diseñado para aplicaciones globales, con un sólido rendimiento en varios idiomas, incluidos inglés, francés, teutónico, castellano, italiano, portugués, chino, japonés, coreano, árabe e hindi. Esta capacidad multilingüe, combinada con la señal de funciones integrada y una amplia ventana de contexto, ayuda a que la IA avanzadilla sea más accesible en diversos paisajes lingüísticos y culturales.
Tekken: tokenización avanzadilla
El maniquí utiliza Tekken, un tokenizador reformador basado en tiktoken. Tekken, formado en más de 100 idiomas, ofrece una eficiencia de compresión mejorada para texto y código fuente en lengua natural.
Descripción militar de SageMaker JumpStart
SageMaker JumpStart es un servicio totalmente administrado que ofrece modelos básicos de última coexistentes para diversos casos de uso, como redacción de contenido, coexistentes de código, respuesta a preguntas, redacción, prontuario, clasificación y recuperación de información. Proporciona una colección de modelos previamente entrenados que puede implementar rápidamente, acelerando el crecimiento y la implementación de aplicaciones de educación inconsciente. Uno de los componentes secreto de SageMaker JumpStart es Model Hub, que ofrece un amplio catálogo de modelos previamente entrenados, como DBRX, para una variedad de tareas.
Ahora puede descubrir e implementar los dos modelos Mistral NeMo con unos pocos clics en Amazon SageMaker Estudio o mediante programación a través del SDK de Python de SageMaker, lo que le permite derivar controles de rendimiento del maniquí y operaciones de educación inconsciente (MLOps) con Amazon SageMaker características tales como Canalizaciones de Amazon SageMaker, Depurador de Amazon SageMakero registros de contenedor. El maniquí se implementa en un entorno seguro de AWS y bajo los controles de su estrato privada supuesto (VPC), lo que ayuda a respaldar la seguridad de los datos.
Requisitos previos
Para probar los dos modelos NeMo en SageMaker JumpStart, necesitará los siguientes requisitos previos:
Descubra los modelos Mistral NeMo en SageMaker JumpStart
Puede alcanzar a los modelos NeMo a través de SageMaker JumpStart en la interfaz de afortunado de SageMaker Studio y el SDK de SageMaker Python. En esta sección, repasamos cómo descubrir los modelos en SageMaker Studio.
SageMaker Studio es un entorno de crecimiento integrado (IDE) que proporciona una única interfaz visual basada en web donde puede alcanzar a herramientas diseñadas específicamente para realizar pasos de crecimiento de ML, desde la preparación de datos hasta la creación, el entrenamiento y la implementación de sus modelos de ML. Para obtener más detalles sobre cómo comenzar y configurar SageMaker Studio, consulte Amazon SageMaker Estudio.
En SageMaker Studio, puede alcanzar a SageMaker JumpStart eligiendo Iniciar en el panel de navegación.
Entonces elige AbrazosCara.
Desde la página de inicio de SageMaker JumpStart, puede despabilarse NeMo en el cuadro de búsqueda. Los resultados de la búsqueda mostrarán Instrucción Mistral NeMo y Almohadilla Mistral NeMo.
Puede nominar la maleable de maniquí para ver detalles sobre el maniquí, como la inmoralidad, los datos utilizados para entrenar y cómo utilizar el maniquí. Asimismo encontrarás el Desplegar para implementar el maniquí y crear un punto final.
Implementar el maniquí en SageMaker JumpStart
La implementación comienza cuando elige el retoño Implementar. Una vez finalizada la implementación, verá que se crea un punto final. Puede probar el punto final pasando una carga útil de solicitud de inferencia de muestra o seleccionando la opción de prueba mediante el SDK. Cuando seleccione la opción para usar el SDK, verá un código de ejemplo que puede usar en el editor de cuaderno de su alternativa en SageMaker Studio.
Implementar el maniquí con SageMaker Python SDK
Para implementar usando el SDK, comenzamos seleccionando el maniquí Mistral NeMo Almohadilla, especificado por el model_id
con el valía huggingface-llm-mistral-nemo-base-2407
. Puede implementar su alternativa de los modelos seleccionados en SageMaker con el subsiguiente código. De modo similar, puede implementar NeMo Instruct usando su propia ID de maniquí.
Esto implementa el maniquí en SageMaker con configuraciones predeterminadas, incluido el tipo de instancia predeterminado y las configuraciones de VPC predeterminadas. Puede cambiar estas configuraciones especificando títulos no predeterminados en JumpStartModelo. El valía del CLUF debe definirse explícitamente como Efectivo para aceptar el acuerdo de inmoralidad de afortunado final (CLUF). Asimismo asegúrese de tener el meta de servicio a nivel de cuenta para usar ml.g6.12xlarge
para uso de endpoints como una o más instancias. Puedes seguir las instrucciones en Cuotas de servicio de AWS para solicitar un aumento de cuota de servicio. Una vez implementado, puede ejecutar inferencia contra el punto final implementado a través del predictor de SageMaker:
Una cosa importante a tener en cuenta aquí es que estamos usando el contenedor de inferencia djl-lmi v12entonces estamos siguiendo el esquema de API de finalización de chat de inferencia de maniquí excelso al destinar una carga útil tanto a Mistral-NeMo-Almohadilla-2407 como a Mistral-NeMo-Instruct-2407.
Mistral-NeMo-Almohadilla-2407
Puede interactuar con el maniquí Mistral-NeMo-Almohadilla-2407 como otros modelos de coexistentes de texto en serie, donde el maniquí procesa una secuencia de entrada y genera las siguientes palabras predichas en la secuencia. En esta sección, proporcionamos algunos mensajes de ejemplo y resultados de muestra. Tenga en cuenta que el maniquí colchoneta no tiene instrucciones ajustadas.
Completar texto
Tareas que implican predecir el subsiguiente token o completar los tokens que faltan en una secuencia:
El subsiguiente es el resultado:
Instrucción Mistral NeMo
El maniquí Mistral-NeMo-Instruct-2407 es una demostración rápida de que el maniquí colchoneta se puede ajustar para alcanzar un rendimiento convincente. Puede seguir los pasos proporcionados para implementar el maniquí y utilizar el model_id
valía de huggingface-llm-mistral-nemo-instruct-2407
en cambio.
El maniquí NeMo adecuado por instrucciones se puede probar con las siguientes tareas:
Engendramiento de código
Mistral NeMo Instruct demuestra fortalezas comparadas para tareas de codificación. Mistral afirma que su tokenizador Tekken para NeMo es aproximadamente un 30% más válido a la hora de comprimir el código fuente. Por ejemplo, consulte el subsiguiente código:
El subsiguiente es el resultado:
El maniquí demuestra un sólido rendimiento en tareas de coexistentes de código, con el completion_tokens
ofreciendo información sobre cómo la compresión de código del tokenizador optimiza efectivamente la representación de los lenguajes de programación utilizando menos tokens.
Matemáticas y razonamiento avanzados.
El maniquí todavía informa fortalezas en precisión matemática y de razonamiento. Por ejemplo, consulte el subsiguiente código:
El subsiguiente es el resultado:
En esta tarea, probemos el nuevo tokenizador Tekken de Mistral. Mistral afirma que el tokenizador es dos veces y tres veces más válido a la hora de comprimir coreano y árabe, respectivamente.
Aquí usamos poco de texto para traducir:
Configuramos nuestro mensaje para instruir al maniquí sobre la traducción al coreano y árabe:
Luego podemos configurar la carga útil:
El subsiguiente es el resultado:
Los resultados de la traducción demuestran cómo el número de completion_tokens
El uso se reduce significativamente, incluso para tareas que normalmente requieren un uso intensivo de tokens, como traducciones que involucran idiomas como el coreano y el árabe. Esta perfeccionamiento es posible gracias a las optimizaciones proporcionadas por el tokenizador de Tekken. Esta reducción es particularmente valiosa para aplicaciones con muchos tokens, incluidos resúmenes, coexistentes de lengua y conversaciones de varios turnos. Al mejorar la eficiencia de los tokens, el tokenizador de Tekken permite manejar más tareas interiormente de las mismas limitaciones de medios, lo que lo convierte en una utensilio invaluable para optimizar los flujos de trabajo donde el uso de tokens impacta directamente el rendimiento y el costo.
Purificar
Una vez que haya terminado de ejecutar el cuaderno, asegúrese de eliminar todos los medios que creó en el proceso para evitar facturación adicional. Utilice el subsiguiente código:
Conclusión
En esta publicación, le mostramos cómo comenzar con Mistral NeMo Almohadilla e Instruct en SageMaker Studio e implementar el maniquí para inferencia. Regalado que los modelos básicos están previamente entrenados, pueden ayudar a sujetar los costos de capacitación e infraestructura y permitir la personalización para su caso de uso. Invitado SageMaker JumpStart en SageMaker Studio ahora para entablar.
Para obtener más medios de Mistral en AWS, consulte el Repositorio Mistral-en-AWS GitHub.
Sobre los autores
Niithiyn Vijeaswaran es un arquitecto de soluciones especializado en IA generativa en el equipo de ciencia de modelos de terceros de AWS. Su radio de enfoque es la IA generativa y los aceleradores de IA de AWS. Tiene una Doctorado en Informática y Bioinformática.
Preston Tuggle es un arquitecto senior de soluciones especializado que trabaja en IA generativa.
shane rai es un diestro principal en IA generativa de la Ordenamiento Mundial de Especialistas de AWS (WWSO). Trabaja con clientes de todos los sectores para resolver sus deposición comerciales más apremiantes e innovadoras utilizando la amplia gradación de servicios de IA/ML basados en la estrato proporcionados por AWS, incluidas ofertas de modelos de proveedores de modelos básicos de primer nivel.