Cohere ha entrado en la carrera competitiva de editar LLM con su última proposición: Comando A. Su maniquí antedicho, Comando R+se lanzó en agosto de 2024, seguido por el Comando R7B en diciembre de 2024. Ahora, con el Comando A, Cohere ha regresado un robusto regreso, introduciendo un maniquí de verbo generativo de última gestación adaptado para casos de uso empresarial. Optimizado para un stop rendimiento con demandas mínimas de hardware, el comando A proporciona una decisión rentable y capaz para las empresas. Se une al conjunto de modelos de Cohere, agradecido por su escalabilidad y rendimiento robusto en una amplia matiz de aplicaciones. ¡Aprendamos más sobre esto en este artículo!
¿Qué es el comando cohere A?
El comando A es un poderoso maniquí de parámetros de 111B con una largo de contexto de 256k, lo que le permite manejar documentos mucho más largos en comparación con la mayoría de los modelos principales. Se destaca en áreas como uso de herramientas, gestación de recuperación de gestación (RAG), agentes y casos de uso multilingües. Este maniquí está diseñado para ser en extremo capaz, lo que requiere solo dos GPU (A100S/H100), que es significativamente beocio que otros modelos comparables

Nuevas características:
- Búsqueda web
- Intérprete de pitón
- Integración de API
- Interacción de la pulvínulo de datos
- Vivientes de recuperación de gestación (trapo)
- Agentes y razonamiento complicado
- Soporte multilingüe (23 idiomas)
- Seguridad de naturaleza empresarial
Rendimiento y puntos de relato
Cohere Command A es un maniquí de verbo prócer (LLM) que se destaca, especialmente para las empresas. He aquí por qué es singular:
Gran rendimiento, menos poder
El comando A ofrece resultados fuertes utilizando menos potencia informática. Tiene 111 mil millones de parámetros y una largo de contexto de 256k, pero solo necesita dos GPU (como A100 o H100) para ejecutar. Compare eso con Deepseek V3, que necesita ocho GPU para una largo de contexto de 128k. Esto hace que el comando sea un poderoso pero asequible para las empresas.
Súper rápido
Es un 150% más rápido que el maniquí antedicho de Cohere, Command R+ (resuelto en agosto de 2024). Puede manejar 156 tokens por segundo, batiendo modelos como GPT-4O de Openi y Deepseek V3 en velocidad y eficiencia.
Construido para negocios
Comandar un brillo en las tareas que las empresas necesitan:
- Vivientes de recuperación de la gestación (trapo): Utiliza proporcionadamente los datos externos, lo que lo hace excelente para cosas como extraer información financiera o reponer preguntas de archivos largos. El comando A y GPT-4O se compararon en tareas de RAG empresarial. Los anotadores entrenados los calificaron ciegamente sobre fluidez, precisión y utilidad.
Uso de herramientas y agentes: Funciona con herramientas como motores de búsqueda o API y ejecuta agentes rápidos para tareas de pensamiento e investigación difíciles.
Plurilingüe: Admite 23 idiomas (como inglés, castellano, árabe y japonés), por lo que funciona para los usuarios de todo el mundo y todavía puede traducirse. Cuando se ha comisionado con Deepseek V3 en extensos usuarios de evaluación humana preferían firmemente un Over Deepseek-V3 en la mayoría de los idiomas en una variedad de casos de uso de negocios.
Comando A VS GPT 4O (Arabaica)

Asequible
Precios de la API de cohere | Tokens de entrada | Tokens de salida |
---|---|---|
Comandar un | $ 2.50 / 1M | $ 10.00 / 1M |
¿Cómo conseguir al comando A?
Plataforma de cohing
- Cree una cuenta en la plataforma Cohere si aún no tiene una.
- Seleccione la opción «Chat with Cohere»

Cara abrazada
El comando A todavía está acondicionado para el uso de la investigación en la cara abrazada. Puede conseguir a él a través de los siguientes pasos:
Página maniquí: Visite el C4AI comando una página de maniquí en la cara abrazada.
Instalación: Instalar el transformers
Biblioteca del repositorio de origen que incluye los cambios necesarios para este maniquí.
pip install transformers
Ejemplo de uso
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "CohereForAI/c4ai-command-a-03-2025"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
# Format message with the c4ai-command-a-03-2025 chat template
messages = ({"role": "user", "content": "Hello, how are you?"})
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt")
gen_tokens = model.generate(
input_ids,
max_new_tokens=100,
do_sample=True,
temperature=0.3,
)
gen_text = tokenizer.decode(gen_tokens(0))
print(gen_text)
- Pruébalo: Todavía puede probar el comando A en el espacio de arrechucho de abrazos alojado antiguamente de descargar los pesos.
Nota: El comando A pronto estará acondicionado en los principales proveedores de la aglomeración. Esté atento a los anuncios de Cohere para actualizaciones
Intentemos comandar un
Voy a probar algunas de las características ofrecidas por el Comando A:
Tarea 1: Búsqueda web
Inmediato: «Trace el precio promedio de arriendo de 1 habitación en febrero de 2025 para las 5 ciudades más caras de la India.«
Producción:

Observación:
Comando A realizado decentemente pero no pudo encontrar precios de arriendo para Nueva Delhi y Chennai, probablemente porque solo verificó 10 sitios web. Para búsquedas web, Google, Perplejidado Kimi K1.5 son mejores opciones
Lea todavía: OpenAi vs Google: ¿Quién investiga mejor?
Tarea 2: Investigación
Inmediato: «Traza las cinco compañías principales en la industria del panel solar por ingresos el año pasado. «
Producción:

Observación:
La característica de investigación es promedio. Está proporcionadamente para respuestas rápidas, pero para informes detallados o descomposición en profundidad, use la opción de investigación profunda de OpenAI.
Tarea 3: Educarse un nuevo tema
Inmediato: «Trazar sin (x) de -2pi a 2pi, usando un tamaño de paso de 0.05, y explique las matemáticas como si fuera cinco.«
Producción:

La función sinusoidal, o sin (x), es una función matemática que describe un patrón de onda suave. Imagina que estás en un columpio, y cuando te balanceas cerca de delante y cerca de a espaldas, tu prestigio sube y desaparecido en un patrón suave y cliché. ¡Eso es similar a cómo se ve la función sinusoidal!
La función sinusoidal toma un valía de entrada, x, y le da un valía entre -1 y 1. Cuando trazas sin (x) en un descriptivo, obtienes una estría ondulada que sube y desaparecido, cruzando el eje x a intervalos regulares.
En el descriptivo antedicho, el eje x representa los títulos de entrada de x, que van desde -2π a 2π. El eje y representa los títulos seno correspondientes. El tamaño del paso de 0.05 significa que el descriptivo se calcula y se traza a intervalos de 0.05 a lo abundante del eje X, lo que le da una representación suave y detallada de la onda sinusoidal.
Piense en ello como dibujar una estría ondulada en un trozo de papel, pero en motivo de dibujarlo a mano cruz, está usando una regla para comprobar de que cada punto esté exactamente a 0.05 unidades de distancia. El resultado es una ola hermosa y simétrica que se repite a medida que va de izquierda a derecha.
Observación:
La salida cumple efectivamente con los dos requisitos: planea correctamente sin (x) de -2π a 2π usando el tamaño de 0.05 pasos con el código adecuado, al tiempo que explica el concepto con un verbo amable para los niños y una proximidad de swing identificable. La implementación técnica y la explicación simplificada funcionan sin problemas para cumplir con los objetivos duales del aviso.
Conclusión
El comando A es definitivamente mejor que los modelos de cohere anteriores, ofreciendo opciones de que cada otro LLM está ofreciendo a la hora de hoy. ¿Es el mejor maniquí que existe? No precisamente. ¡Pruébelo suyo y hágame aprender su experiencia en la sección de comentarios a continuación!
Si desea obtener más información sobre cómo la IA puede encajar en su trabajo, únase a nuestro Software generativo de la forma de vida de IA.
Inicie sesión para continuar leyendo y disfrutando de contenido curado por expertos.