Athrun Data Intelligence


En el impulso de seguir siendo competitivos, las empresas de hoy están recurriendo a IA para ayudarlos a minimizar el costo y maximizar la eficiencia. Les corresponde a ellos encontrar el maniquí de IA más adecuado, el que los ayudará a conseguir más mientras gasta menos. Para muchas empresas, la migración de la clan maniquí de OpenAi a Amazon Nova Representa no solo un cambio en el maniquí sino un movimiento clave en torno a la escalabilidad, la eficiencia y las capacidades multimodales más amplias.

En este blog, discutimos cómo optimizar la solicitud en Amazon Nova para el mejor rendimiento de precio.

¿Por qué portar de OpenAi a Amazon Nova?

Los modelos de OpenAI siguen siendo poderosos, pero sus costos operativos pueden ser prohibitivos cuando se escalan. Considere estas cifras de Estudio sintético:

Maniquí Costo de token de entrada (por millón de tokens) Costo de token de salida (por millón de tokens) Ventana de contexto Velocidad de salida (tokens por segundo) Latencia (segundos por primer token)
GPT-4O ~ $ 2.50 ~ $ 10.00 Hasta 128k tokens ~ 63 ~ 0.49
GPT-4O mini ~ $ 0.15 ~ $ 0.60 Hasta 128k tokens ~ 90 ~ 0.43
Nova Micro ~ $ 0.035 ~ $ 0.14 Hasta 128k tokens ~ 195 ~ 0.29
Nova Lite ~ $ 0.06 ~ $ 0.24 Hasta 300k tokens ~ 146 ~ 0.29
Nova Pro ~ $ 0.80 ~ $ 3.20 Hasta 300k tokens ~ 90 ~ 0.34

Para aplicaciones de stop masa, como la atención al cliente total o el investigación de documentos a gran escalera, estas diferencias de costos son perjudiciales. Amazon Nova Pro ofrece no solo tres veces la rentabilidad, su ventana de contexto más larga igualmente le permite manejar entradas más extensas y complejas.

Desglosando la suite Amazon Nova

Amazon Nova no es un maniquí único: es una suite diseñada para varias deposición:

  • Amazon Nova Pro – Un maniquí multimodal robusto que puede procesar texto, imágenes y video. Se destaca en tareas como el investigación de documentos y la visualización de datos profundos. Comparaciones de remisión Mostrar Amazon Nova Pro Matching o incluso pasar a GPT-4O en tareas de razonamiento complejas, Según la Sección 2.1.1 del noticia técnico de Nova y la polímero maniquí.
  • Amazon Nova Lite – Ofrece una mezcla equilibrada de procesamiento y velocidad multimodales. Amazon Nova Lite es ideal para aplicaciones como breviario de documentos, traducción e incluso búsqueda visual básica, que ofrece resultados de calidad a una latencia y costo más bajos en comparación con GPT-4O Mini. Puede encontrar estos resultados de remisión en Sección 2.1.2 del noticia técnico de Nova y la polímero maniquí.
  • Amazon Nova Micro -Un maniquí solo de texto diseñado para la latencia exaltado desvaloración. Con la velocidad de salida de hasta 195 tokens por segundo, Amazon Nova Micro es consumado para aplicaciones en tiempo verdadero, como asistentes basados ​​en chat y preguntas frecuentes automáticas. Sus costos de token son dramáticamente más bajos que los de GPT-4O Mini, más módico 4.3 veces más módico por causa.

Los costos por toque más bajos y la anciano producción por segundo de Amazon Nova le brindan la flexibilidad para simplificar las indicaciones para las aplicaciones en tiempo verdadero para que pueda equilibrar la calidad, la velocidad y el costo de su caso de uso.

Comprender los cimientos

Para tomar la mejor valor sobre qué maniquí de clan se ajusta a sus deposición, es importante comprender las diferencias en las mejores prácticas de ingeniería rápida tanto en Openai como en Amazon Nova. Cada clan maniquí tiene su propio conjunto de fortalezas, pero hay algunas cosas que se aplican a ambas familias. En ambas familias maniquí, la precisión de calidad se logra a través de la claridad de instrucciones, indicaciones estructuradas y refinamiento iterativo. Ya sea que esté utilizando directivas de salida sólidas o casos de uso claramente definidos, el objetivo es resumir la anfibología y mejorar la calidad de la respuesta.

El enfoque de OpenAI

OpenAI utiliza un sistema de correo en capas para ingeniería rápida, donde el sistema, el desarrollador y el beneficiario solicitan que funcionen en avenencia para controlar el tono, la seguridad y el formato de salida. Su enfoque enfatiza:

  • Roles de mensajes jerárquicos – Establecer el papel y el comportamiento del maniquí utilizando mensajes del sistema se aseguran de que se conserven las pautas de seguridad y estilo generales (establecidas en las indicaciones del sistema)
  • Colocación de instrucciones y delimitadores – Las directivas se colocan al principio, con clara separación entre contexto, ejemplos y consultas
  • Sujeción de pensamiento selectiva -El razonamiento detallado y paso a paso se utiliza cuando beneficia tareas complejas
  • Formato y estructura – Uso de directivas fuertes como hacer, debe y no proporcionar resultados consistentes (por ejemplo, en JSON)

El enfoque de Amazon Nova

  • Defina el caso de uso rápido
    • Tarea – ¿Qué debería hacer exactamente el maniquí?
    • Role – ¿Qué papel debe responsabilizarse el maniquí?
    • Estilo de respuesta – La estructura o tono de la salida
    • Instrucciones – Directrices que debe seguir el maniquí
  • Sujeción de pensamiento
    • Respuesta estatal explícita – Proporcione instrucciones claras y fuertes para demarcar la respuesta del maniquí
    • Pensamiento estructural -Pensar paso a paso fomenta el pensamiento estructural
  • Formato y estructura
    • Use delimitadores para seccionar sus indicaciones, por ejemplo, ## tarea ##, ## context ## o ## Ejemplo ##
    • Especifique el formato de salida, por ejemplo, JSON, YAML o Markdown
    • Usar instrucciones y gorras fuertes, como hacer, no hacer o debe
    • Prefárate las respuestas para enfilar el maniquí, por ejemplo, comienza con «{» o «json …»

Evolucionando su pronta organización: portar de OpenAi a Amazon Nova

La transición a Amazon Nova no es simplemente un cambio en los puntos finales de la API: requiere una reorganización de su rápida ingeniería para alinearse con las fortalezas de Amazon Nova. Debe replantear la definición de su caso de uso. Comience desglosando su mini indicador GPT-4O o GPT-4O presente en sus rudimentos centrales de tarea, rol, estilo de respuesta e instrucciones y criterios de éxito. Asegúrese de ordenar estos rudimentos claramente para proporcionar un plan para el maniquí.

Para comprender cómo portar un indicador de OpenAI existente para funcionar de guisa óptima para Amazon Nova Pro, considere el subsiguiente ejemplo utilizando el breviario de notas de reunión. Aquí está el mensaje del sistema GPT-4O:

You will be provided with meeting notes, and your task is to summarize the meeting 
as follows: 
-Overall summary of discussion 
-Action items (what needs to be done and who is doing it) 
-If applicable, a list of topics that need to be discussed more fully in the next meeting.

El mensaje del beneficiario es las notas de la reunión que deben resumirse:

Meeting Date: March 5th, 2050
Meeting Time: 2:00 PM
Location: Conference Room 3B, Intergalactic Headquarters...

GPT produce esta respuesta útil:

Overall Summary of Discussion: The team discussed the recent mission to Planet Zog, 
the space pirate issue in Sector 7, the annual Intergalactic Bake-Off, planning for 
the upcoming charity fundraiser, and a proposed team-building retreat. The mission to 
Planet Zog was successful, but communication with the Zogians was challenging. The team 
also discussed the need for a better strategy to deal with space pirates. The team placed 
second in the Intergalactic Bake-Off and is planning for the upcoming charity fundraiser. 
A team-building retreat to the Moon Resort and Spa was proposed.

Action Items:
1. Dr. Radiofuente to start working on a Zogian-English dictionary.
2. Captain Stardust to speak with Admiral Starbeam about increasing patrols in Sector 7.
3. Dr. Radiofuente to finalize the prototype of the new cloaking technology.
4. All team members to start gathering supplies and preparing games for the Intergalactic 
Charity Bazaar.
5. Captain Stardust to check the budget for the proposed team-building retreat to the Moon 
Resort and Spa.

Topics for Next Meeting:
1. Update on the Zogian-English dictionary.
2. Progress report on the cloaking technology.
3. Results of increased patrols in Sector 7.
4. Final preparations for the Intergalactic Charity Bazaar.

Para cumplir o pasar la calidad de la respuesta de GPT-4O, así es como podría ser un mensaje de Amazon Nova Pro. El aviso utiliza las mismas mejores prácticas discutidas en esta publicación, comenzando con la solicitud del sistema. Usamos un temperatura de .2 y una topp de .9 aquí:

You are an experienced executive assistant skilled in meeting note analysis and 
summarization. Your primary responsibilities include distilling complex discussions
into clear, actionable summaries.
Follow these instructions:

##INSTRUCTIONS##
1. Read understand the meeting notes found in ##NOTES##
2. Put all of your outputs in a section called ##OUTPUTS## in markdown formatting
3. Summarize the meeting notes in 5 sentences or less. Put this in a section called 
"Overall Summary".
4. Numerically list any action items for specific people and what needs to be completed. 
Put this list in a section called "Action Items".
5. If applicable, list the topics that need to be discussed more fully in the next meeting. 
Put this in a section called "Topics for Next Meeting".

Aquí está el mensaje del beneficiario, utilizando respuestas precargadas:

##NOTES##
Meeting Date: March 5th, 2050
Meeting Time: 2:00 PM
Location: Conference Room 3B, Intergalactic Headquarters
Attendees:
- Captain Stardust
- Dr. Radiofuente
- Lady Nebula
- Sir Supernova
- Ms. Comet
Meeting called to order by Captain Stardust at 2:05 PM
1. Introductions and welcome to our newest team member, Ms. Comet
2. Discussion of our recent mission to Planet Zog
- Captain Stardust: "Overall, a success, but communication with the Zogians was difficult. 
We need to improve our language skills."
- Dr. Radiofuente: "Agreed. I'll start working on a Zogian-English dictionary right away."
- Lady Nebula: "The Zogian food was out of this world, literally! We should consider having 
a Zogian food night on the ship."
3. Addressing the space pirate issue in Sector 7
- Sir Supernova: "We need a better strategy for dealing with these pirates. They've already 
plundered three cargo ships this month."
- Captain Stardust: "I'll speak with Admiral Starbeam about increasing patrols in that area.
- Dr. Radiofuente: "I've been working on a new cloaking technology that could help our ships avoid 
detection by the pirates. I'll need a few more weeks to finalize the prototype."
4. Review of the annual Intergalactic Bake-Off
- Lady Nebula: "I'm happy to report that our team placed second in the competition! Our Martian Mud 
Pie was a big hit!"
- Ms. Comet: "Let's aim for first place next year. I have a secret recipe for Jupiter Jello that I 
think could be a winner."
5. Planning for the upcoming charity fundraiser
- Captain Stardust: "We need some creative ideas for our booth at the Intergalactic Charity Bazaar."
- Sir Supernova: "How about a 'Dunk the Alien' game? We can have people throw water balloons at a 
volunteer dressed as an alien."
- Dr. Radiofuente: "I can set up a 'Name That Star' trivia game with prizes for the winners."
- Lady Nebula: "Great ideas, everyone. Let's start gathering the supplies and preparing the games."
6. Upcoming team-building retreat
- Ms. Comet: "I would like to propose a team-building retreat to the Moon Resort and Spa. It's a great 
opportunity to bond and relax after our recent missions."
- Captain Stardust: "Sounds like a fantastic idea. I'll check the budget and see if we can make it happen."
7. Next meeting memorándum items
- Update on the Zogian-English dictionary (Dr. Radiofuente)
- Progress report on the cloaking technology (Dr. Radiofuente)
- Results of increased patrols in Sector 7 (Captain Stardust)
- Final preparations for the Intergalactic Charity Bazaar (All)
Meeting adjourned at 3:15 PM. Next meeting scheduled for March 19th, 2050 at 2:00 PM in Conference Room 3B, 
Intergalactic Headquarters.

##OUTPUTS##

El subsiguiente ejemplo muestra que la respuesta de Amazon Nova cumple y supera la precisión del ejemplo de OpenAI, formatea la salida en Markdown y ha opuesto propietarios claros para cada sujeto de energía:

### Overall Summary
The meeting covered the successful mission to Planet Zog, the ongoing issue with 
space pirates in Sector 7, the results of the annual Intergalactic Bake-Off, plans 
for the upcoming charity fundraiser, and a proposed team-building retreat. Action items 
were assigned, and the next meeting's memorándum was set.

### Action Items
1. **Dr. Radiofuente**: Begin working on a Zogian-English dictionary.
2. **Captain Stardust**: Speak with Admiral Starbeam about increasing patrols in Sector 7.
3. **Dr. Radiofuente**: Finalize the prototype for the new cloaking technology within a few weeks.
4. **Team**: Start gathering supplies and preparing games for the Intergalactic Charity Bazaar.
5. **Captain Stardust**: Check the budget for the proposed team-building retreat to the Moon Resort and Spa.

### Topics for Next Meeting
1. Update on the Zogian-English dictionary (Dr. Radiofuente)
2. Progress report on the cloaking technology (Dr. Radiofuente)
3. Results of increased patrols in Sector 7 (Captain Stardust)
4. Final preparations for the Intergalactic Charity Bazaar (All)

Algunas actualizaciones del aviso pueden conseguir resultados comparables o mejores de Amazon Nova Pro mientras disfrutan de un costo de inferencia mucho menos costoso.

Gastar el contexto extendido de Amazon Nova

Amazon Nova Lite y Amazon Nova Pro pueden convenir hasta 300,000 tokens de entrada, lo que significa que puede incluir más contexto en su mensaje si es necesario. Expanda sus datos de fondo e instrucciones detalladas en consecuencia: si su indicador diferente de Operai fue optimizado para 128,000 tokens, ajustarlos para usar la ventana extendida de Amazon Nova.

Adaptaciones a medida

Si su mensaje GPT requería un formato ajustado (por ejemplo, «Responda solo en JSON»), asegúrese de que su indicador de Amazon Nova incluya estas directivas. Adicionalmente, si su tarea involucra entradas multimodales, especifique cuándo incluir imágenes o referencias de video.

Funciones llamadas

El surgimiento de IA generativa Los agentes han realizado llamadas a funciones, o llamadas de herramientas, una de las habilidades más importantes de un determinado maniquí de lengua amplio (LLM). La capacidad de un maniquí para nominar correctamente la utensilio adecuada para el trabajo, de guisa desvaloración, a menudo es la diferencia entre el éxito y el fracaso de un sistema de agente.

Los modelos OpenAI y Amazon Nova comparten similitudes en las llamadas de funciones, en particular su soporte para llamadas de API estructuradas. Ambas familias de modelos apoyan la selección de herramientas a través de esquemas de herramientas definidos, que discutimos más delante en esta publicación. Los dos igualmente proporcionan un mecanismo para osar cuándo invocar estas herramientas o no.

La señal de función de OpenAI utiliza esquemas JSON flexibles para explicar y ordenar las interacciones API. Los modelos admiten una amplia matiz de configuraciones de esquema, que brindan a los desarrolladores la capacidad de implementar rápidamente llamadas de funciones externas a través de definiciones JSON directas vinculadas a sus puntos finales de API.

Aquí hay un ejemplo de una función:

tools = ({
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "Get current temperature for a given location.",
            "parameters": {
                    "type": "object",
                    "properties": {
                        "location": {
                            "type": "string",
                            "description": "City and country e.g. Montevideo, Uruguay"
                        }            
                },            
                "required": (                
                    "location"
        ),
        "additionalProperties": False
    },
    "strict": True
    }
})

completion = client.chat.completions.create(
    model="gpt-4o",
    messages=({"role": "user", "content": "What is the weather like in Punta del Este today?"}),
    tools=tools

Similar al enfoque de OpenAI, Amazon Nova puede tachar herramientas cuando se pasa un esquema de configuración como se muestra en el subsiguiente ejemplo de código. Amazon Nova ha hecho mucho uso de Decodificación codiciosa Al tachar a las herramientas, y se recomienda establecer la temperatura, Topp y Topk a 1. Esto asegura que el maniquí tenga la anciano precisión en la selección de herramientas. Estos parámetros de decodificación codiciosos y otros excelentes ejemplos de uso de herramientas están cubiertos con gran detalle en Uso de herramientas (llamadas de funciones) con Amazon Nova.

El subsiguiente es un ejemplo de llamadas de funciones sin usar adicional ModelRequestFields:

tool_config = {
    "tools": ({
        "toolSpec": {
            "name": "get_recipe",
            "description": "Structured recipe generation system",
            "inputSchema": {
                "json": {
                    "type": "object",
                    "properties": {
                        "recipe": {
                            "type": "object",
                            "properties": {
                                "name": {"type": "string"},
                                "ingredients": {
                                    "type": "array",
                                    "items": {
                                        "type": "object",
                                        "properties": {
                                            "item": {"type": "string"},
                                            "amount": {"type": "number"},
                                            "unit": {"type": "string"}
                                        }
                                    }
                                },
                                "instructions": {
                                    "type": "array",
                                    "items": {"type": "string"}
                                }
                            },
                            "required": ("name", "ingredients", "instructions")
                        }
                    }
                }
            }
        }
    })
}

# Saco configuration without topK=1
input_text = "I need a recipe for chocolate deshecho cake"
messages = ({
    "role": "user",
    "content": ({"text": input_text})
})

# Inference parameters
inf_params = {"topP": 1, "temperature": 1}

response = client.converse(
    modelId="us.amazon.nova-lite-v1:0",
    messages=messages,
    toolConfig=tool_config,
    inferenceConfig=inf_params
)
# Typically produces less structured or incomplete output
 

El subsiguiente ejemplo muestra cómo se puede mejorar la precisión de la señal de función utilizando

adicional ModelRequestFields:

# Enhanced configuration with topK=1
response = client.converse(
    modelId="us.amazon.nova-lite-v1:0",
    messages=messages,
    toolConfig=tool_config,
    inferenceConfig=inf_params,
    additionalModelRequestFields={"inferenceConfig": {"topK": 1}}
)
# Produces more accurate and structured function call

Para maximizar el potencial de llamadas de la función de Amazon Nova y mejorar la precisión, use siempre adicional ModelRequestFields con topk = 1. Esto obliga al maniquí a distinguir el token más probable y previene la selección de token azaroso. Esto aumenta la engendramiento de salida determinista y mejoramiento la precisión de las llamadas de función en aproximadamente un 30-40%.

Los siguientes ejemplos de código explican aún más cómo realizar llamadas de herramientas con éxito. El primer proscenio muestra la engendramiento de recetas sin una utensilio explícita. El ejemplo no usa TOPK, que generalmente da como resultado respuestas que están menos estructuradas:

input_text = """
I'm looking for a decadent chocolate dessert that's quick to prepare. 
Something that looks fancy but isn't complicated to make.
"""

messages = ({
    "role": "user",
    "content": ({"text": input_text})
})

response = client.converse(
    modelId="us.amazon.nova-lite-v1:0",
    messages=messages,
    inferenceConfig={"topP": 1, "temperature": 1}
)
# Generates a conversational recipe description
# Less structured, more narrative-driven response

En este ejemplo, el proscenio muestra la engendramiento de recetas con una utensilio estructurada. Agregamos el conjunto TOPK a 1, que produce una salida más estructurada:

response = client.converse(
    modelId="us.amazon.nova-lite-v1:0",
    messages=messages,
    toolConfig=tool_config,
    inferenceConfig={"topP": 1, "temperature": 1},
    additionalModelRequestFields={"inferenceConfig": {"topK": 1}}
)
# Generates a highly structured, JSON-compliant recipe
# Includes precise ingredient measurements
# Provides step-by-step instructions

En caudillo, Operai ofrece un soporte de esquema más flexible y más amplio. Amazon Nova proporciona una engendramiento de salida más precisa y controlada y es la mejor opción cuando se trabaja con escenarios de datos estructurados de stop aventura, como se demostró en el rendimiento de Amazon Nova en el punto de remisión Ifeval discutido en la Sección 2.1.1 de la polímero técnica y la polímero maniquí. Recomendamos el uso de Amazon Nova para aplicaciones que requieren respuestas estructuradas predecibles porque su metodología de llamadas de funciones proporciona un control y precisión superiores.

Conclusión

La progreso de los modelos de OpenAI a Amazon Nova representa un cambio significativo en el uso de AI. Muestra una transición en torno a modelos que ofrecen un rendimiento similar o superior a una fracción del costo, con capacidades ampliadas en el procesamiento multimodal y el manejo de contexto extendido.

Ya sea que esté utilizando el Amazon Nova Pro de Amazon Nova Pro, el ágil y crematístico Amazon Nova Lite, o el versátil Amazon Nova Micro, los beneficios son claros:

  • Capital de costos – Con los costos de token hasta cuatro veces más bajos, las empresas pueden prosperar aplicaciones de guisa más económica
  • Rendimiento de respuesta mejorada -Los tiempos de respuesta más rápidos (hasta 190 tokens por segundo) hacen que las aplicaciones en tiempo verdadero sean más viables
  • Capacidades ampliadas – Una ventana de contexto más amplio y soporte multimodal desbloquean nuevas aplicaciones, desde investigación de documentos detallados hasta contenido visual integrado

Al transformarse su pronta organización: redefinir los casos de uso, explotar el contexto extendido y refinar las instrucciones iterativamente, puede portar sin problemas sus flujos de trabajo existentes de los modelos O4 y O4-Mini de OpenAI al progresista mundo de Amazon Nova.


Sobre los autores

Claudio Mazzoni es un arquitecto de soluciones especialistas en SR en el equipo de Amazon Bedrock GTM. Claudio excede a enfilar a los clientes a través de su delirio de Gen AI. Fuera del trabajo, Claudio disfruta advenir tiempo con la clan, trabajar en su edén y cocinar comida uruguaya.

Pat Reilly es un arquitecto de soluciones especializadas en el Sr. Amazon Bedrock Go-to-Mercado. Pat ha pasado los últimos 15 primaveras en investigación y educación instintivo como consejero. Cuando no está construyendo en AWS, puedes encontrarlo tocando con proyectos de madera.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *