Athrun Data Intelligence


Hoy anunciamos la disponibilidad militar de Diligencia rápida de Amazon Bedrockcon nuevas funciones que brindan opciones mejoradas para configurar sus mensajes y permitir una integración perfecta para invocarlos en sus aplicaciones de IA generativa.

Amazon Bedrock Prompt Management simplifica la creación, evaluación, control de versiones y uso compartido de mensajes para ayudar a los desarrolladores e ingenieros a obtener mejores respuestas de los modelos básicos (FM) para sus casos de uso. En esta publicación, exploramos las capacidades esencia de Amazon Bedrock Prompt Management y mostramos ejemplos de cómo utilizar estas herramientas para ayudar a optimizar el rendimiento y los resultados de los mensajes para sus casos de uso específicos.

Nuevas funciones en Amazon Bedrock Prompt Management

Amazon Bedrock Prompt Management ofrece nuevas capacidades que simplifican el proceso de creación de aplicaciones de IA generativa:

  • Indicaciones estructuradas – Defina instrucciones del sistema, herramientas y mensajes adicionales al crear sus indicaciones.
  • Integración de API de Converse e InvokeModel – Invoque sus mensajes catalogados directamente desde las llamadas API de Amazon Bedrock Converse e InvokeModel

Para mostrar las nuevas incorporaciones, veamos un ejemplo de cómo crear un mensaje que resuma documentos financieros.

Crear un nuevo mensaje

Complete los siguientes pasos para crear un nuevo mensaje:

  1. En la consola de Amazon Bedrock, en el panel de navegación, en Herramientas de construccióndesignar Diligencia rápida.
  2. Designar Crear mensaje.
  3. Proporcione un nombre y una descripción, y elija Crear.

Construya el mensaje

Utilice el creador de mensajes para personalizar su mensaje:

  1. Para Instrucciones del sistemadefine el rol del maniquí. Para este ejemplo, ingresamos lo venidero:
    You are an expert financial analyst with years of experience in summarizing complex financial documents. Your task is to provide clear, concise, and accurate summaries of financial reports.
  2. Agregue el mensaje de texto en el Mensaje de beneficiario caja.

Puede crear variables encerrando un nombre entre llaves dobles. Después puede suceder títulos para estas variables en el momento de la invocación, que se inyectan en su plantilla de solicitud. Para esta publicación, utilizamos el venidero mensaje:

Summarize the following financial document for {{company_name}} with ticker symbol {{ticker_symbol}}:
Please provide a brief summary that includes
1.	Overall financial performance
2.	Key numbers (revenue, profit, etc.)
3.	Important changes or trends
4.	Main points from each section
5.	Any future outlook mentioned
6.	Current Stock price
Keep it concise and easy to understand. Use bullet points if needed.
Document content: {{document_content}}

  1. Configurar herramientas en el Configuración de herramientas sección para avisar a funciones.

Puede determinar herramientas con nombres, descripciones y esquemas de entrada para permitir que el maniquí interactúe con funciones externas y amplíe sus capacidades. Proporcione un esquema JSON que incluya la información de la utensilio.

Cuando se utilizan llamadas a funciones, un LLM no utiliza herramientas directamente; en cambio, indica la utensilio y los parámetros necesarios para utilizarla. Los usuarios deben implementar la deducción para invocar herramientas basadas en las solicitudes del maniquí y dirigir los resultados al maniquí. Referirse a Utilice una utensilio para completar una respuesta del maniquí de Amazon Bedrock para formarse más.

  1. Designar Librarse para vigilar su configuración.

Comparar variantes de mensajes

Puede crear y comparar varias versiones de su mensaje para encontrar la mejor para su caso de uso. Este proceso es manual y personalizable.

  1. Designar Comparar variantes.
  2. La variación diferente ya está poblada. Puede asociar manualmente nuevas variantes especificando el número que desea crear.
  3. Para cada nueva variación, puede personalizar el mensaje de beneficiario, las instrucciones del sistema, la configuración de herramientas y mensajes adicionales.
  4. Puedes crear diferentes variantes para diferentes modelos. Designar Pretender maniquí para designar el FM específico para probar cada variación.
  5. Designar ejecutar todo para comparar los resultados de todas las variantes de mensajes en los modelos seleccionados.
  6. Si una variación funciona mejor que la diferente, puedes designar Reemplazar mensaje diferente para renovar su mensaje.
  7. en el constructor rápido página, elija Crear lectura para vigilar el mensaje actualizado.

Este enfoque le permite ajustar sus indicaciones para modelos o casos de uso específicos y facilita probar y mejorar sus resultados.

Invocar el mensaje

Para invocar el mensaje desde sus aplicaciones, ahora puede incluir el identificador y la lectura del mensaje como parte de la indicación a la API de Amazon Bedrock Converse. El venidero código es un ejemplo que utiliza el SDK de AWS para Python (Boto3):

import boto3

# Set up the Bedrock client
bedrock = boto3.client('bedrock-runtime')

# Example API call
response = bedrock.converse(
    modelId=<>,
    promptVariables="{ "company_name": { "text" : "<>"},"ticker_symbol": {"text" : "<>"},"document_content": {"text" : "<>"}}"
)

# Print the response	
response_body = json.loads(bedrock_response.get('body').read())
print(response_body)

Hemos pasado el nombre de petición de Amazon (ARN) en el parámetro ID del maniquí y las variables de solicitud como un parámetro separado, y Amazon Bedrock carga directamente nuestra lectura de solicitud desde nuestra biblioteca de suministro de solicitudes para ejecutar la invocación sin sobrecargas de latencia. Este enfoque simplifica el flujo de trabajo al permitir la invocación directa mediante las API Converse o InvokeModel, eliminando la recuperación y el formateo manuales. Además permite a los equipos reutilizar y compartir indicaciones y realizar un seguimiento de diferentes versiones.

Para obtener más información sobre el uso de estas funciones, incluidos los permisos necesarios, e el documentación.

Además puedes invocar las indicaciones de otras maneras:

Ahora acondicionado

Amazon Bedrock Prompt Management ahora está acondicionado de forma generalizada en el este de EE. UU. (Boreal de Virginia), el oeste de EE. UU. (Oregón), Europa (París), Europa (Irlanda), Europa (Frankfurt), Europa (Londres), América del Sur (Sao Paulo) , Regiones de AWS de Asia Pacífico (Mumbai), Asia Pacífico (Tokio), Asia Pacífico (Singapur), Asia Pacífico (Sídney) y Canadá (Central). Para obtener información sobre precios, consulte Precios de Amazon Bedrock.

Conclusión

La disponibilidad militar de Amazon Bedrock Prompt Management presenta potentes capacidades que mejoran el progreso de aplicaciones de IA generativa. Al proporcionar una plataforma centralizada para crear, personalizar y llevar la batuta avisos, los desarrolladores pueden optimizar sus flujos de trabajo y trabajar para mejorar el rendimiento de los avisos. La capacidad de determinar instrucciones del sistema, configurar herramientas y comparar variantes de mensajes permite a los equipos crear mensajes efectivos adaptados a sus casos de uso específicos. Con una integración perfecta en la API de Amazon Bedrock Converse y soporte para marcos populares, las organizaciones ahora pueden crear e implementar sin esfuerzo soluciones de IA que tienen más probabilidades de ocasionar resultados relevantes.


Acerca de los autores

Dani Mitchell es arquitecto de soluciones especializado en IA generativa en AWS. Se centra en casos de uso de visión por computadora y ayuda a acelerar las empresas de EMEA en sus viajes de formación mecánico e inteligencia industrial generativa con Amazon SageMaker y Amazon Bedrock.

Ignacio Sánchez es arquitecto de soluciones especialistas en inteligencia industrial y formación mecánico en AWS. Combina sus habilidades en efectividad extendida e inteligencia industrial para ayudar a las empresas a mejorar la forma en que las personas interactúan con la tecnología, haciéndola accesible y más agradable para los usuarios finales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *