Agentes de inteligencia de copos de cocaína y corteza
Inteligencia de copos de cocaína Proporciona información generada por IA utilizando idioma natural en el que los usuarios pueden tener fe al ofrecer explicabilidad y transparencia verificables. Esta nueva experiencia de agente, accesible a través de un portal dedicado, permite a todos los usuarios conversar de forma segura con sus datos, obtener información significativa de sus datos empresariales de confianza e iniciar acciones desde una interfaz unificada e intuitiva.
Con observabilidad nativaLos usuarios de inteligencia de copos de cocaína pueden ver fácilmente el «por qué» detrás de cada respuesta generada por el agente, rastreando si los datos provienen de fuentes verificadas o consultas curadas, y rastreando el clase. Los administradores de datos pronto pueden obtener visibilidad de las preguntas que se están haciendo y las puntuaciones de relevancia de las respuestas, lo que permite una perfeccionamiento continua y ajuste fino con el control centralizado.
Encima, para los agentes construidos usando Agentes de la cortezalos ingenieros pronto obtendrán la capacidad de Evaluar, rastrear y monitorear sin esfuerzo a sus agentes con capacidades de observabilidad nativa.
Observabilidad del agente Permitirá a los desarrolladores rastrear las interacciones de los agentes en tiempo efectivo, lo que les permite tener una mejor visibilidad en la planificación de agentes, la selección de herramientas, la ejecución y los pasos de engendramiento de respuesta. Los desarrolladores podrán iniciar sesión y monitorear cada interacción en el agente para depurar, mejorar e iterar sistemáticamente el rendimiento del agente.
Esta observabilidad nativa acelera el ciclo de explicación, mejorando la confiabilidad y transparencia de las aplicaciones y agentes generativos de IA antaño del despliegue.
Búsqueda de corteza
En un agente de IA o aplicación que realiza Reproducción de recuperación de engendramiento (Trapo), la calidad de la producción final depende fundamentalmente de la precisión de la recuperación original.
Para valorar y mejorar continuamente la calidad de la recuperación, Búsqueda de corteza Ahora proporciona un conjunto nativo de herramientas de evaluación y ajuste. Ahora, los usuarios tienen paso a un dedicado UI de evaluación para la búsqueda de corteza que les permite:
Esta interfaz de beneficiario aprovecha las LLM para acelerar el proceso de evaluación de búsqueda, incluida la engendramiento de consultas y el motivo de relevancia.
Usando la interfaz de beneficiario de evaluación, los usuarios pueden ejecutar rápidamente y comparar experimentos para valorar la calidad de la recuperación contra conjuntos de datos marcados con humanos y LLM, asegurando que las aplicaciones de búsqueda y chat de los usuarios aguas debajo reciban el contexto más relevante para sus consultas.
Analista de la corteza
Analista de la corteza Traduce las indicaciones de idioma natural en consultas SQL precisas, lo que permite a los usuarios extraer información crítica de conjuntos de datos complejos.
Para ayudar a avalar una perfeccionamiento y precisión continuas, los administradores e ingenieros tienen paso a registros históricos de todas las interacciones pasadas. Al analizar estos registros, los ingenieros pueden hacer ajustes informados al maniquí semántico subyacente, refinando su capacidad para ocasionar respuestas en gran medida precisas.
Para valorar cuantitativamente el rendimiento, el analista de Cortex tiene Open de una utensilio de transmisión de suministro que usa un «LLM-as-a-Judge». Esto implica comparar las respuestas del maniquí con un conjunto dorado de pares de solicitud de solicitud ideales, que calcula un porcentaje ayudante de corrección y proporciona un punto de remisión para la precisión del maniquí.
Documento AI
Observabilidad en el documento AI se logra a través de Alpargata de atención para explicar y Puntajes de confianza por fiabilidad.
Alpargata de atención Proporcione un método directo para validar la salida extraída de los documentos. Esta característica perfeccionamiento la explicabilidad mediante el uso de un LLM secundario para presentar la evidencia específica del texto fuente que respalda cada resultado. Esto es particularmente útil durante las etapas de preproducción, como la inferencia y la capacitación, ya que permite la potencia continua de la calidad de la producción para confirmar que cumple con las expectativas.