Al entrar en cualquier reunión de ventas de C-suite, las apuestas son altas. Es esencial que cualquier mercader conozca el negocio del cliente, esté actualizado sobre los objetivos y proyectos actuales, y recuerde los tripas de cada punto de contacto nuevo con el cliente. La precisión es crítica. Suena como horas de preparación, ¿verdad? A menos que … puedas acogerse a la IA y confianza AI para brindarle una visión precisa de las ideas entre los datos de su producto, los datos de CRM, el conocimiento interno de las ventas y más para mantenerlo al día.
Con Inteligencia de copos de cocaína Ahora en la clarividencia previa pública, estamos haciendo esto posible. Hemos pasado el año pasado construyendo una aparejo de IA generativa, el asistente de IA GTM, para nuestros equipos de mercado. Está diseñado para hacer más que la información de la superficie: interpreta datos estructurados y no estructurados, comprende el contexto comercial y ofrece ideas confiables y procesables a la velocidad de la conversación.
Este no es solo otro plan de IA interno. Es un sistema de extremo empresarial que respalda a nuestros vendedores, operadores y ejecutivos durante todo el delirio de ventas, estandarizando y democratizando toda la información que necesitan para hacer su trabajo de modo válido y efectiva. Las horizontes deben ser precisas. Y las decisiones de diseño son importantes.
Esto es lo que hemos aprendido.
Ciencia 1: Comprende claramente los puntos débiles
Comenzamos este proceso comprendiendo los flujos de trabajo del mercader e identificando los puntos de fricción. Tome la preparación de la reunión del cliente como ejemplo. Hoy, prepararse para una citación al cliente es un entrenamiento multitab. Los vendedores alternan entre paneles, Salesforce, documentos internos, sistemas de soporte y búsquedas en la web, reconstruyendo manualmente el contexto.
Nos dimos cuenta de que con IA, esa experiencia puede convertirse en conversación, y usamos Inteligencia de copos de cocaína Para hacer eso posible. El asistente de IA GTM permite a los vendedores utilizar la amplitud completa de nuestro repositorio de datos y conocimiento de ventas, reduciendo drásticamente el tiempo que pasan cazando, verificando y sintetizando información. En última instancia, les permite ocurrir más tiempo en actividades de liquidación básicas que se traducen en resultados comerciales del mundo actual.
Por ejemplo, un mercader puede preguntar:
- «¿Qué capacitación es más relevante para este caso de uso?»
- «¿Qué características ha prohijado mi cliente recientemente y qué valencia traen?»
- «Resume su consumo de copo de cocaína en los últimos 30 días».
- «¿Qué áreas necesitan atención para el cliente ABC?»
- «¿Qué casos de uso similares podrían equivaler la pena mencionar?»
Y el mercader recibe una respuesta contextual concisa, incluida la información del cliente como:
- Descripción genérico de la empresa: Un breve perfil de fuentes públicas de confianza
- Huella de copos de cocaína: Términos del acuerdo, cargas de trabajo, equipo de cuentas, tendencias de uso y pronósticos
- Insights de consumo: Rendimiento de 12 meses con patrones secreto y anomalías
- Asimilación de casos de uso: Casos de uso activos y emergentes asignados a capacidades de copos de cocaína y puntos de remisión de la industria
- Apoyo al compromiso: Epítome de boletos recientes, sentimientos y escaladas abiertas
- Facultad y mejores prácticas: Capacitación curada, guías de productos, pistas de conversación y estudios de casos adaptados a la industria, la personalidad y la reflexión
Esto no es solo recuperación, es razonamiento. El asistente accede a una variedad de fortuna subyacentes, interpreta el contexto y superficie lo que importa. El resultado: menos tiempo de preparación, más impacto en cada conversación y más tiempo para concentrarse en las responsabilidades básicas de mercado.
Ciencia 2: El contenido correcto supera a todo el contenido
Tuvimos que pensar cuidadosamente sobre cómo diseñar el asistente de IA GTM. Con la gran cantidad de información habitable en Snowflake, tuvimos que lanzarse qué información impulsaría resultados confiables y precisos.
Una de las primeras decisiones que tomamos al diseñar a nuestro asistente no fue indexar todo. El hecho de que la IA pueda ceder a cada mazo de diapositivas, hilo de correo electrónico o canal Slack no significa que debería.
La calidad de las respuestas de un LLM es tan buena como la calidad del contexto que le da. En la empresa, ese contexto a menudo es embrollado, redundante, anticuado o contradictorio. La indexación de miles de documentos en docenas de sistemas puede parecer integral, pero a menudo resulta en confusión en empleo de claridad.
Entonces adoptamos un enfoque diferente.
En empleo de rastrear todos los espacios de trabajo y registro de chat, seleccionamos un conjunto de contenido de confianza y aggiornamento para que nuestro asistente de IA GTM lo razone. Esto incluye:
- Materiales oficiales de capacitación en ventas
- Mazos certificados de productos y soluciones
- Canales de holgura de contraseña (con un filo de señal a ruido)
- Habilitar la documentación de nuestros equipos de productos y marketing
El resultado? Cuando un mercader hace una pregunta como «¿Cuál es la mejor modo de posicionar Snowpark a un ingeniero de datos?» El asistente no adivina por guiones de ventas obsoletos; Trae directamente de los materiales examinados creados para ese propósito.
Al resumir el difusión a las entradas de ingreso calidad, mejoramos drásticamente la señal y reducimos las alucinaciones. Es una enseñanza que hemos aprendido una y otra vez: en IA, más contexto no es mejor. El mejor contexto es mejor.
Ciencia 3: los datos estructurados son diferentes
Dependiendo del tipo de pregunta, la «precisión» de los resultados puede tener interpretaciones y evaluaciones muy diferentes. Para una pregunta abierta, hay una variedad de respuestas con diferentes frases, largura o estructura que pueden entregar información «precisa».
Ahora, considere una pregunta popular: «¿Cuáles fueron los ingresos por consumo Q1 de mi cliente?»
Aquí, la precisión no es negociable. La respuesta debe ser precisa hasta el centavo; Solo hay un número correcto.
Aquí es donde la mayoría de los LLM enfrentan un desafío. Son probabilísticos y diseñados para predecir la subsiguiente palabra, lo que puede conducir a inexactitudes con datos estructurados donde la precisión es esencial. Adicionalmente, a diferencia de las consultas tradicionales y deterministas, un LLM podría no dar la misma respuesta correcta dos veces, lo que hace que la consistencia sea tan importante como la precisión.
Es por eso que las apuestas son más altas. Y aquí es donde La gobernanza y la precisión necesitan cumplir con la IA generativa.
Este desafío significó que teníamos que pensar cuidadosamente sobre cómo cerrar la brecha entre la flexibilidad de LLMS y la precisión de los datos estructurados. Nos acercamos a este desafío utilizando tres pilares de diseño secreto.
1. Construyendo la almohadilla de datos semánticos correctos
Antaño de que pudiéramos echarse en brazos en la IA para reponer preguntas de datos estructuradas, tuvimos que alinear lo que significan esas respuestas.
Las definiciones como «año fiscal» o «clientes activos» se pueden constreñir de modo diferente en diferentes compañías. Si esa doble sentido existe en el negocio, un LLM lo amplificará.
Abordamos esto construyendo una capa semántica compartida: constreñir métricas secreto, entidades y deducción en ventas, marketing y apoyo. Estas definiciones se modelan a nivel de almacén en vistas semánticas de copos de cocaína y se documentan para que los humanos y los sistemas de IA lo interpreten.
2. Repositorio de consultas verificado
Mantenemos una biblioteca curada de consultas SQL examinadas por nuestro equipo de datos para preguntas comunes. Cuando un mercader pregunta «¿Cuál es la utilización flagrante de mi cliente?» El asistente no compone una nueva consulta; Mapea la solicitud a una probada conocida. Cuando se usa una consulta verificada, mostramos un icono de escudo con una marca de demostración. El agraciado ve «esta respuesta se friso en una consulta verificada». Esa pequeña señal crea confianza del agraciado y permite a los vendedores diferenciar entre horizontes experimentales y respuestas de extremo empresarial.
3. Pruebas y evaluación continuas
Nuestro equipo monitorea continuamente por calidad y consistencia, ejecutando pruebas automatizadas en indicaciones aprobadas. Cuando encontramos fallas, refinamos el sistema expandiendo nuestras consultas verificadas, mejorando las instrucciones de LLM o agregando metadatos. Asimismo evaluamos el rendimiento del mundo actual a través de una combinación de muestreo, revisión manual y jueces de LLM para asegurar que el asistente satisfaga las micción del agraciado.
Mirando en torno a el futuro
Creemos que los flujos de trabajo GTM se servirán cada vez más con soluciones de IA, pero reconocemos que esas soluciones de IA deben estar basadas en rigor. El objetivo de nuestro equipo es eliminar la fricción, automatizar lo repetitivo y hacer que las ideas fluyan lógicamente en cada flujo de trabajo internamente del copo de cocaína. Ya, nuestro asistente de IA GTM está capacitando a los equipos a través del copo de cocaína para mantenerse al día rápidamente en las cuentas, obtener información sobre los datos de los clientes rápidamente y utilizar los fortuna de ventas correctos en un instante. Estamos atendiendo más de 5,000 consultas de usuarios por semana, ahorrando a nuestros equipos cientos de horas, y recién estamos comenzando.
Estamos avanzando tratando los datos como un producto de primera clase. Tenemos que taracear la confianza directamente en las respuestas. Y tenemos que diseñar sistemas que sepan cuándo adivinar y cuándo no hacerlo.