Athrun Data Intelligence



Los agentes de viajes ayudan a proporcionar provisión de extremo a extremo, como transporte, alojamiento, comidas y alojamiento, para empresarios, vacacionistas y todos los demás. Para aquellos que buscan hacer sus propios arreglos, los modelos de idiomas grandes (LLM) parecen ser una útil robusto para invertir para esta tarea conveniente a su capacidad de interactuar de modo iterativa usando un jerga natural, proporcionar un razonamiento de sentido global, compilar información y vocear a otras herramientas para ayudar con la tarea en cuestión. Sin requisa, el trabajo nuevo ha opuesto que los LLM de vanguardia luchan con un razonamiento logístico y matemático arduo, así como problemas con múltiples limitaciones, como la planificación del alucinación, donde se ha opuesto que proporcionan soluciones viables el 4 por ciento o menos del tiempo, incluso con herramientas adicionales e interfaces de programación de aplicaciones (API).

Seguidamente, un equipo de investigación del MIT y el laboratorio MIT-IBM Watson AI reformularon el problema para ver si podrían aumentar la tasa de éxito de las soluciones de LLM para problemas complejos. «Creemos que muchos de estos problemas de planificación son lógicamente un problema de optimización combinatoria», donde debe satisfacer varias restricciones de modo certificable, dice Chuchu Fan, profesor asociado en el Área de Aeronáutica y Astronáutica (Aeroastro) y los sistemas de decisiones de Laboratorio y Osadía del MIT. Todavía es investigadora en el laboratorio MIT-IBM Watson AI. Su equipo aplica el enseñanza maquinal, la teoría de control y los métodos formales para desarrollar sistemas de control seguros y verificables para robótica, sistemas autónomos, controladores e interacciones humanas-máquina.

Al observar la naturaleza transferible de su trabajo para la planificación de viajes, el clan buscó crear un entorno ligera de usar que pueda hacer como un corredor de viajes de IA para ayudar a desarrollar planes de alucinación realistas, lógicos y completos. Para conquistar esto, los investigadores combinaron LLM comunes con algoritmos y un solucionador de satisfacción completo. Los solucionadores son herramientas matemáticas que verifican rigurosamente si se pueden cumplir los criterios y cómo, pero requieren una programación de computadoras compleja para su uso. Esto los convierte en compañeros naturales para LLM para problemas como estos, donde los usuarios quieren ayuda a planificar de modo oportuna, sin la exigencia de programar conocimiento o investigación sobre opciones de alucinación. Encima, si no se puede cumplir la restricción de un agraciado, la nueva técnica puede identificar y articular dónde se encuentra el problema y proponer medidas alternativas al agraciado, que luego puede nominar aceptarlos, rechazarlos o modificarlas hasta que se formule un plan válido, si existe.

«Las diferentes complejidades de la planificación de viajes son poco con lo que todos tendrán que banderillear en algún momento. Hay diferentes evacuación, requisitos, limitaciones e información del mundo vivo que puede compilar», dice Fan. «Nuestra idea no es pedirle a LLM que proponga un plan de alucinación. En cambio, un LLM aquí está actuando como traductor para traducir esta descripción del jerga natural del problema en un problema que un solucionador puede manejar (y luego proporcionarlo al agraciado)», dice Fan.

Coautoría un papel Sobre el trabajo con los fanáticos están Yang Zhang de MIT-IBM Watson AI Lab, Aeroastro Graduate Student Yilun Hao y el estudiante reconocido Yongchao Chen de MIT Lids y Harvard University. Este trabajo se presentó recientemente en la Conferencia de las Naciones del Capítulo de la Asociación de Gramática Computacional de América.

Romper el solucionador

Las matemáticas tienden a ser específicas del dominio. Por ejemplo, en el procesamiento del jerga natural, los LLM realizan regresiones para predecir el venidero token, igualmente conocido como «Word», en una serie para analizar o crear un documento. Esto funciona acertadamente para extender diversos insumos humanos. Sin requisa, solo LLMS no funcionaría para aplicaciones de demostración formales, como en la seguridad aeroespacial o cibernética, donde las conexiones de circuito y las tareas de restricción deben ser completas y probadas, de lo contrario, las lagunas y las vulnerabilidades pueden escabullirse y causar problemas de seguridad críticos. Aquí, los solucionadores se destacan, pero necesitan entradas de formato fijo y luchan con consultas insatisfactorias. Sin requisa, una técnica híbrida brinda la oportunidad de desarrollar soluciones para problemas complejos, como la planificación de viajes, de una modo intuitiva para las personas comunes.

«El solucionador es positivamente la secreto aquí, porque cuando desarrollamos estos algoritmos, sabemos exactamente cómo el problema se está resolviendo como un problema de optimización», dice Fan. Específicamente, el clan de investigación utilizó un solucionador llamado Satisfiability Moduloories (SMT), que determina si una fórmula puede ser satisfecha. «Con este solucionador en particular, no solo está haciendo optimización. Está haciendo razonamiento sobre muchos algoritmos diferentes allí para comprender si el problema de planificación es posible o no resolver. Eso es poco asaz significativo en la planificación de viajes. No es un problema de optimización matemática muy tradicional porque las personas presentan todas estas limitaciones, restricciones, restricciones», señala fan.

Traducción en entusiasmo

El «agente de viajes» funciona en cuatro pasos que se pueden repetir, según sea necesario. Los investigadores utilizaron GPT-4, Claude-3 o Mistral-Large como el Método LLM. Primero, el LLM analiza el plan de alucinación solicitado de un agraciado en los pasos de planificación, observando preferencias de presupuesto, hoteles, transporte, destinos, atracciones, restaurantes y duración del alucinación en días, así como cualquier otra prescripción de los usuarios. Esos pasos se convierten en el código de Python ejecutable (con una anotación de jerga natural para cada una de las limitaciones), que candela a API como CitySearch, FlightSearch, etc. para compilar datos, y el solucionador SMT para comenzar a ejecutar los pasos establecidos en el problema de satisfacción de la restricción. Si se puede encontrar una alternativa sólida y completa, el solucionador genera el resultado al LLM, que luego proporciona un itinerario coherente al agraciado.

Si no se pueden cumplir una o más restricciones, el entorno comienza a despabilarse una alternativa. El código de salida del solucionador que identifica las restricciones conflictivas (con su anotación correspondiente) que el LLM luego proporciona al agraciado un remedio potencial. El agraciado puede atreverse cómo proceder, hasta que se trascendencia una alternativa (o el número mayor de iteraciones).

Planificación generalizable y robusta

Los investigadores probaron su método utilizando los LLM ayer mencionados contra otras líneas de saco: GPT-4 por sí mismo, OpenAI O1 Preview por sí mismo, GPT-4 con una útil para compilar información y un operación de búsqueda que optimiza el costo total. Utilizando el conjunto de datos TravelPlanner, que incluye datos para planes viables, el equipo analizó múltiples métricas de rendimiento: con qué frecuencia un método podría ofrecer una alternativa, si la alternativa satisface los criterios de sentido global, como no inspeccionar dos ciudades en un día, la capacidad del método para cumplir con una o más restricciones y una tasa de aprobación final que indica que podría cumplir con todas las restricciones. La nueva técnica generalmente logró una tasa de aprobación del 90 por ciento, en comparación con el 10 por ciento o beocio para las líneas de saco. El equipo igualmente exploró la complemento de una representación JSON adentro del paso de consulta, lo que facilitó el método proporcionar soluciones con tasas de aprobación del 84.4-98.9 por ciento.

El equipo MIT-IBM planteó desafíos adicionales para su método. Observaron cuán importante era cada componente de su alternativa, como eliminar la feedback humana o el solucionador, y cómo eso afectó los ajustes del plan a consultas insatisfactorias adentro de 10 o 20 iteraciones utilizando un nuevo conjunto de datos que crearon llamado Unchristmas, que incluye restricciones invisibles y una interpretación modificada de TravelPlanner. En promedio, el entorno del clan MIT-IBM logró un éxito de 78.6 y 85 por ciento, lo que aumenta a 81.6 y 91.7 por ciento con rondas adicionales de modificación del plan. Los investigadores analizaron qué tan acertadamente manejó restricciones nuevas e invisibles y las indicaciones para el paso de consultas y el código de paso. En uno y otro casos, funcionó muy acertadamente, especialmente con una tasa de aprobación del 86.7 por ciento para el motivo de parafraseo.

Por final, los investigadores del MIT-IBM aplicaron su entorno a otros dominios con tareas como la selección de agrupación, la asignación de tareas, el problema del mercader ambulante y el almacén. Aquí, el método debe decidir bloques de color numerado y maximizar su puntaje; Optimizar la asignación de tareas de autómata para diferentes escenarios; Planifique los viajes minimizando la distancia recorrida; y finalización y optimización de la tarea del autómata.

«Creo que este es un entorno muy robusto e progresista que puede evitar mucho tiempo para los humanos, y igualmente es una combinación muy novedosa del LLM y el solucionador», dice Hao.

Este trabajo fue financiado, en parte, por la Oficina de Investigación Naval y el Laboratorio MIT-IBM Watson AI.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *