Un método popular cuando se emplean modelos de habla ínclito (LLM) para tareas analíticas complicadas, como la procreación de código, es intentar resolver el problema completo en el interior de la ventana de contexto del maniquí. El segmento informativo que el LLM es capaz de procesar simultáneamente se denomina ventana contextual. La cantidad de datos que el maniquí puede procesar a la vez tiene un impacto significativo en su capacidad para producir una alternativa. Aunque este método es eficaz para trabajos más sencillos, surgen problemas al manejar situaciones más complejas y de varios pasos.
Según investigaciones recientes, los LLM obtienen resultados notablemente mejores en tareas complejas cuando dividen la tarea en subtareas más pequeñas utilizando una técnica convocatoria descomposición de subtareas, a veces denominada dependencia de pensamiento (COT). Este método implica dividir un problema enorme en tareas más pequeñas y abordarlas por separado, para luego integrar los hallazgos para proporcionar una alternativa completa. Al utilizar este enfoque, los LLM pueden concentrarse en las partes más fáciles del proceso y comprobar de que cada sección se complete de forma más apto.
La construcción de tareas en contexto todavía es muy limitada, incluso con los beneficios de la descomposición de tareas. Esta restricción describe el desafío que encuentran los LLM al intentar administrar varias subtareas en la misma ventana contextual. La complejidad de organizar e integrar los procesos aumenta dramáticamente con el número de subtareas incluidas. Aunque un LLM puede deconstruir un problema, resolviéndolo en su totalidad en el interior del entorno del maniquí fiscal del sistema, lo que resulta en un último rendimiento y precisión.
Los investigadores han establecido el concepto de complejidad generacional para ayudar a comprender esta acotación. Esta métrica calcula la cantidad de veces que un LLM debe producir respuestas alternativas ayer de encontrar la correcta. Cuando cada paso debe completarse en el interior de la misma ventana de contexto, la complejidad de procreación de problemas compuestos, aquellos con varias tareas relacionadas, aumenta dramáticamente. La complejidad de la procreación aumenta con la cantidad de pasos y la complejidad de la tarea, particularmente cuando se administra mediante una única instancia de maniquí.
El principal problema es que los LLM funcionan en el interior de un meta de contexto fijo, incluso cuando intentan descomponer actividades. Esto dificulta que el maniquí componga adecuadamente todas las respuestas cuando los trabajos se vuelven más complejos y requieren una serie de subpasos. Los sistemas multiagente son una posible alternativa. Se pueden usar diferentes instancias de LLM para dividir la carga en sitio de que un LLM maneje todas las subtareas en el interior de una ventana de contexto restringida. Como LLM independiente, cada agente puede concentrarse en resolver un determinado aspecto del problema. Los resultados se pueden combinar para crear la alternativa completa una vez que cada agente haya terminado su parte. Un enfoque distribuido reduce en gran medida la dureza en contexto y la complejidad de procreación porque cada maniquí solo se concentra en una fracción más pequeña y manejable del trabajo.
En comparación con el enfoque de agente único, el empleo de sistemas de agentes múltiples tiene varios beneficios. En primer sitio, los modelos no están limitados por la ventana de contexto cuando el trabajo se divide entre numerosos agentes, lo que les permite resolver tareas más largas y complicadas. En segundo sitio, el sistema en su conjunto es más preciso y apto ya que cada agente opera por separado, evitando que la complejidad de la tarea crezca exponencialmente como lo haría en una situación con un solo agente. La naturaleza autorregresiva de los LLM, que producen resultados paso a paso, es otro beneficio que aprovechan los sistemas multiagente. De esta forma se evitan los problemas que se producen cuando un único maniquí tiene que administrar todas las fases a la vez, y cada agente puede centrarse en su parte del problema paso a paso.
El equipo ha demostrado que dividir los problemas compuestos entre varios agentes reduce significativamente la complejidad de procreación. Los datos empíricos han indicado que cuando muchas instancias de LLM trabajan juntas para resolver tareas, en sitio de pender de un único maniquí para manejar todo en el interior de una única ventana contextual, las tareas se realizan más rápidamente, especialmente en áreas como la procreación de código.
En conclusión, aunque los LLM han demostrado ser muy prometedores a la hora de resolver problemas analíticos complejos, las dificultades asociadas con la construcción en contexto impiden su efectividad. Aunque la descomposición de subtareas ha sido útil, es insuficiente para ir más allá de las limitaciones de la ventana de contexto por completo. Al dividir el trabajo entre varias instancias de LLM, los sistemas multiagente han presentado una opción viable que aumenta la precisión, reduce la complejidad y permite a los LLM acometer problemas más complicados y de gran escalera.
Mira el Papel. Todo el crédito por esta investigación va a los investigadores de este tesina. Encima, no olvides seguirnos en Gorjeo y únete a nuestro Canal de telegramas y LinkedIn Grhacia lo alto. Si te gusta nuestro trabajo, te encantará nuestro hoja informativa.. No olvides unirte a nuestro SubReddit de más de 50.000 ml
¿Está interesado en promocionar su empresa, producto, servicio o evento frente a más de 1 millón de desarrolladores e investigadores de IA? ¡Colaboremos!
Tanya Malhotra es estudiante de postrero año de la Universidad de Estudios de Petróleo y Energía, Dehradun, y cursa BTech en Ingeniería en Ciencias de la Computación con especialización en Inteligencia Sintético y Estudios Maquinal.
Es una entusiasta de la Ciencia de Datos con buen pensamiento analítico y crítico, unido con un impulsivo interés en cazar nuevas habilidades, liderar grupos y administrar el trabajo de forma organizada.