Yann Lecun, sabio caudillo de IA de Meta y uno de los pioneros de la IA moderna, recientemente argumentó que los modelos de verbo prócer (LLMS) autorregresivos son fundamentalmente defectuosos. Según él, la probabilidad de gestar una respuesta correcta disminuye exponencialmente con cada token, haciéndolos poco prácticos para las interacciones AI confiables y de forma larga.
Si aceptablemente respeto profundamente el trabajo y el enfoque de Lecun para el exposición de la IA y resuenan con muchas de sus ideas, creo que este propaganda particular pasa por suspensión algunos aspectos esencia de cómo funcionan los LLM en la praxis. En esta publicación, explicaré por qué los modelos autorregresivos no son inherentemente divergentes y condenados, y cómo técnicas como la sujeción de pensamiento (cot) y las consultas de razonamiento atento (ARQ), un método que hemos desarrollado para conseguir el cliente de suscripción precisión del cliente interacciones con Parlante—Efectivamente probar lo contrario.
¿Qué es la autorregresión?
En esencia, un LLM es un maniquí probabilístico entrenado para gestar texto de un token a la vez. Cedido un contexto de entrada, el maniquí predice la futuro token más probable, lo alimenta a la secuencia flamante y repite el proceso de iteración hasta que se cumpla una condición de parada. Esto permite que el maniquí genere cualquier cosa, desde respuestas cortas hasta artículos completos.
Para una inmersión más profunda en la autorregresión, consulte nuestro fresco publicación de blog técnico.
¿Los errores de gestación se componen exponencialmente?
El argumento de Lecun se puede desempaquetar de la futuro modo:
- Constreñir do Como el conjunto de todas las finalizaciones posibles de largo septentrión.
- Constreñir A ⊂ C como subconjunto de terminaciones aceptables, donde U = C – A representa los inaceptables.
- Dejar CI (K) ser una finalización en progreso de la largo Kque en K sigue siendo aceptable (Ci (n) ∈ A todavía puede aplicarse en última instancia).
- Responsabilizarse una constante mi Como la probabilidad de error de gestar el futuro token, de modo que empuje CI en U.
- La probabilidad de gestar los tokens restantes mientras mantiene CI en A es entonces (1 – E)^(N – K).
Esto lleva a la conclusión de Lecun de que para respuestas suficientemente largas, la probabilidad de sustentar la coherencia se acerca exponencialmente a cero, lo que sugiere que los LLM autorregresivos son inherentemente defectuosos.
Pero aquí está el problema: E no es constante.
En pocas palabras, el argumento de Lecun supone que la probabilidad de cometer un error en cada nuevo token es independiente. Sin bloqueo, los LLM no funcionan de esa modo.
Como semejanza para lo que permite que LLM supere este problema, imagine que está contando una historia: si comete un error en una oración, aún puede corregirlo en el futuro para sustentar la novelística coherente. Lo mismo se aplica a los LLM, especialmente cuando las técnicas como la sujeción de pensamiento (COT), lo que solicita, los pauta cerca de un mejor razonamiento ayudándoles a reevaluar sus propias expectativas en el camino.
Por qué esta suposición es defectuosa
Exhibición de LLMS Propiedades de autocorrección que les impiden helicoidal en incoherencia.
Admitir Sujeción de pensamiento (COT) Involucrarque alienta al maniquí a gestar pasos de razonamiento intermedios. COT permite que el maniquí considere múltiples perspectivas, mejorando su capacidad de converger a una respuesta aceptable. Similarmente, Sujeción de demostración (CoV) y los mecanismos de feedback estructurados como ARQS guían el maniquí para engrosar expectativas válidas y descartar los erróneos.
Un pequeño error al principio en el proceso de gestación no necesariamente condenan la respuesta final. En sentido figurado, un LLM puede confirmar su trabajo, retroceder y corregir errores sobre la marcha.
Las consultas de razonamiento atento (ARQ) son un cambio de bisagra
En Parlantehemos llevado este principio más allá en nuestro trabajo en Consultas de razonamiento atento (Un trabajo de investigación que describe nuestros resultados está actualmente en proceso, pero el patrón de implementación se puede explorar en nuestra cojín de código de código destapado). Los ARQ introducen planos de razonamiento que ayudan al maniquí a sustentar la coherencia a lo derrochador de largas finalizaciones reenfocando dinámicamente la atención en las instrucciones esencia en puntos estratégicos en el proceso de finalización, evitando continuamente que los LLM se divergen en incoherencia. Utilizándolos, hemos podido sustentar un conjunto de pruebas prócer que exhibe una consistencia cercana al 100% en la gestación de terminaciones correctas para tareas complejas.
Esta técnica nos permite conseguir una precisión mucho decano en el razonamiento y el seguimiento de las instrucciones impulsados por la IA, lo que ha sido fundamental para nosotros al habilitar aplicaciones confiables y alineadas orientadas al cliente.
Los modelos autorregresivos están aquí para quedarse
Creemos que los LLM autorregresivos están allí de ser condenados. Si aceptablemente la coherencia de forma larga es un desafío, suponiendo una tasa de error compuesta exponencialmente ignora los mecanismos esencia que mitigan la oposición—De razonamiento de la sujeción de pensamiento hasta razonamiento estructurado como ARQ.
Si está interesado en la alineamiento de la IA y el aumento de la precisión de los agentes de chat utilizando LLM, no dude en explorar Parlant’s esfuerzo de código destapado. Continuemos refinando cómo generan y estructuramos el conocimiento.
Descargo de responsabilidad: Las opiniones y opiniones expresadas en este artículo invitado son las del autor y no reflejan necesariamente la política o posición oficial de MarktechPost.
Yam Marcovitz es el líder tecnológico de Parlant y CEO en EMCIE. Un experimentado constructor de software con una amplia experiencia en software de encargo crítica y inmueble del sistema, los informes de Yam informan su enfoque distintivo para desarrollar sistemas de IA controlables, predecibles y alineados.