Athrun Data Intelligence



¿Alguna vez le han hecho una pregunta de la que solo sabía una parte de la respuesta? Para dar una respuesta más informada, lo mejor sería nombrar a un amigo que tenga más conocimientos sobre el tema.

Este proceso colaborativo además puede ayudar a los grandes modelos lingüísticos (LLM) a mejorar su precisión. Aun así, ha sido difícil enseñarles a buscar cuándo deberían colaborar con otro maniquí para obtener una respuesta. En emplazamiento de utilizar fórmulas complejas o grandes cantidades de datos etiquetados para indicar en qué casos los modelos deberían trabajar juntos, los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Sintético (CSAIL) del MIT han imaginado un enfoque más orgánico.

Su nuevo operación, llamado “Co-LLM”, puede emparejar un LLM central de propósito militar con un maniquí más especializado y ayudarlos a trabajar juntos. Mientras el primero elabora una respuesta, Co-LLM revisa cada palabra (o token) en el interior de su respuesta para ver dónde puede acudir a una respuesta más precisa del maniquí hábil. Este proceso conduce a respuestas más precisas a cosas como indicaciones médicas y problemas de matemáticas y razonamiento. Entregado que el maniquí hábil no es necesario en cada iteración, esto además conduce a una procreación de respuestas más capaz.

Para atreverse cuándo un maniquí cojín necesita la ayuda de un maniquí hábil, el entorno utiliza el formación maquinal para entrenar una “variable de conmutación”, o una útil que puede indicar la competencia de cada palabra en el interior de las respuestas de los dos LLM. La variable de conmutación es como un director de proyectos, que encuentra áreas en las que debería nombrar a un entendido. Si le pidiera a Co-LLM que nombrara algunos ejemplos de especies de osos extintas, por ejemplo, dos modelos redactarían respuestas juntas. El LLM de propósito militar comienza a articular una respuesta, con la variable de conmutación interviniendo en las partes en las que puede insertar un token mejor del maniquí hábil, como ampliar el año en que se extinguió la especie de oso.

“Con Co-LLM, esencialmente estamos capacitando a un LLM de propósito militar para ‘nombrar’ a un maniquí hábil cuando sea necesario”, dice Shannon Shen, estudiante de doctorado del MIT en ingeniería eléctrica y ciencias de la computación y afiliada a CSAIL, quien es autora principal de un Nuevo artículo sobre el enfoque“Utilizamos datos específicos del dominio para enseñar al maniquí cojín sobre la experiencia de su contraparte en áreas como tareas biomédicas y preguntas de matemáticas y razonamiento. Este proceso encuentra automáticamente las partes de los datos que son difíciles de producir para el maniquí cojín y luego le indica al maniquí cojín que cambie al LLM hábil, que fue entrenado previamente con datos de un campo similar. El maniquí de propósito militar proporciona la procreación de «plataforma» y, cuando recurre al LLM especializado, le indica al hábil que genere los tokens deseados. Nuestros hallazgos indican que los LLM aprenden patrones de colaboración de guisa orgánica, de guisa similar a cómo los humanos reconocen cuándo acudir a un hábil para completar los espacios en blanco».

Una combinación de flexibilidad y factibilidad

Imaginemos que le pedimos a un doctor en derecho de uso militar que nombre los ingredientes de un medicamento específico que se vende con récipe. Es posible que responda incorrectamente, lo que requeriría la experiencia de un maniquí especializado.

Para demostrar la flexibilidad del Co-LLM, los investigadores utilizaron datos como BioASQ conjunto médico para combinar un LLM cojín con LLM expertos en diferentes dominios, como el Maniquí Meditronque está entrenado previamente con datos médicos no etiquetados. Esto permitió que el operación ayudara a reponer las preguntas que normalmente recibiría un hábil biomédico, como nombrar los mecanismos que causan una enfermedad en particular.

Por ejemplo, si le pidiera a un simple LLM que nombrara los ingredientes de un medicamento recetado específico, podría reponer incorrectamente. Con la experiencia adicional de un maniquí que se especializa en datos biomédicos, obtendría una respuesta más precisa. Co-LLM además alerta a los usuarios sobre dónde revisar las respuestas.

Otro ejemplo del aumento del rendimiento de Co-LLM: cuando se le asignó la tarea de resolver un problema matemático como «a3 · a2 si a=5», el maniquí de propósito militar calculó incorrectamente que la respuesta era 125. A medida que Co-LLM entrenaba al maniquí para colaborar más con un gran LLM de matemáticas llamado LlénameJuntos determinaron que la alternativa correcta era 3,125.

El co-LLM proporcionó respuestas más precisas que los LLM simples y ajustados y los modelos especializados no ajustados que trabajaban de forma independiente. El co-LLM puede adiestrar a dos modelos que se entrenaron de forma diferente para que trabajen juntos, mientras que otros enfoques de colaboración LLM eficaces, como “Ajuste de proxy,«necesitan que todos sus modelos componentes se entrenen de guisa similar. Adicionalmente, esta estría cojín requiere que cada maniquí se use simultáneamente para producir la respuesta, mientras que el operación del MIT simplemente activa su maniquí hábil para tokens particulares, lo que conduce a una procreación más capaz.

Cuándo preguntarle al hábil

El operación de los investigadores del MIT destaca que imitar más fielmente el trabajo en equipo humano puede aumentar la precisión en la colaboración entre varios LLM. Para aumentar aún más su precisión factual, el equipo puede acudir a la autocorrección humana: están considerando un enfoque de aplazamiento más sólido que pueda dar marcha detrás cuando el maniquí hábil no dé una respuesta correcta. Esta puesta al día permitiría a Co-LLM corregir el rumbo para que el operación pueda seguir dando una respuesta satisfactoria.

Al equipo además le gustaría modernizar el maniquí hábil (mediante el entrenamiento exclusivo del maniquí cojín) cuando haya nueva información apto, para nutrir las respuestas lo más actualizadas posible. Esto permitiría a Co-LLM combinar la información más actualizada con un gran poder de razonamiento. Con el tiempo, el maniquí podría ayudar con los documentos empresariales, utilizando la información más nuevo que tenga para actualizarlos en consecuencia. Co-LLM además podría entrenar modelos pequeños y privados para que trabajen con un LLM más potente para mejorar los documentos que deben permanecer en el interior del servidor.

“Co-LLM presenta un enfoque interesante para estudiar a nominar entre dos modelos para mejorar la eficiencia y el rendimiento”, dice Colin Raffel, profesor asociado de la Universidad de Toronto y director asociado de investigación del Instituto Vector, que no participó en la investigación. “Entregado que las decisiones de enrutamiento se toman a nivel de token, Co-LLM proporciona una forma granular de demorar los pasos de procreación difíciles a un maniquí más potente. La combinación única de enrutamiento a nivel de modelo-token además proporciona una gran flexibilidad de la que carecen métodos similares. Co-LLM contribuye a una importante estría de trabajo que tiene como objetivo desarrollar ecosistemas de modelos especializados para pasar a los costosos sistemas de IA monolíticos”.

Shen escribió el artículo con otros cuatro afiliados de CSAIL: el estudiante de doctorado Hunter Lang ’17, MEng ’18; el ex investigador de posdoctorado e investigador de Apple AI/ML Bailin Wang; el profesor adjunto de ingeniería eléctrica y ciencias de la computación del MIT Yoon Kim, y el profesor y miembro de la Clínica Jameel David Sontag PhD ’10, quienes son parte del Laboratorio de IA Watson del MIT-IBM. Su investigación fue apoyada, en parte, por la Fundación Franquista de Ciencias, la Subsidio de Posgrado en Ciencias e Ingeniería de la Defensa Franquista (NDSEG), el Laboratorio de IA Watson del MIT-IBM y Amazon. Su trabajo fue presentado en la Reunión Anual de la Asociación de Filología Computacional.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *