Los investigadores descubren una deficiencia que hace que los LLM sean menos confiables | Telediario del MIT

Según un estudio del MIT, los modelos de lenguajes grandes (LLM) a veces aprenden las lecciones equivocadas. En emplazamiento de contestar una consulta basada en el conocimiento del dominio, un LLM podría contestar aprovechando los patrones gramaticales que aprendió durante la capacitación. Esto puede provocar que un maniquí falle inesperadamente cuando se implementa en nuevas […]