StepFun AI alabarda Step-Audio-R1: un nuevo LLM de audio que finalmente se beneficia del escalado informático del tiempo de prueba

¿Por qué los modelos actuales de IA de audio suelen funcionar peor cuando generan razonamientos más largos en motivo de cimentar sus decisiones en el sonido existente? El equipo de investigación de StepFun alabarda Step-Audio-R1, un nuevo LLM de audio diseñado para medrar el tiempo de prueba, aborda este modo de defecto mostrando que la […]
Principal Financial Group acelera la creación, prueba e implementación de bots Amazon Lex V2 mediante la automatización

Esta publicación invitada fue escrita por Mulay Ahmed y Caroline Mediacaña-Lane de Principal Financial Group. El contenido y las opiniones de esta publicación son de autores externos y AWS no es responsable del contenido o la precisión de esta publicación. Con centros de contacto en EE. UU. que manejan millones de llamadas de clientes al […]
¿Los LLM efectivamente pueden fallar con razonamiento? Los investigadores de Microsoft y Tsinghua introducen modelos de razonamiento de recompensas para subir dinámicamente el calculador de tiempo de prueba para una mejor columna

El educación de refuerzo (RL) ha surgido como un enfoque fundamental en la capacitación de LLM, utilizando señales de supervisión de la feedback humana (RLHF) o las recompensas verificables (RLVR). Si admisiblemente RLVR se muestra prometedor en el razonamiento matemático, enfrenta limitaciones significativas adecuado a la dependencia de las consultas de capacitación con respuestas verificables. […]
Prueba Fellou Ai y dile adiós a Google y Chatgpt

Si miras el zaguero año, el articulación de navegación ha cambiado drásticamente. Todo comenzó con perplejidad y copiloto que ofrece respuestas más detalladas y personalizadas a las consultas de búsqueda, y se amplificó cuando ChatGPT agregó la opción de búsqueda web en su interfaz. Avance rápido hasta hoy, todos los LLM, ya sea Grok, Qwen, […]
Google AI Research presenta Titans: una nueva edificación de educación instintivo con atención y una metamemoria en contexto que aprende a memorizar en el momento de la prueba

Los modelos de estilo espacioso (LLM) basados en arquitecturas Transformer han revolucionado el modelado de secuencias a través de sus notables capacidades de educación en contexto y su capacidad de progresar de forma efectiva. Estos modelos dependen de módulos de atención que funcionan como bloques de memoria asociativa, almacenando y recuperando asociaciones clave-valor. Sin confiscación, […]