Athrun Data Intelligence

LLMS ahora puede resolver problemas matemáticos desafiantes con datos mínimos: los investigadores de UC Berkeley y AI2 presentan una prescripción de ajuste fino que desbloquea el razonamiento matemático a través de los niveles de dificultad

Los modelos de verbo han hecho avances significativos para tocar las tareas de razonamiento, incluso los enfoques de ajuste finos (SFT) supervisados ​​a pequeña escalera (SFT), como la limusina y el S1, lo que demuestran mejoras notables en las capacidades matemáticas de resolución de problemas. Sin retención, quedan preguntas fundamentales sobre estos avances: ¿estos modelos […]

Los transformadores ahora pueden predecir las células de hoja de cálculo sin ajustar: los investigadores introducen TABPFN capacitado en 100 millones de conjuntos de datos sintéticos

Los datos tabulares se utilizan ampliamente en varios campos, incluidas la investigación científica, las finanzas y la atención médica. Tradicionalmente, estudios forzoso Se han preferido modelos como los árboles de intrepidez aumentados de gradiente para analizar datos tabulares correcto a su efectividad en el manejo de conjuntos de datos heterogéneos y estructurados. A pesar de […]

Los investigadores de Tencent AI introducen Hunyuan-T1: un maniquí de estilo reaccionario magnate alimentado por mamba que redefine un razonamiento profundo, eficiencia contextual y estudios de refuerzo centrado en el ser humano

Los modelos de idiomas grandes luchan para procesar y razonar sobre textos largos y complejos sin perder un contexto esencial. Los modelos tradicionales a menudo sufren pérdida de contexto, manejo ineficiente de dependencias de grande importancia y dificultades para alinearse con las preferencias humanas, afectando la precisión y la eficiencia de sus respuestas. Hunyuan-T1 de […]

Los investigadores de Google Deepmind proponen Camel: una defensa robusta que crea una capa del sistema de protección aproximadamente del LLM, asegurándolo incluso cuando los modelos subyacentes pueden ser susceptibles a los ataques

Los modelos de idiomas grandes (LLM) se están volviendo integrales para la tecnología moderna, lo que impulsa sistemas de agente que interactúen dinámicamente con entornos externos. A pesar de sus impresionantes capacidades, los LLM son mucho vulnerables a ataques de inyección inmediatos. Estos ataques ocurren cuando los adversarios inyectan instrucciones maliciosas a través de fuentes […]

Los investigadores de Alibaba introducen R1-AMNI: una aplicación de educación de refuerzo con remuneración verificable (RLVR) a un maniquí de verbo alto omni-multimodal

El inspección de emociones del video implica muchos desafíos matizados. Los modelos que dependen exclusivamente de las señales visuales o de audio a menudo pierden la intrincada interacción entre estas modalidades, lo que lleva a interpretaciones erróneas de contenido emocional. Una dificultad secreto es combinar de guisa confiable las señales visuales, como las expresiones faciales […]

Investigadores de UCLA, UC Merced y Adobe proponen metal: un situación de múltiples agentes que divide la tarea de vivientes de gráficos en la colaboración iterativa entre agentes especializados

La creación de cuadros que reflejan con precisión datos complejos siguen siendo un desafío matizado en el panorama de visualización de datos contemporáneo. A menudo, la tarea implica no solo capturar diseños precisos, colores y ubicaciones de texto, sino todavía traducir estos detalles visuales en código que reproduce el diseño previsto. Los métodos tradicionales, que […]

Los investigadores de Stanford desarrollaron Popper: un entorno de IA de agente que automatiza la moral de hipótesis con un control estadístico riguroso, reduciendo errores y un descubrimiento sabio acelerado por 10x

La moral de hipótesis es fundamental en el descubrimiento sabio, la toma de decisiones y la adquisición de información. Ya sea en biología, finanzas o formulación de políticas, los investigadores confían en probar hipótesis para llevar sus conclusiones. Tradicionalmente, este proceso implica diseñar experimentos, compendiar datos y analizar resultados para determinar la validez de una […]

Los investigadores de Google DeepMind proponen cuantización de Matryoshka: una técnica para mejorar la eficiencia del enseñanza profundo al optimizar los modelos de precisión múltiple sin inmolar la precisión

La cuantización es una técnica crucial en enseñanza profundo para disminuir los costos computacionales y mejorar la eficiencia del maniquí. Los modelos de verbo a gran escalera exigen una potencia de procesamiento significativa, lo que hace que la cuantización sea esencial para minimizar el uso de la memoria y mejorar la velocidad de inferencia. Al […]

Los investigadores de Microsoft AI introducen técnicas avanzadas de cuantificación de bajo bits para permitir la implementación de LLM efectivo en dispositivos de borde sin altos costos computacionales

Los dispositivos de borde como los teléfonos inteligentes, los dispositivos IoT y los sistemas integrados procesan datos localmente, mejorando la privacidad, la reducción de la latencia y la progreso de la capacidad de respuesta, y la IA se está integrando rápidamente en estos dispositivos. Pero, implementar modelos de idiomas grandes (LLM) en estos dispositivos es […]