Athrun Data Intelligence

Los investigadores de Google Deepmind proponen Camel: una defensa robusta que crea una capa del sistema de protección aproximadamente del LLM, asegurándolo incluso cuando los modelos subyacentes pueden ser susceptibles a los ataques

Los modelos de idiomas grandes (LLM) se están volviendo integrales para la tecnología moderna, lo que impulsa sistemas de agente que interactúen dinámicamente con entornos externos. A pesar de sus impresionantes capacidades, los LLM son mucho vulnerables a ataques de inyección inmediatos. Estos ataques ocurren cuando los adversarios inyectan instrucciones maliciosas a través de fuentes […]

Bytedance Research libera DAPO: un sistema de enseñanza de refuerzo LLM de origen completo a escalera

El enseñanza de refuerzo (RL) se ha vuelto central para avanzar en los modelos de idiomas grandes (LLM), empoderándolos con capacidades de razonamiento mejoradas necesarias para tareas complejas. Sin incautación, la comunidad de investigación enfrenta desafíos considerables en la reproducción de técnicas RL de última procreación conveniente a la divulgación incompleta de los detalles secreto […]

Tormenta (reducción de tokens espacio -temporal para LLM multimodales): una nueva construcción de IA que incorpora un codificador temporal dedicado entre el codificador de imagen y el LLM

Comprensión Videos con AI requiere manejo de secuencias de imágenes de forma valioso. Un desafío importante en los modelos de IA basados ​​en video actuales es su incapacidad para procesar videos como un flujo continuo, agraviar importantes detalles de movimiento e interrumpir la continuidad. Esta equivocación de modelado temporal evita los cambios en el rastreo; […]

Escalera de observación de texto no estructurado con inferencia LLM por lotes

«LLMS están cambiando el circunstancia de trabajo» es más que una secante de protocolo. Considere esto: categorizar 10,000 boletos de soporte tomaría incluso a su empleado más rápido aproximadamente 55 horas (a 20 segundos por boleto). Con una tubería LLM optimizada, la misma tarea lleva minutos. Esto no es una progreso incremental: es una beneficio […]

Autoagente: un entorno totalmente automatizado y en extremo autodesarrollado que permite a los usuarios crear e implementar agentes LLM solo a través del estilo natural

Desde procesos comerciales hasta estudios científicos, los agentes de IA pueden procesar enormes conjuntos de datos, racionalizar los procesos y ayudar en la toma de decisiones. Sin requisa, incluso con todos estos desarrollos, construcción y acoplamiento de agentes de LLM sigue siendo una tarea desalentadora para la mayoría de los usuarios. La razón principal es […]

Este documento de IA introduce modelado de retribución de agente (ARM) y retribución: un enfoque de IA híbrido que combina las preferencias humanas y la corrección verificable para el entrenamiento confiable de LLM

Los modelos de idiomas grandes (LLM) dependen de las técnicas de enseñanza de refuerzo para mejorar las capacidades de engendramiento de respuesta. Un aspecto crítico de su progreso es el modelado de recompensas, que ayuda a capacitar a los modelos para alinearse mejor con las expectativas humanas. Los modelos de recompensas evalúan las respuestas basadas […]

Meta AI presenta SWE-RL: un enfoque de IA para el razonamiento LLM basado en el educación de refuerzo de escalera para la ingeniería de software del mundo vivo

El progreso actual de software enfrenta una multitud de desafíos que se extienden más allá de la simple engendramiento de código o detección de errores. Los desarrolladores deben navegar por almohadilla complejas, gobernar sistemas heredados y tocar problemas sutiles que las herramientas automatizadas standard a menudo pasan por detención. Los enfoques tradicionales en la reparación […]

Microsoft AI libera omniparser v2: una útil de IA que convierte cualquier LLM en un agente de uso de una computadora

En el ámbito de la inteligencia fabricado, permitir que los modelos de idiomas grandes (LLM) naveguen e interactúen con las interfaces gráficas de legatario (GUI) ha sido un desafío importante. Si adecuadamente los LLM son expertos en procesar datos textuales, a menudo encuentran dificultades al interpretar medios visuales como íconos, ordenanza y menús. Esta inconveniente […]

¿Están verdaderamente condenados a los LLM autorregresivos? Un comentario sobre la fresco nota esencia de Yann Lecun en AI Action Summit

Yann Lecun, sabio caudillo de IA de Meta y uno de los pioneros de la IA moderna, recientemente argumentó que los modelos de verbo prócer (LLMS) autorregresivos son fundamentalmente defectuosos. Según él, la probabilidad de gestar una respuesta correcta disminuye exponencialmente con cada token, haciéndolos poco prácticos para las interacciones AI confiables y de forma […]

Tutorial para ajustar Mistral 7B con Qlora usando Axolotl para un entrenamiento efectivo de LLM

En este tutorial, demostramos el flujo de trabajo para ajustar Mistral 7b usando Qlora con Ajolotemostrando cómo llevar la batuta bienes de GPU limitados mientras personaliza el maniquí para nuevas tareas. Instalaremos Axolotl, crearemos un pequeño conjunto de datos de ejemplo, configuraremos los hiperparámetros específicos de Lora, ejecutaremos el proceso de ajuste fino y probará […]