Athrun Data Intelligence

ByteDance Research presenta FLUX de 1,58 bits: un nuevo enfoque de IA que cuantifica el 99,5% de los parámetros del transformador a 1,58 bits

Los Vision Transformers (ViT) se han convertido en la piedra angular de la visión por computadora y ofrecen un gran rendimiento y adaptabilidad. Sin secuestro, su gran tamaño y sus demandas computacionales crean desafíos, particularmente para la implementación en dispositivos con posibles limitados. Modelos como FLUX Vision Transformers, con miles de millones de parámetros, requieren […]

Present-o: un modelo de IA unificado que unifica la comprensión y la generación multimodal utilizando un único transformador

Este artículo presenta Present-o, un modelo de transformador unificado que integra capacidades de comprensión y generación multimodal dentro de una única arquitectura. A medida que avanza la inteligencia synthetic, ha habido un progreso significativo en la comprensión multimodal (por ejemplo, la respuesta a preguntas visuales) y la generación (por ejemplo, la síntesis de texto a […]