Athrun Data Intelligence

NVIDIA AI publica Universal Deep Research (UDR): un situación prototipo para agentes de investigación profunda escalable y auditable

¿Por qué las herramientas de investigación profundas existentes se quedan cortas? Las herramientas de investigación profunda (DRTS) como Gemini Deep Research, Perplexity, OpenAI’s Deep Research y Grok DeepSearch dependen de flujos de trabajo rígidos vinculados a una LLM fija. Si aceptablemente son efectivos, imponen limitaciones estrictas: los usuarios no pueden puntualizar estrategias personalizadas, modelos de […]

Snowpark Connect para Apache Spark ™ en paisaje previa pública

En la traducción 3.4, la comunidad Apache Spark ™ introdujo Spark Connect. Su edificación de servidor cliente desacoplada separa el código del adjudicatario del clúster Spark donde se realiza el trabajo. Esta nueva edificación ahora permite ejecutar su código de chispa en un almacén de copos de cocaína que elimina la aprieto de aprovisionar y […]

Microsoft publica NLWEB: un plan hendido que permite a los desarrolladores convertir fácilmente cualquier sitio web en una aplicación con IA con interfaces de habla natural

Muchos sitios web carecen de formas accesibles y rentables para integrar las interfaces del habla natural, lo que dificulta que los usuarios interactúen con el contenido del sitio a través de IA conversacional. Las soluciones existentes a menudo dependen de servicios centralizados y patentados o requieren una experiencia técnica significativa, limitando la escalabilidad y la […]

Anunciando la pinta previa pública de las API de conversación de AI/Bi Genie

Como parte de nuestro Iniciativa de la Semana de los Agentes de AIpresentamos nuevas capacidades para ayudar a las empresas a construir y manejar agentes de IA de incorporación calidad. Con ese fin, Nos complace anunciar la pinta previa pública de las Apis de conversación de talanteapto en AWS, Azure y GCP. Con esta suite […]

Meta AI publica ‘razonamiento natural’: un conjunto de datos de dominios múltiples con 2.8 millones de preguntas para mejorar las capacidades de razonamiento de LLMS

Los modelos de idiomas grandes (LLM) han mostrado avances notables en las capacidades de razonamiento para resolver tareas complejas. Mientras que modelos como Openi’s O1 y Deepseek’s R1 han mejorado significativamente los puntos de narración de razonamiento desafiantes, como las matemáticas de competencia, la codificación competitiva y el GPQA, las limitaciones críticas siguen siendo evaluando […]