Athrun Data Intelligence

Los investigadores de Google Deepmind proponen Camel: una defensa robusta que crea una capa del sistema de protección aproximadamente del LLM, asegurándolo incluso cuando los modelos subyacentes pueden ser susceptibles a los ataques

Los modelos de idiomas grandes (LLM) se están volviendo integrales para la tecnología moderna, lo que impulsa sistemas de agente que interactúen dinámicamente con entornos externos. A pesar de sus impresionantes capacidades, los LLM son mucho vulnerables a ataques de inyección inmediatos. Estos ataques ocurren cuando los adversarios inyectan instrucciones maliciosas a través de fuentes […]