El año pasado, nosotros publicó un entorno de seguridad de IA que identifica 20 vectores de ataque contra grandes modelos de verbo y sistemas generativos de IA. En él, analizamos tres capas de IA que pueden convertirse en una superficie de ataque. Hablamos de la primera, la plataforma central, en el mensaje de Predicciones del año pasado. Observamos que la automatización evita configuraciones erróneas a nivel de producción y los entornos de explicación se convierten en un objetivo comparativamente más ligera. Pero en este punto, esa infraestructura asimismo se está consolidando proporcionado acertadamente.
El próximo año, esperamos que la ulterior capa, la operación del maniquí, se convierta en un objetivo más global. Los profesionales de seguridad deberán considerar cómo se entrena inicialmente el maniquí y cómo incorpora nuevos datos en producción. Tendremos que observar el ciclo de vida de todo el maniquí, así como el ciclo de vida de los datos que alimenta. Los equipos de seguridad tendrán que estandarizar sus enfoques en dirección a las nuevas tecnologías de IA para comprobar de que sean tan seguras como su infraestructura empresarial militar.
Una tercera capa de ataque, que esperamos que aumente en el futuro, es interactuar directamente con la IA para engañarla para que revele datos confidenciales que quizás no deberían haberse incorporado al maniquí. Es por eso que vemos la habilidad emergente de dirección de la postura de seguridad de los datos, que escudriñamiento elogiar una mejor visibilidad de la ubicación, los usos y la seguridad de los datos en toda la empresa.