Los nuevos modelos de IA generativos con una amplia abanico de capacidades están surgiendo cada semana. En este mundo de innovación rápida, al nominar los modelos para integrarse en su sistema de IA, es crucial hacer una evaluación de riesgos reflexiva que garantice un contrapeso entre exprimir los nuevos avances y sostener una seguridad sólida. En Microsoft, nos estamos centrando en hacer de nuestra plataforma de progreso de IA un superficie seguro y confiable donde pueda explorar e innovar con confianza.
Aquí hablaremos sobre una parte esencia de eso: cómo aseguramos los modelos y el entorno de tiempo de ejecución en sí. ¿Cómo protegemos contra un maniquí malo que comprometa su sistema de IA, su finca en la abundancia más noble o incluso la propia infraestructura de Microsoft?
Cómo Microsoft protege los datos y el software en los sistemas de IA
Pero antaño de comenzar eso, permítanme configurar un error muy global sobre cómo se utilizan los datos en los sistemas de IA. Microsoft lo hace no Use datos de clientes para capacitar a modelos compartidos, ni comparte sus registros o contenido con proveedores de modelos. Nuestros productos y plataformas de inteligencia fabricado son parte de nuestras ofertas de productos estereotipado, sujetos a los mismos términos y límites de confianza que ha esperado de Microsoft, y sus entradas y panorama de modelos se consideran contenido del cliente y se manejan con la misma protección que sus documentos y mensajes de correo electrónico. Nuestras ofrendas de plataforma de IA (Azure ai fundición y Servicio Azure OpenAI) están alojados al 100% por Microsoft en sus propios servidores, sin conexiones de tiempo de ejecución con los proveedores de modelos. Ofrecemos algunas características, como el maniquí de ajuste, que le permiten usar sus datos para crear mejores modelos para su propio uso, pero estos son su modelos que permanecen en su inquilino.
Entonces, apelar al maniquí de seguridad: lo primero que debe rememorar es que los modelos son solo software, que se ejecutan en Azure Imaginario Máquinas (VM) y accedido a través de una API; No tienen poderes mágicos para salir de esa VM, más que cualquier otro software que pueda ejecutar en una VM. Azure ya está asaz defendido contra el software que se ejecuta en una VM que intenta atacar la infraestructura de Microsoft: los actores de Bad intentan hacerlo todos los días, no necesitando IA para ello, y la fundición de IA hereda todas esas protecciones. ¡Esta es una cimentación de «cerofilido»: los servicios de Azure no asumen que las cosas que se ejecutan en Azure son seguras!
Ahora es posible ocultar malware adentro de un maniquí de IA. Esto podría representar un peligro para usted de la misma modo que el malware en cualquier otro software de código campechano o cerrado podría. Para mitigar este peligro, para nuestros modelos de más ingreso visibilidad escaneamos y los probamos antaño de su emanación:
- Prospección de malware: Escaneos modelos de IA para un código ladino integrado que podrían servir como vector de infección y emanación para el malware.
- Evaluación de vulnerabilidad: Escaneos para vulnerabilidades y exposiciones comunes (CVE) y vulnerabilidades de día cero dirigidos a modelos de IA.
- Detección de puerta trasera: La funcionalidad del maniquí de escaneos para la evidencia de ataques de la cautiverio de suministro y puestos traseros, como la ejecución del código infundado y las llamadas de red.
- Integridad del maniquí: Analiza las capas, componentes y tensores de un maniquí AI para detectar manipulación o corrupción.
Puede identificar qué modelos han sido escaneados por la indicación en su polímero maniquí; no se requiere influencia del cliente para obtener este beneficio. Para modelos especialmente de ingreso visibilidad como Deepseek r1vamos aún más acullá y hacemos que equipos de expertos destrozen el software, que examina su código fuente, que los equipos rojos sondean el sistema adversarmente, etc., para apañarse cualquier problema potencial antaño de liberar el maniquí. Este decano nivel de escaneo no tiene (todavía) un indicador visible en la polímero maniquí, pero dada su visibilidad pública, queríamos hacer el escaneo antaño de tener los medios de UI listos.
Defender y administrar modelos de IA
Por supuesto, como profesionales de seguridad, presumiblemente se da cuenta de que ningún escaneo puede detectar toda influencia maliciosa. Este es el mismo problema que enfrenta una estructura con cualquier otro software de terceros, y las organizaciones deben abordarlo de la modo habitual: la confianza en ese software debe provenir en parte de intermediarios de confianza como Microsoft, pero sobre todo debe estar enraizado en la propia confianza de una estructura (o desatiendo de ella) para su proveedor.
Para aquellos que desean una experiencia más segura, una vez que haya favorito e implementado un maniquí, puede usar el conjunto completo de los productos de seguridad de Microsoft para defenderlo y gobernarlo. Puedes acertar más sobre cómo hacer eso aquí: Apuntalar Deepseek y otros sistemas de IA con Microsoft Security.
Y, por supuesto, como la calidad y el comportamiento de cada maniquí son diferentes, debe evaluar cualquier maniquí no solo para la seguridad, sino para si se ajusta a su caso de uso específico, probándolo como parte de su sistema completo. Este es parte del enfoque más amplio de cómo afirmar los sistemas de IA a los que volveremos, en profundidad, en un próximo blog.
Uso de Microsoft Security para afirmar modelos de IA y datos del cliente
En esquema, los puntos esencia de nuestro enfoque para afirmar modelos en Azure ai fundición son:
- Microsoft lleva a lugar una variedad de investigaciones de seguridad para modelos esencia de IA antaño de alojarlos en el Azure AI Catálogo de modelos de fundicióny continúa monitoreando los cambios que pueden afectar la confiabilidad de cada maniquí para nuestros clientes. Puede usar la información en la polímero maniquí, así como su confianza (o desatiendo de ella) en cualquier constructor de modelos donado, para evaluar su posición en torno a cualquier maniquí de la modo que lo haría para cualquier biblioteca de software de terceros.
- Todos los modelos alojados en Azure están aislados adentro del meta del inquilino del cliente. No hay paso a o desde el proveedor de modelos, incluidos socios cercanos como OpenAI.
- Datos de los clientes no se usa para entrenar modelosSiquiera está arreglado fuera del inquilino de Azure (a menos que el cliente diseñe su sistema para hacerlo).
Obtenga más información con Microsoft Security
Para obtener más información sobre Microsoft Security Solutions, visite nuestrasitio web.Marcar elBlog de seguridadPara mantenerse al día con nuestra cobertura experta sobre asuntos de seguridad. Por otra parte, síganos en LinkedIn (Seguridad de Microsoft) y x (@Msftsecurity) para las últimas informativo y actualizaciones sobre ciberseguridad.