Azure Ai Foundry reúne a la seguridad, la seguridad y la gobernanza en un proceso en capas que las empresas pueden seguir para originar confianza en sus agentes.
Esta publicación de blog es la sexta de una serie de blogs de seis partes indicación Industria de agentes Lo que comparte las mejores prácticas, patrones de diseño y herramientas para ayudarlo a guiarlo a través de la asimilación y la construcción de IA agente.
Confía como la próxima frontera
La confianza se está convirtiendo rápidamente en el desafío definitorio para Enterprise AI. Si la observabilidad se proxenetismo de ver, entonces la seguridad se proxenetismo de dirección. A medida que los agentes pasan de prototipos inteligentes a los sistemas comerciales centrales, las empresas están haciendo una pregunta más difícil: ¿cómo mantenemos a los agentes seguros, seguros y bajo control a medida que escalera?
La respuesta no es un baldosín de correcciones de puntos. Es un plan. Un enfoque en capas que pone la confianza primero al combinar identidad, barandillas, evaluaciones, pruebas adversas, protección de datos, monitoreo y gobernanza.
Por qué las empresas necesitan crear su plan ahora
En todas las industrias, escuchamos las mismas preocupaciones:
- Los CISO se preocupan por la expansión del agente y la propiedad poco clara.
- Los equipos de seguridad necesitan barandillas que se conecten a sus flujos de trabajo existentes.
- Los desarrolladores quieren la seguridad incorporada desde el primer día, no agregada al final.
Estas presiones están conduciendo el cambiar el engendro de la izquierda. Las responsabilidades de seguridad, seguridad y gobernanza se están moviendo antaño al flujo de trabajo del desarrollador. Los equipos no pueden esperar hasta la implementación para fijar a los agentes. Necesitan protecciones incorporadas, evaluaciones e integración de políticas desde el principio.
La fuga de datos, la inyección rápida y la incertidumbre regulatoria siguen siendo los principales bloqueadores de la asimilación de IA. Para las empresas, la confianza es ahora un ejecutor esencia fundamental en si los agentes se mueven del piloto a la producción.
¿Cómo son los agentes seguros y seguros?
De la asimilación empresarial, se destacan cinco cualidades:
- Identidad única: Cada agente es conocido y rastreado en su ciclo de vida.
- Protección de datos por diseño: La información confidencial se clasifica y se rige para aminorar el consumición compartido.
- Controles incorporados: Los filtros de daños y riesgos, las mitigaciones de amenazas y las verificaciones de basura reducen los resultados inseguros.
- Evaluado contra amenazas: Los agentes se prueban con evaluaciones de seguridad automatizadas y indicaciones adversas antaño de la implementación y durante toda la producción.
- Supervisión continua: La telemetría se conecta a las herramientas de seguridad y cumplimiento empresarial para la investigación y la respuesta.

Estas cualidades no garantizan la seguridad absoluta, pero son esenciales para construir agentes confiables que cumplan con los estándares empresariales. Hornarlos en nuestros productos refleja el enfoque de Microsoft para la IA confiable. Las protecciones se colocan en capas en el maniquí, el sistema, la política y los niveles de experiencia del adjudicatario, mejoradas continuamente a medida que los agentes evolucionan.
Cómo Azure Ai Foundry admite este plan

Azure ai fundición Reúne las capacidades de seguridad, seguridad y gobernanza en un proceso en capas que las empresas pueden seguir para originar confianza en sus agentes.
- ID de agente Entra
Próximamente, a todos los agentes creados en Foundry se le asignarán una ID de agente Entra única, que brinda visibilidad de las organizaciones en todos los agentes activos en un inquilino y ayudan a aminorar los agentes de la sombra. - Controles de agentes
Foundry ofrece la industria primero Controles de agentes que son completos y integrados. Es la única plataforma de IA con un clasificador de inyección de promtores cruzados que escanea no solo documentos rápidos sino además respuestas de herramientas, desencadenantes de correo electrónico y otras fuentes no confiables para marcar, encerrar y anular instrucciones maliciosas. Foundry además proporciona controles para preparar llamadas de herramientas desalineadas, acciones de parada peligro y pérdida de datos confidencial, pegado con filtros de daños y riesgos, controles de saco y detección de materiales protegidos.

- Evaluaciones de peligro y seguridad
Las evaluaciones proporcionan un circuito de feedback en todo el ciclo de vida. Los equipos pueden ejecutar daños y controles de peligro, anotación de basura y escaneos de material protegidos tanto antaño del despliegue como en la producción. El agente de equipo Red Red de Azure y el encaje de herramientas Pyrit simulan las indicaciones adversas a escalera para sondear el comportamiento, las vulnerabilidades de la superficie y proteger la resistor antaño de que los incidentes lleguen a la producción. - Control de datos con sus propios capital
Configuración de agente estereotipado en Azure AI Servicio de agente de fundición Permite a las empresas traer sus propios capital azules. Esto incluye almacenamiento de archivos, búsqueda e historial de conversación. Con esta configuración, los datos procesados por los agentes de fundición permanecen adentro del periferia del inquilino bajo los controles de seguridad, cumplimiento y gobernanza de la ordenamiento. - Aislamiento de red
Foundry Agent Service admite el aislamiento de la red privada con redes virtuales personalizadas y delegación de subred. Esta configuración garantiza que los agentes operen adentro de un periferia de red estrechamente atrapado e interactúen de forma segura con datos confidenciales del cliente en términos empresariales. - Pasado de Microsoft
Pasado de Microsoft Ayuda a extender la seguridad de los datos y el cumplimiento de las cargas de trabajo de IA. Los agentes en Foundry pueden honrar las etiquetas de sensibilidad de difusión y las políticas de DLP, por lo que las protecciones aplicadas a los datos se llevan a límite en futuro de agentes. Los equipos de cumplimiento además pueden utilizar el administrador de cumplimiento de Purview y las herramientas relacionadas para evaluar la línea con marcos como la Ley de AI de la UE y NIST AI RMF, e interactuar de forma segura con sus datos confidenciales del cliente en sus términos. - Defensor de Microsoft
Foundry superficies alertas y recomendaciones de Defensor de Microsoft directamente en el entorno del agente, brindando a los desarrolladores y administradores visibilidad en problemas, como intentos de inyección inmediata, llamadas de herramientas de peligro o comportamiento inusual. Esta misma telemetría además se convierte en Microsoft Defender XDR, donde los equipos del Centro de Operaciones de Seguridad pueden investigar incidentes pegado con otras alertas empresariales utilizando sus flujos de trabajo establecidos. - Colaboradores de gobernanza
Foundry se conecta con colaboradores de gobernanza como Credo AI y Saidot. Estas integraciones permiten a las organizaciones mapear los resultados de la evaluación a los marcos, incluida la Ley de AI de la UE y el Ámbito de Diligencia de Riesgos de AI NIST, lo que facilita la demostración de prácticas de IA responsables y la línea regulatoria.
Blueprint in Action
De la asimilación empresarial, estas prácticas se destacan:
- Comienzo con identidad. Asigne ID de agente Entra para establecer la visibilidad y evitar la expansión.
- Controles incorporados. Use escudos de inmediato, filtros de daños y riesgos, verificaciones de basura y detección de material protegido.
- Evaluar continuamente. Ejecutar controles de daños y riesgos, puntuación de fundición, escaneos de material protegidos y pruebas de adversidad con el agente de equipo rojo y la Pyrit antaño del despliegue y durante toda la producción.
- Proteger los datos confidenciales. Aplicar etiquetas de difusión y DLP para que las protecciones sean honradas en las futuro de los agentes.
- Monitorear con herramientas empresariales. Transmitir telemetría en defensor XDR y utilizar la observabilidad de la fundición para la supervisión.
- Conectar la gobernanza con la regulación. Use colaboradores de gobernanza para mapear los datos de evaluación a marcos como la Ley de AI de la UE y NIST AI RMF.
Puntos de prueba de nuestros clientes
Las empresas ya están creando planos de seguridad con Azure Ai Foundry:
- Ey Utiliza las tablas de clasificación y evaluaciones de Azure Ai Foundry para comparar modelos por calidad, costo y seguridad, ayudando a resquilar soluciones con decano confianza.
- Acentuar está probando el agente de equipo de Microsoft Ai Red para aparentar las indicaciones adversas a escalera. Esto permite que sus equipos validen no solo las respuestas individuales, sino además los flujos de trabajo completos de agentes múltiples en condiciones de ataque antaño de ponerse en marcha.
Obtenga más información
¿Te perdiste estas publicaciones en la serie de industria de agentes?