Athrun Data Intelligence


Microsoft ha acabado la certificación ISO/IEC 42001: 2023, un standard obligado a nivel mundial para los sistemas de papeleo de inteligencia químico tanto para los modelos Azure AI Foundry como para el copiloto de seguridad de Microsoft.

Microsoft ha acabado la certificación ISO/IEC 42001: 2023: un standard obligado a nivel mundial para los sistemas de papeleo de inteligencia químico (AIM) para los dos Azure AI Foundry Models y Copiloto de seguridad de Microsoft. Esta certificación subraya el compromiso de Microsoft para construir y especular sistemas de IA de forma responsable, segura y transparente. Como la IA responsable se está convirtiendo rápidamente en un imperativo comercial y regulatorio, esta certificación refleja cómo Microsoft permite a los clientes innovar con confianza.

Levantando el listel para la IA responsable con ISO/IEC 42001

ISO/IEC 42001desarrollado por la Estructura Internacional de Estandarización (ISO) y la Comisión Electrotecnical Internacional (IEC), establece un situación a nivel mundial para la papeleo de los sistemas de IA. Aborda una amplia abanico de requisitos, desde la papeleo de riesgos y la mitigación de sesgo hasta la transparencia, la supervisión humana y la responsabilidad organizacional. Este standard internacional proporciona un situación certificable para establecer, implementar, suministrar y mejorar un sistema de papeleo de IA, apoyar a las organizaciones para enfrentarse los riesgos y las oportunidades a lo dispendioso del ciclo de vida de la IA.

Al alcanzar esta certificación, Microsoft demuestra que los modelos Azure AI Foundry, incluidos los modelos Azure OpenAI, y Microsoft Security Copilot priorizan la innovación responsable y son validados por un tercero independiente. Proporciona a nuestros clientes una seguridad adicional de que la aplicación de Microsoft Azure de gobernanza sólida, papeleo de riesgos y prácticas de cumplimiento en los modelos de Foundry de Azure AI y el copiloto de Security de Microsoft se desarrollan y operan en columna con El standard de IA responsable de Microsoft.

Apoyo a los clientes en todas las industrias

Ya sea que esté implementando IA en industrias reguladas, integrando IA generativa en productos o explorando nuevos casos de uso de IA, esta certificación ayuda a los clientes:

  • Acelerar su propio alucinación de cumplimiento Aprovechando los servicios de IA certificados y heredando los controles de gobernanza alineados con las regulaciones emergentes.
  • Construir confianza Con sus propios usuarios, socios y reguladores a través de una gobernanza auditable transparente y evidencia con la certificación AIMS para estos servicios.
  • Obtenga transparencia sobre cómo Microsoft administra los riesgos de IA y gobierna el avance responsable de la IA, lo que brinda a los usuarios una veterano confianza en los servicios en los que aprovechan.

Ingeniería de la confianza y la IA responsable en la plataforma Azure

Microsoft’s Software responsable de IA (RAI) es la columna vertebral de nuestro enfoque de AI confiable e incluye cuatro pilares principales.Presidir, mapear, determinar y establecer—En pauta cómo diseñamos, personalizamos y administramos aplicaciones y agentes de IA. Estos principios están integrados tanto en los modelos de Foundry Azure AI como en Microsoft Security Copilot, lo que resulta en servicios diseñados para ser innovadores, seguros y responsables.

Estamos comprometidos a cumplir nuestra promesa de IA responsable y continuar construyendo sobre nuestro trabajo existente que incluye:

  1. Nuestro Compromisos de clientes de IA para ayudar a nuestros clientes en su alucinación de IA responsable.
  2. Nuestro inaugural Noticia de transparencia de IA responsable Eso nos permite registrar y compartir nuestras prácticas de maduración, reflexionar sobre lo que hemos aprendido, trazar nuestros objetivos, responsabilizarnos y ingresar la confianza del notorio.
  3. Nuestras notas de transparencia para Azure AI Foundry Models y Copiloto de seguridad de Microsoft Ayude a los clientes a comprender cómo funciona nuestra tecnología AI, sus capacidades y limitaciones, y los propietarios del sistema de opciones pueden hacer que influyan en el rendimiento y el comportamiento del sistema.
  4. Nuestro AI RES responsableources site que proporciona herramientas, prácticas, plantillas e información que creemos que ayudará a muchos de nuestros clientes a establecer sus prácticas de IA responsables.

Apoyando su alucinación de IA responsable con confianza

Reconocemos que la IA responsable requiere más que la tecnología; Requiere procesos operativos, papeleo de riesgos y responsabilidad clara. Microsoft admite a los clientes en estos esfuerzos al proporcionar tanto la plataforma como la experiencia a la confianza operativa y al cumplimiento. Microsoft se mantiene firme en nuestro compromiso con lo posterior:

  • Progreso continuamente de nuestro sistema de papeleo de IA.
  • Comprender las evacuación y expectativas de nuestros clientes.
  • Construyendo en el software Microsoft RAI y la papeleo de riesgos de IA.
  • Identificar y desempeñarse sobre oportunidades que nos permiten construir y suministrar la confianza en nuestros productos y servicios de IA.
  • Colaborando con la creciente comunidad de practicantes de IA responsables, reguladores e investigadores sobre el avance de nuestro enfoque de IA responsable.

ISO/IEC 42001: 2023 se une a la extensa cartera de certificaciones de cumplimiento de Microsoft, reflejando nuestra dedicación al rigor operante y la transparencia, ayudando a los clientes a construir responsablemente en una plataforma en la nubarrón diseñada para la confianza. Desde una ordenamiento de atención médica que se esfuerza por la equidad hasta una institución financiera que supervisa el aventura de IA, o una agencia oficial que avanza las prácticas éticas de IA, las certificaciones de Microsoft permiten la prohijamiento de IA a escalera al tiempo que alinean el cumplimiento de la progreso de los estándares globales de seguridad, privacidad y gobernanza de IA responsable.

La colchoneta de Microsoft en seguridad y privacidad de datos y nuestras inversiones en resiliencia operativa y AI responsable muestra nuestra dedicación a ingresar y preservar la confianza en cada capa. Azure está diseñado para la confianza, impulsando la innovación en una colchoneta segura, resistente y transparente que brinda a los clientes la confianza para ascender la IA de forma responsable, navegar en progreso de las evacuación de cumplimiento y suministrar el control de sus datos y operaciones.

Obtenga más información con Microsoft

A medida que las regulaciones y expectativas de IA continúan evolucionando, Microsoft sigue enfocado en ofrecer una plataforma confiable para la innovación de IA, construida con resistor, seguridad y transparencia en su núcleo. La certificación ISO/IEC 42001: 2023 es un paso crítico en esa ruta, y Microsoft continuará invirtiendo en exceder los estándares globales e impulsar las innovaciones responsables para ayudar a los clientes a mantenerse a la vanguardia, segura, ética y a escalera.

Explore cómo ponemos la confianza en el núcleo de la innovación en la nubarrón con nuestro enfoque de seguridad, privacidad y cumplimiento en el Microsoft Trust Center. Ver esta certificación e referencia, así como otros documentos de cumplimiento en el Microsoft Service Trust Portal.


La certificación ISO/IEC 42001: 2023 para Azure Ai Foundry: Azure AI Foundry Models y Microsoft Security Copilot fueron emitidos por Cerebroun organismo de certificación acreditado por ISO por el Servicio Internacional de Credencial (IAS).



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *