Athrun Data Intelligence


Con la velocidad vertiginosa del avance de la IA, las nuevas innovaciones inevitablemente superan la capacidad de los gobiernos globales para regular su uso. Cuando las regulaciones luchan por mantenerse al día, las tecnologías de inteligencia sintético que no se controlan corren el peligro de infringir derechos y libertades fundamentales. Algunos de los riesgos más apremiantes incluyen:

  • Privacidad: Los sistemas de inteligencia sintético pueden procesar enormes cantidades de datos personales, lo que genera preocupación sobre cómo se utilizan y protegen estos datos.

  • Inclinación: Los algoritmos de IA pueden perpetuar inadvertidamente los sesgos presentes en los datos de entrenamiento, creando “prisiones de algoritmos”, situaciones en las que los individuos o los sistemas quedan atrapados o limitados por las decisiones generadas por los algoritmos, a menudo sin la capacidad de comprender o cuestionar esos resultados.

  • Autonomía: Los sistemas de IA utilizados en los procesos de toma de decisiones pueden potencialmente socavar la autonomía individual si no se diseñan adecuadamente.

En motivo de pelear con un enfoque reactivo que aborde las nuevas tecnologías caso por caso, los gobiernos de todo el mundo están desarrollando marcos de gobernanza de la IA que buscan de guisa proactiva formas de afrontar estos desafíos. Cuando faltan marcos o es necesario desarrollarlos, estos gobiernos primero establecen la IA principios. Al establecer requisitos y protocolos de narración para respaldar la seguridad, la equidad y la transparencia de las tecnologías de IA, estos marcos pretenden crear un entorno que fomente la innovación de IA segura y responsable, al mismo tiempo que se mantiene al día con los últimos desarrollos.

En esta publicación, profundizamos en el panorama cambiante de la gobernanza de la IA y descubrimos cómo diferentes gobiernos de todo el mundo están afrontando estos desafíos.

La Ley de IA de la Unión Europea establece el habitual completo

En 2018, el Alianza de IA de la UE comenzó el proceso de reunir a más de 6.000 partes interesadas para establecer principios éticos y crear un dialogo publico sobre un uso completo confiable. A posteriori de seis abriles, la UE Ley de inteligencia sintético Marca el primer situación judicial integral del mundo diseñado específicamente para administrar los riesgos asociados con las tecnologías de IA, y zapatilla disposiciones que se implementarán gradualmente durante un período de seis a 36 meses.

La Ley de IA hace hincapié en un enfoque centrado en el ser humano para el expansión y la implementación de la IA, siguiendo la filosofía de que la IA no debe ser un fin en sí misma, sino más admisiblemente una utensilio para mejorar el florecimiento humano y promover el bienestar social. Lo logra estableciendo varios principios básicos, que incluyen:

  • Prohibir prácticas dañinas de IA: La Ley de IA prohíbe el uso de sistemas de IA con riesgos inaceptables, incluidos aquellos que manipulan las decisiones de las personas o explotan sus vulnerabilidades, evalúan a las personas en función de su comportamiento social o rasgos personales, o predicen riesgos criminales. Además prohíbe los sistemas que aprovechan el scraping no dirigido de imágenes faciales, infieren emociones en lugares de trabajo o escuelas, o categorizan a las personas basándose en datos biométricos.

  • Aplicación de regulaciones basadas en clasificación de peligro: Los sistemas de IA de stop peligro, incluidos los utilizados como componentes de seguridad de productos y los que son en sí mismos productos cubiertos por la reglamento de la UE, están sujetos a mayores obligaciones. Los sistemas de IA de peligro menguado, como los chatbots, enfrentan obligaciones de transparencia más leves, mientras que los sistemas de peligro intrascendente (como los videojuegos habilitados para IA y los filtros de spam) siguen en gran medida no regulados.

  • Establecimiento de obligaciones de transparencia: Los sistemas de IA deben diseñarse para ser transparentes, proporcionando instrucciones claras que incluyan detalles sobre el proveedor, las capacidades y limitaciones del sistema y cualquier peligro potencial. Las empresas deben informar a los usuarios cuando interactúan con un sistema de inteligencia sintético, excepto cuando sea obvio o con fines legales, como la detección de delitos.

  • Crear medidas para apoyar la innovación: La UE exige a los estados miembros que establezcan “zonas de pruebas regulatorias de IA” donde los sistemas de IA puedan desarrollarse, probarse y validarse antiguamente de su tiro al mercado. Las pequeñas y medianas empresas y las empresas de nueva creación tendrán entrada prioritario a estos entornos sandbox.

La postura proactiva de Europa sobre la gobernanza de la IA la posiciona como líder mundial en el establecimiento de estándares regulatorios, y muchos países más están planeando adoptar marcos de gobernanza similares en los próximos meses.

Estados Unidos prioriza cuatro pilares de la innovación responsable en IA

Estados Unidos ha seguido aprovechando los esfuerzos de administraciones anteriores para establecer marcos integrales de gobernanza de la IA. Al principio, varios departamentos federales establecieron principios como el del Sección de Defensa. Principios de IA responsable y el Sección de Energía Manual de estrategias de administración de riesgos de IA. Recientemente, la Casa Blanca publicó su Explicación de derechos de AI para encauzar el expansión. Para ello es fundamental el perfeccionamiento continuo de las leyes y directivas ejecutivas para mitigar los riesgos potenciales asociados con el despliegue de la IA y, al mismo tiempo, fomentar un entorno propicio para la innovación. Estados Unidos se ha centrado en estos cuatro pilares centrales de la innovación responsable en IA como pulvínulo de sus marcos:

  1. Seguridad: Certificar la seguridad de la IA implica procedimientos de prueba rigurosos, requisitos de certificación y mecanismos de seguimiento y evaluación continuos.

  2. Seguridad: Las consideraciones de seguridad son primordiales para proteger los sistemas de inteligencia sintético contra ciberamenazas, accesos no autorizados y usos maliciosos. Esto implica establecer estándares para la protección de datos, protocolos de oculto y resiliencia contra ataques adversarios.

  3. Equidad: La equidad en el expansión de la IA tiene como objetivo evitar sesgos en los algoritmos que podrían perpetuar la discriminación o los resultados inequitativos. Esto implica promover la multiplicidad en la investigación y el expansión de la IA, asegurar conjuntos de datos representativos e implementar medidas de honestidad y rendición de cuentas.

  4. Transparencia: La transparencia implica asegurar que los sistemas de IA sean comprensibles y explicables. Esto permite a las partes interesadas (incluidos los usuarios, los reguladores y el divulgado) comprender cómo se toman las decisiones de IA y evaluar su confiabilidad y equidad. De esta guisa, la transparencia conduce a la confianza.

Estos pilares de la gobernanza de la IA han permitido la innovación en todas las industrias, creando oportunidades para nuevas empresas y emprendedores. Más allá de eso, están surgiendo nuevos roles laborales que involucran la supervisión, interpretación y administración de sistemas de IA; por ejemplo, ha aumentado la demanda de científicos de datos, ingenieros de educación forzoso, especialistas en ética de la IA y formadores de IA. Con las medidas adecuadas, la IA tiene el potencial de aumentar las capacidades humanas y crear nuevas oportunidades laborales, una existencia prometedora que contrasta los temores de que la IA elimine puestos de trabajo.

Un ejemplo de innovación responsable en IA en la ejercicio

Las soluciones de IA generativa para el servicio al cliente proporcionan un ejemplo útil del tipo de innovación responsable y centrada en el ser humano que puede fomentarse mediante marcos metódicos de gobernanza de la IA.

Para los centros de llamadas, administrar grandes volúmenes de llamadas puede representar un desafío importante: los sistemas integrales de respuesta de voz interactiva pueden ocasionar largos menús telefónicos para los clientes, pero enrutar una señal a un agente humano es mucho más costoso y puede causar tiempos de dilación más prolongados. Para manejar la variedad de problemas que los clientes plantean, los agentes a menudo tienen que permanecer docenas de aplicaciones abiertas en sus pantallas, cambiando constantemente entre ellas. Y muchas de las llamadas manejadas por agentes humanos podrían tener sido manejadas fácilmente mediante la automatización en primer motivo. La inteligencia sintético y el educación forzoso podrían proporcionar una opción.

¿Cómo funcionaría? El educación forzoso podría estilarse para predecir por qué flama un cliente en función de todas las interacciones previas de ese cliente con la empresa. Según el tema de la señal, luego podría enrutarse a un chatbot generativo de IA para comunicarse con el cliente y resolver el problema, o enrutarse a un agente humano, quien incluso recibiría el contexto necesario por avanzado. Si el educación forzoso puede predecir correctamente el motivo de la señal del cliente antiguamente de que éste le indique el problema al agente, podría conducir a una resolución en la primera señal y a reducciones significativas en los costos operativos y el tiempo de manipulación.

Al usar Corteza de copo de cocaínauna empresa podría permitir que los datos de entrenamiento, los metadatos, el maniquí de IA generado y las indicaciones sigan siendo privados. Imagine la cantidad de información confidencial que contienen estas llamadas: estos agentes se ocupan de todo, desde información de sanidad privada hasta datos del Servicio de Impuestos Internos.

Sustentar la privacidad es crucial para construir una IA responsable y confiable. Y al centrarse en ayudar en motivo de reemplazar a los agentes humanos, una opción impulsada por el educación forzoso y la IA generativa se presenta como un ejemplo crucial de cómo la innovación responsable de la IA puede contribuir a mejorar la sociedad y al mismo tiempo resumir los riesgos relacionados.

Una carrera para regular la IA

Los países de todo el mundo están adoptando diferentes enfoques respecto de las regulaciones de IA. Algunos han acogido una organización de “esperar y ver qué pasa”, creyendo que un enfoque regulatorio suave en IA atraerá y retendrá negocios e inversiones en IA. Otros están adoptando estrategias proactivas, dando prioridad a las mejores prácticas establecidas y apuntando a introducir sistemas de IA seguros y éticos. El situación de IA de la UE adopta una postura definitiva que requiere una toma de decisiones crítica con los seres humanos siempre al tanto.

Independientemente del enfoque regulatorio seleccionado, los gobiernos están sopesando los beneficios y consecuencias reales de los sistemas de IA. Un tema emergente en los principios, marcos y leyes globales es el inspección de que los sistemas de IA afectan las vidas de todos los ciudadanos. Esto incluso resalta la oportunidad de que los sistemas de inteligencia sintético puedan mejorar de guisa mensurable la productividad del sucesor.

Los compromisos para mejorar las regulaciones de IA subrayan un enfoque proactivo para exprimir el potencial de la IA y al mismo tiempo mitigar sus riesgos. Al centrarse en la seguridad, la equidad y la transparencia, estos esfuerzos regulatorios apuntan a fomentar un ecosistema de IA que no solo sea reformador y competitivo, sino incluso ético y responsable delante la sociedad en normal.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *