La IA se está integrando en los flujos de trabajo, las interacciones con los clientes y la toma de decisiones empresariales en todas las organizaciones. Para las juntas directivas y los directores ejecutivos, ese cambio cambia la conversación. La pregunta central ya no es «¿Qué tan rápido podemos adoptar la IA?» sino más admisiblemente: “¿Podemos gobernarlo lo suficientemente admisiblemente como para esperar en él a gran escalera?”
Lexy Kassan, líder tecnológico sénior responsable de la logística y el gobierno de la IA empresarial en Databricks, aporta una amplia experiencia operando en la intersección de los datos, la IA y la transformación empresarial. Su perspectiva no se fundamento en la teoría, sino en las realidades del despliegue de sistemas generativos y agentes interiormente de grandes organizaciones, donde el tono, el sesgo, el seguimiento y la rendición de cuentas no son riesgos abstractos, sino requisitos operativos.
Lo que sigue es una conversación sobre por qué la gobernanza es un requisito previo para subir la IA empresarial de entrada calidad.
La gobernanza de la IA conduce a resultados confiables y relevantes
Catalina Brown: Cuando los ejecutivos dicen que están “gobernando la IA”, ¿qué es lo que no entienden acerca de lo que verdaderamente se necesita para subir la IA a la producción?
Lexy Kassan: Por lo normal, cuando escucho a las organizaciones acercarse a la gobernanza de la IA, se convierte en un esfuerzo de: «Tenemos una política, tenemos un montón de procesos documentados y tenemos personas que aprobarán las cosas. Siempre que cierto haya afectado las casillas y haya seguido los pasos, entonces todo estará admisiblemente».
De modo realista, la gobernanza impacta las iniciativas de IA tanto en la etapa de incremento como en el éxito continuo a escalera. Una gobernanza sólida conduce a una producción de IA que sea confiable y continúe mejorando y respaldando a la ordenamiento según su diseño. La escalera no proviene de obtener aprobaciones. La escalera proviene del funcionamiento continuo de la IA. Y eso requiere mucho más que solo el equipo de datos e inteligencia sintético.
La gobernanza de la IA para suscitar confianza a escalera requiere tres cosas: comunicación, colaboración e iteración. Comunicar expectativas tanto desde la perspectiva de políticas y mitigación de riesgos como de intención y uso comercial. Colabore entre expertos en la materia, expertos técnicos, expertos en riesgos y seguridad, y otros para enfrentarse inquietudes y conquistar sistemas confiables. Y repita con el tiempo para ayudar los sistemas de IA relevantes, confiables y valiosos.
La gobernanza como facilitadora del valencia de la IA
catalina: ¿En qué momento la gobernanza de la IA deja de ser una preocupación de cumplimiento y se convierte en un requisito operante para la empresa?
Lexi: La gobernanza ha experimentado una transformación en los últimos abriles, particularmente correcto a la IA. Hace cinco o diez abriles, la gobernanza a menudo se enmarcaba como mitigación de riesgos y cumplimiento. Casi fue gastado como la antítesis de la innovación. Ahora la gobernanza se entiende mejor en su forma más verdadera: como facilitadora de la realización de títulos. Sin gobernanza, es muy difícil esperar en los datos o la IA. Y sin confianza nadie la utiliza. Y el uso es de donde proviene el valencia.
Si nadie confía en su IA, ha invertido fortuna y no ha obtenido ningún valencia.
Por lo tanto, la gobernanza ya es un requisito si se desea una prohijamiento generalizada y especular a escalera.
La sobrecarga de procesos frena la innovación
catalina: ¿Qué sucede cuando las organizaciones simplemente agregan IA a sus procesos de revisión existentes en zona de rediseñar el maniquí operante?
Lexi: Aquí es donde tiende a ocurrir la incorporación de cantidades indebidas de proceso a la mezcla.
Las organizaciones dicen: «En zona de identificar un camino más fluido para la IA, simplemente tomaremos los procesos existentes que tengamos (evaluaciones de privacidad, revisiones de edificación, revisiones de seguridad) y les agregaremos más». Terminas con comités desconectados que podrían reunirse una vez al mes. Se está superponiendo la IA a una gobernanza lenta en zona de rediseñar la gobernanza para la IA.
Si se necesitan seis meses para aprobar poco y las capacidades de IA evolucionan mensualmente, estructuralmente se está preparando para quedarse a espaldas. La gobernanza no debería significar más gastos generales. Debería significar identificar un camino pavimentado: una edificación y un situación que ya mitiguen el peligro para que no tenga que abrir desde cero cada vez.
Del conocimiento a la influencia cambia el perfil de peligro
catalina: ¿Cómo cambia la conversación sobre gobernanza cuando los sistemas de IA pasan de suscitar conocimientos a tomar acciones a través de agentes y aplicaciones?
Lexi: Cuando pensamos en incorporar la IA a un proceso, a menudo pensamos en una continuidad que va desde el control hasta la confianza. Por un banda, tiene procesos totalmente controlados por humanos. En el otro extremo, tiene sistemas agentes totalmente automatizados. Cuando la IA pasa de suscitar conocimientos a comportarse, lo que está en grupo cambia. Cedes más control y, por lo tanto, debes poder depositar más confianza en el sistema.
Para alcanzar los niveles de confianza necesarios para la influencia agencial, la longevo parte de la responsabilidad de la gobernanza de la IA debe trasladarse a los expertos en la materia empresarial. Tener un enfoque por etapas para las pruebas, la feedback, el incremento de barreras y la evaluación ayuda a suscitar confianza en que los agentes actuarán de modo adecuada la gran mayoría del tiempo. Y esta responsabilidad continúa en la producción, donde la feedback adicional y la ingeniería rápida mantienen los sistemas en marcha.
Esto cubre el contenido y la influencia, pero ¿qué pasa con la parte técnica? Ahí es donde los mecanismos de respaldo, la resiliencia y la solidez del sistema se vuelven críticos. ¿Qué pasa si la IA no funciona? ¿Qué sucede si necesita retornar a entrenar un maniquí o refactorizar una sujeción? La gobernanza incluye la planificación para esos escenarios. ¿A dónde vuelve a caer? ¿A quién recurre? ¿Cómo se ve eso?
Responsabilidad antiguamente de la producción
catalina: ¿Qué decisiones deben tomar de antemano los equipos de liderazgo sobre la responsabilidad, las rutas de escalamiento y la supervisión humana antiguamente de que la IA llegue a producción?
Lexi: Cada vez más, vemos que las organizaciones piensan en los agentes casi como si fueran empleados. Hay empresas que incorporan agentes a las herramientas de papeleo de la fuerza profesional, los asignan a los gerentes y los responsabilizan de su desempeño. Puede aplicar el pensamiento de papeleo del desempeño a los agentes tal como lo haría con un empleado humano. ¿Qué tan admisiblemente está funcionando? ¿Se mantiene interiormente de los límites? ¿Está produciendo los resultados para los que fue diseñado? En algunos aspectos, es más comprensible corregir a los agentes (puedes cambiar las instrucciones o retornar a entrenar los modelos), pero asimismo es diferente. Los agentes no tienen las mismas motivaciones que los humanos.
Los equipos de liderazgo deben atreverse cómo se medirá el desempeño, cómo se evaluará la confianza y qué se necesita para sacar poco de producción y qué se necesita para restablecerlo. La confianza es comprensible de perder y mucho más difícil de reparar. Esto se aplica tanto a la IA como a las personas.
Resquilar responsablemente sin desacelerar
catalina: En las organizaciones con las que trabaja, ¿qué patrones distinguen a los equipos que escalan la IA de modo responsable y al mismo tiempo avanzan rápidamente?
Lexi: El primero es el camino pavimentado del que hablé antiguamente. Llegan a un punto en el que no tienen que pelear la tecnología todo el tiempo. Tienen una edificación gobernada con trazabilidad, auditabilidad y rendición de cuentas integradas. Eso les permite moverse rápidamente porque las barreras de seguridad ya están ahí.
El segundo es incorporar directamente al proceso a expertos en la materia empresarial. Donde el escalamiento ocurre más rápido es cuando no hay un constante intercambio entre los equipos de negocios y de tecnología para traducir los requisitos. El negocio aporta contexto: lo bueno que parece, lo que es válido y lo que no es válido.
La gobernanza ya no depende sólo de los tecnólogos. Se manejo de que los negocios y la tecnología se unan bajo un situación compartido.
La confianza debe diseñarse y medirse
catalina: ¿Cómo deberían pensar los ejecutivos sobre la confianza (como poco que debe diseñarse, medirse y gestionarse) tanto internamente como con los clientes?
Lexi: La confianza es difícil de evaluar directamente. Por eso confiamos en los poderes. Medimos la calidad de los datos, el rendimiento del sistema, la prohijamiento y el uso. Evaluamos si el sistema se mantiene interiormente de límites definidos y produce resultados aceptables.
Puedes pensar en ello como la papeleo del desempeño de una persona. ¿Cuánto confían los demás en ellos? ¿Qué tan productivos son? ¿Cuán consistentemente cumplen con las expectativas?
La confianza en sí misma puede ser difícil de cuantificar, pero el desempeño, la coherencia y el cumplimiento de los estándares son mensurables. Con el tiempo, esas mediciones ayudan a suscitar confianza.
La gobernanza se mantiene cuando existen bucles de feedback
catalina: Si un director ejecutor le pidiera que hiciera un cambio concreto en los próximos 90 días para avalar que la gobernanza de la IA verdaderamente se mantenga, ¿qué recomendaría?
Lexi: Asegúrese de que haya comentarios, ya sea sobre el uso o sobre la comprensión de por qué poco no se utiliza. Si las personas interactúan con la IA, ¿ofrecen feedback sobre la calidad de los resultados? ¿Están evaluando los resultados? Y si nadie interactúa directamente con él, aún debemos evaluar esos resultados. ¿Quién forma parte de ese ciclo de revisión?
La gobernanza se mantiene cuando la feedback crea un cambio significativo. Cuando las personas ven que sus aportaciones mejoran el sistema y su propia forma de trabajar, se involucran con ello.
Y, en última instancia, asegúrese de priorizar el valencia. Construye lo que vale la pena construir. Luego, establezca ese camino pavimentado para que sea más comprensible asegurar sí a la próxima iniciativa valiosa de IA.
La gobernanza es la condición para la escalera
La gobernanza de la IA a menudo se presenta como un mecanismo de control. En la destreza, es una disciplina operativa. Resquilar la IA no se manejo de sumar más juntas de revisión o más documentación. Se manejo de incorporar barreras de seguridad en la edificación, establecer circuitos de feedback y diseñar sistemas en los que se pueda esperar a lo derrochador del tiempo.
Para los equipos de liderazgo, la conclusión es sencilla: la gobernanza no es lo que frena la IA, pero sí la gobernanza mal diseñada. Cuando la gobernanza está integrada en la plataforma, alineada con la propiedad empresarial y reforzada mediante mediciones y comentarios, se convierte en la condición que permite que la IA crezca de modo responsable y sostenible.
Explore el crónica de Databricks, Ofrecer una logística segura de datos e inteligencia sintéticopara ver cómo las empresas líderes están incorporando la gobernanza, la seguridad y la confianza directamente en sus modelos operativos de IA.