Etica e IA 6 min lectura

Gobernanza adaptativa para construir IA confiable en la empresa

Las organizaciones no dejan de adoptar agentes de IA por falta de seguridad tecnológica, sino porque sus modelos de gobernanza quedaron obsoletos. Una estrategia práctica y basada en riesgo permite innovar sin perder control.

Por Redaccion TD
Gobernanza adaptativa para construir IA confiable en la empresa

Introducción

En una conversación reciente con el analista Fernando Montenegro de Futurum, quedó claro un punto que muchas empresas aún no asumen: el problema no es tanto que la tecnología de agentes de IA sea inherentemente insegura, sino que los modelos de gobernanza que tienen fueron diseñados para un mundo distinto. La velocidad y la capacidad de los agentes actuales para moverse entre aplicaciones, fuentes de datos y flujos de trabajo exigen un enfoque diferente para gobernar su uso en producción.

Para los tomadores de decisión en América Latina, esto se traduce en una disyuntiva familiar: ¿cómo permitimos la innovación rápida sin abrir la puerta a riesgos que afecten datos, procesos críticos o la reputación de la organización?

El choque entre modelos heredados y la nueva realidad

Las arquitecturas tradicionales de seguridad se apoyan en una distinción clara entre “dentro” y “fuera” —redes, aplicaciones y usuarios controlados frente a externos—. Esa frontera sigue teniendo valor, pero hoy los agentes atraviesan límites con fluidez. Un agente puede integrar información de varios sistemas, ejecutar acciones automatizadas y escalar desde un prototipo personal hasta un proceso compartido en minutos.

Cuando la gobernanza se basa en revisiones manuales que tardan días o semanas, el negocio pierde agilidad. Las alternativas binaria —bloquear todo o no gobernar nada— conducen a dos resultados previsibles: adopción sin control o shadow IT que nadie supervisa. Ninguno de los dos es aceptable.

Preguntas de gobernanza que todo agente debe responder

Una gobernanza efectiva no es una lista de prohibiciones, sino un marco que responda claramente a riesgos y permita caminos seguros para innovar. Estas son las preguntas prácticas que deberían responderse antes de desplegar un agente:

  • ¿A qué fuentes de datos puede acceder el agente?
  • ¿Con qué alcance puede compartirse o desplegarse?
  • ¿Qué acciones está autorizado a ejecutar?
  • ¿Bajo qué identidad opera el agente (usuario humano, cuenta de servicio, rol)?
  • ¿Qué nivel de supervisión se aplica en función del riesgo?

Un agente de productividad personal con acceso limitado no es lo mismo que uno conectado a sistemas núcleo del negocio. Tratar ambos igual lleva a errores previsibles: restringir demasiado frena la innovación; proteger insuficientemente deja expuestos los activos críticos.

Gobernanza basada en riesgo: un modelo operativo

La forma más práctica de operacionalizar la gobernanza es un modelo de riesgo graduado, no teórico, sino aplicable día a día:

  • Riesgo bajo: escenarios auto‑servicio y restringidos. Los creadores pueden desarrollar y usar agentes con guardrails estrictos (acceso limitado a datos y compartición controlada) sin necesidad de aprobaciones pesadas. Esto permite iteración rápida sin involucrar a TI en cada idea.

  • Riesgo medio: soluciones con mayor compartición, acceso a datos sensibles o ejecución de acciones relevantes. Aquí se requiere revisión y supervisión, pero sin frenar el impulso con procesos burocráticos excesivos.

  • Riesgo alto: flujos críticos que interactúan con sistemas núcleo. Deben aplicarse controles deliberados desde el día uno: los equipos adecuados construyen dentro de límites definidos con supervisión clara.

Lo importante no son las etiquetas, sino la claridad: riesgo es contextual y la gobernanza también debe serlo.

La plataforma como lugar donde se aplica la gobernanza

La gobernanza solo funciona cuando está integrada en la plataforma, no cuando se delega a documentos, correos o planillas. Por eso tiene sentido el concepto de plataforma administrada: seguridad, gobernanza y operación forman parte de la experiencia misma del entorno —inventario, visibilidad de uso, controles de compartición, gobernanza de conectores y gestión del ciclo de vida— en vez de procesos externos sostenidos por buenas intenciones.

Microsoft define estos entornos administrados como una capacidad del Power Platform que permite gestionar aplicaciones, automatizaciones, páginas e incluso agentes creados en Copilot Studio. Un control simple y efectivo es limitar cómo y con quién se comparte una solución, y ofrecer una ruta clara para su promoción cuando esté lista para escalar.

Los agentes no crean problemas de permisos; los revelan

Este punto merece enfatizarse: los agentes suelen operar con la identidad del usuario que los invoca. No obtienen permisos mágicos. Por tanto, no hacen más que exponer problemas de identidad y acceso que ya existen, pero con mayor velocidad. Si hoy los usuarios tienen permisos demasiado amplios, sus agentes también los tendrán.

Por eso la disciplina de identidad y gestión de accesos es la base de cualquier estrategia de gobernanza de agentes. Sin ella, las medidas de superficie serán ineficaces.

Confianza por diseño y verificación continua

Los controles proactivos (guardrails, límites de acceso, reglas de compartición) son necesarios, pero no suficientes. También hacen falta controles reactivos: monitoreo, diagnósticos y trazabilidad de auditoría para acciones con implicaciones de cumplimiento. El principio “confiar, pero verificar” sigue vigente.

En la práctica, esto significa diseñar mecanismos que permitan detectar comportamientos inesperados, realizar auditorías periódicas y aplicar controles compensatorios que limiten el blast radius cuando algo sale mal —las mismas prácticas que se aplican a controles financieros o de aprobación de gastos.

Recomendaciones prácticas para organizaciones en América Latina

  • Clasifiquen rápidamente los casos de uso por riesgo y definan rutas claras de aprobación para cada zona.
  • Integren la gobernanza en las plataformas que usan (o adoptan plataformas administradas) para tener controles técnicos, no solo políticas escritas.
  • Fortalezcan la disciplina de identidad y accesos antes de expandir agentes a flujos críticos.
  • Habiliten entornos de experimentación limitados que permitan innovación sin comprometer sistemas sensibles.
  • Implementen monitoreo y auditoría para tener visibilidad real de acciones automatizadas.

Estas medidas son relevantes tanto para grandes empresas como para medianas organizaciones que hoy aceleran sus iniciativas de transformación digital en la región.

Conclusión

La pregunta no es si gobernar a los agentes de IA, sino cómo hacerlo de forma que permita velocidad sin perder control. Una gobernanza adaptativa, basada en riesgo, integrada en la plataforma y sustentada por prácticas sólidas de identidad y monitoreo, ofrece un camino pragmático. Para América Latina, donde la adopción rápida de herramientas puede significar ventajas competitivas, diseñar estas garantías desde el inicio es clave para escalar la innovación de forma segura y sostenible.

Fuente original: Microsoft AI Blog