Cómo Notch despliega agentes IA que ejecutan acciones de forma segura en soporte regulado

La automatización en atención al cliente avanza de responder consultas a ejecutar acciones con consecuencias legales y financieras. Notch propone una capa operativa que combina IA conversacional, controles deterministas y trazabilidad para entornos regulados.

Por Redaccion TD
Cómo Notch despliega agentes IA que ejecutan acciones de forma segura en soporte regulado

De responder a ejecutar: un cambio que obliga a repensar el soporte

La IA en soporte al cliente ya no se limita a contestar preguntas: hoy puede iniciar pagos, actualizar cuentas, validar identidades o gestionar reembolsos. Ese salto —de conversación a ejecución— transforma por completo los riesgos y los requisitos, especialmente en industrias con regulación estricta. Un error puede derivar en incumplimientos, daños al cliente o pérdidas económicas.

Notch aborda precisamente ese reto: diseñar agentes de IA capaces de resolver incidentes de forma autónoma y segura, manteniendo controles que las organizaciones reguladas necesitan en producción. En despliegues reales, Notch reporta haber procesado más de 10 millones de tickets y alcanzado hasta un 87% de resolución end-to-end dentro de 12 meses, es decir, el agente completa el flujo y no solo responde al usuario.

Por qué el soporte regulado exige otro modelo

Los chatbots tradicionales sirven bien para desviar consultas o entregar información estática. Pero en seguros, finanzas, salud y otros sectores regulados, “soporte” suele significar ejecutar acciones sobre sistemas de registro con consecuencias reales: desbloquear pagos, cambiar titulares, procesar reclamos. Allí las preguntas de los equipos de seguridad y cumplimiento no son solo “¿funciona?” sino “¿qué puede hacer el agente?”, “¿cómo audito lo que hizo?” y “¿podemos detenerlo si toma una decisión riesgosa?”.

Esos requisitos hicieron que la solución de Notch se construyera sobre principios estrictos: cada acción debe ser auditable y reproducible; el sistema no puede tomar decisiones jurídicas o de adjudicación; las acciones de alto riesgo requieren validación determinista y límites configurables; y el escalamiento humano es obligatorio cuando la política es ambigua o los datos son incompletos.

El origen práctico de Notch

Elool Jacoby, cofundador y CPO de Notch, creó la compañía a partir de la experiencia de operar dentro de un entorno de seguros altamente regulado. Antes de convertirse en una plataforma de agentes para industrias reguladas, el equipo desarrolló uno de los primeros productos comerciales para activos digitales en un marco que exigía auditoría, documentación y comunicaciones al tomador de la póliza. Esa experiencia mostró una verdad clave: la automatización rentable requiere controles reproducibles, no soluciones ad-hoc.

A partir de esa base interna, Notch desarrolló una capa operativa que une IA conversacional con lógica de ejecución estructurada, permisos, validaciones y mecanismos de escalamiento forzado. Esa arquitectura se convirtió en el núcleo del producto que hoy venden.

Cinco guardarraíles para agentes que actúan

En entornos regulados no basta con una sola medida de seguridad. Notch propone un sistema de capas que combinan política, límites de producto y defensas técnicas. Estas son las cinco guardas fundamentales:

  1. Conversation safety checks

Notch monitorea las conversaciones en busca de señales de riesgo: bucles, frustración del usuario o temas prohibidos. Cuando detecta incertidumbre o señales de riesgo, el flujo se rompe y se escala a un humano.

  1. Defensa contra trucos y abuso

La plataforma incorpora protecciones contra técnicas como prompt injection, smuggling de instrucciones, abuso de herramientas o intentos de extraer la lógica interna del agente. Estas defensas reducen vectores de manipulación que podrían forzar comportamientos inapropiados.

  1. Reglas de acceso claras

Reglas estrictas determinan qué puede ver o iniciar un usuario según su estado verificado: autenticación, rol, canal, región u otras señales de identidad. En términos simples: el agente no puede ejecutar una acción si la persona no tiene los permisos correspondientes.

  1. Límites de negocio para acciones de alto riesgo

Incluso para usuarios elegibles, existen límites duros: umbrales, contadores móviles y requisitos de aprobación para operaciones críticas. Esto impide que una misma cuenta o agente realice ejecuciones masivas o fuera de parámetros predefinidos.

  1. Reglas por región y jurisdicción

Las políticas conscientes del territorio aseguran que flujos, avisos y acciones respeten las regulaciones locales. Esa conciencia jurisdiccional evita aplicar un proceso global que en un país sea ilegal o requiera pasos adicionales.

Escalamiento y trazabilidad: no adivinar cuando está en juego

El principio rector de Notch es que la autonomía debe fallar hacia la seguridad. Cuando falta información, la política es ambigua o el riesgo se eleva, el agente debe escalar automáticamente a operadores humanos. Esa obligatoriedad de escalamiento evita decisiones especulativas en casos sensibles.

Además, cada acción se registra para permitir auditorías reproducibles: qué se intentó, qué controles se ejecutaron y por qué se escaló. Eso facilita cumplimiento, revisiones forenses y mejora continua del sistema.

Resultados en producción y relevancia para América Latina

En clientes reales, Notch ha procesado más de 10 millones de tickets y reporta hasta 87% de resolución end-to-end dentro de los primeros 12 meses de adopción. Esos indicadores muestran que la automatización con controles no es una promesa, sino una práctica viable.

Para empresas latinoamericanas esto tiene implicaciones claras. En la región la heterogeneidad regulatoria —entre países y aún entre estados o provincias— exige soluciones que integren reglas por jurisdicción y trazabilidad. La adopción de agentes que ejecutan acciones puede mejorar tiempos de resolución y reducir costos operativos, pero solo si las organizaciones integran permisos desde el diseño, exigen validaciones deterministas y mantienen capacidades de auditoría.

Microsoft for Startups, Azure y la escalabilidad operativa

Notch escaló despliegues de mayor volumen y confianza trabajando con el programa Microsoft for Startups Pegasus y ejecutando modelos y orquestación en Microsoft Azure. Ese enfoque ayuda a cumplir requisitos de disponibilidad, latencia y resiliencia propios de entornos productivos, y facilita la descubribilidad y compra a través de Microsoft Marketplace.

Para emprendedores que buscan vender a compradores empresariales, la recomendación es consistente con la experiencia de Notch: definir permisos desde el inicio, diseñar flujos con escalamiento obligatorio y tratar la auditabilidad como una característica central del producto.

Conclusión: velocidad y control pueden coexistir

La automatización que actúa ya no es una cuestión de si se puede usar IA, sino de cómo implementarla sin sacrificar cumplimiento ni seguridad. El enfoque de Notch —una capa operativa con IA conversacional, reglas estrictas, límites de negocio y escalamiento— ofrece un camino para adoptar resolución autónoma en entornos regulados sin renunciar al control.

Para líderes y tomadores de decisión en América Latina, la lección es práctica: prioricen arquitecturas que integren auditoría, permisos y reglas jurisdiccionales desde el primer diseño. Solo así la región podrá aprovechar la eficiencia de los agentes accionables sin exponerse a riesgos regulatorios o reputacionales.

Fuente original: Microsoft AI Blog