El Gobierno de EE.UU. lanza guía para gestionar riesgos de IA en instituciones financieras

El Departamento del Tesoro de EE.UU. ha publicado un marco de trabajo para ayudar a las instituciones financieras a identificar, evaluar y gestionar los riesgos de IA. Esta iniciativa busca promover prácticas responsables y seguras en la adopción de tecnologías de inteligencia artificial en el sector financiero.

Por Redaccion TD
El Gobierno de EE.UU. lanza guía para gestionar riesgos de IA en instituciones financieras

Introducción a la guía de riesgos de IA en el sector financiero

En un contexto donde la inteligencia artificial (IA) se ha convertido en una herramienta clave para mejorar la eficiencia y competitividad del sector financiero, la necesidad de gestionar los riesgos asociados es cada vez más evidente. Reconociendo esto, el Departamento del Tesoro de Estados Unidos ha lanzado un marco de referencia que orienta a las instituciones financieras en la adopción responsable de estas tecnologías.

¿Qué es el FS AI RMF y cómo se desarrolla?

El Marco de Gestión de Riesgos de IA para Servicios Financieros (FS AI RMF) es un conjunto de directrices elaborado en colaboración con más de 100 instituciones del sector, reguladores y organismos técnicos. Además, se complementa con un Manual que detalla la implementación práctica del marco, buscando que las instituciones puedan evaluar su madurez en el uso de IA y establecer controles adecuados.

Riesgos específicos de los sistemas de IA en finanzas

A diferencia de los sistemas tecnológicos tradicionales, los sistemas de IA presentan riesgos únicos, como sesgos algorítmicos, falta de transparencia en decisiones automatizadas, vulnerabilidades cibernéticas y dependencias complejas entre datos y sistemas. Los modelos de lenguaje de gran escala (LLMs), por ejemplo, generan preocupaciones adicionales debido a la dificultad para interpretar su comportamiento.

Complemento a marcos regulatorios existentes

Aunque ya existe regulación y guías generales como el Marco de Gestión de Riesgos de IA del NIST, estas no abordan detalles específicos del sector financiero. Por ello, el FS AI RMF busca ser una extensión sectorial que incorpore controles particulares y recomendaciones adaptadas a las prácticas y expectativas regulatorias del sector.

Cómo evaluar la madurez en IA

El marco incluye un cuestionario que ayuda a las instituciones a determinar su nivel de adopción de IA, desde empresas con uso limitado en áreas no críticas hasta aquellas donde la IA es central en operaciones y toma de decisiones. Este diagnóstico permite enfocar esfuerzos en controles proporcionales a la etapa de madurez y los riesgos asociados.

Gestión de riesgos y controles esenciales

Cada etapa de adopción define objetivos de control relacionados con calidad de datos, equidad, ciberseguridad, transparencia y resiliencia operacional. Además, se recomienda mantener procedimientos específicos para responder a incidentes y crear registros centralizados para su seguimiento.

Principios para una IA confiable

El marco incorpora principios que garantizan la confiabilidad, seguridad, transparencia, protección de datos y justicia en los sistemas de IA. Esto asegura que los outputs sean consistentes y que las decisiones puedan justificarse, aspectos fundamentales en un entorno altamente regulado como el financiero.

Implicaciones estratégicas para líderes del sector

Para los altos directivos y responsables de tecnología y riesgos, el FS AI RMF ofrece una hoja de ruta para integrar la IA en los procesos de gestión de riesgos existentes. Es fundamental coordinar diferentes áreas de la organización y fortalecer los controles para evitar fallos operativos, sanciones regulatorias o daños reputacionales.

Conclusión

La publicación de esta guía por parte del Tesoro de EE.UU. representa un paso importante hacia una adopción más segura y responsable de la inteligencia artificial en el sector financiero. La implementación de estos lineamientos permitirá a las instituciones aprovechar las ventajas de la IA sin comprometer la estabilidad, la confianza o el cumplimiento regulatorio.

Fuente original: AI News