Etica e IA 6 min lectura

La UE prohíbe modelos de IA que generan deepfakes sexuales sin consentimiento

El Parlamento Europeo y el Consejo alcanzaron un acuerdo para prohibir la comercialización de modelos de IA que permitan crear deepfakes sexuales y pornografía infantil. La medida incluye plazos escalonados para otras obligaciones del reglamento de IA.

Por Redaccion TD
La UE prohíbe modelos de IA que generan deepfakes sexuales sin consentimiento

Resumen del acuerdo

El Parlamento Europeo y el Consejo han acordado prohibir en la Unión Europea los sistemas de inteligencia artificial que permitan crear imágenes sexualizadas sin consentimiento y la generación de pornografía infantil. La modificación, que formaliza una enmienda impulsada por España, veta la comercialización en el mercado europeo de estos sistemas y prohíbe a los operadores utilizarlos con fines de producir contenidos no consentidos.

Qué exactamente prohíbe la nueva normativa

La norma contempla tres puntos clave: primero, queda prohibida la comercialización en la UE de sistemas de IA cuyo objetivo sea producir contenidos sexualizados sin consentimiento o pornografía infantil. Segundo, se vetan también aquellos sistemas que, aun no diseñados específicamente con ese propósito, sean capaces de generarlos, salvo que implementen “medidas de seguridad razonables para impedir dicha creación”. Tercero, los operadores que empleen esos sistemas para crear contenidos sexuales no consentidos no podrán acceder al mercado europeo.

Estos planteamientos buscan atacar tanto la oferta —los desarrolladores y vendedores de modelos— como el uso malintencionado por parte de terceros. La prohibición pretende dar herramientas legales para actuar cuando los proveedores no tomen medidas frente a sistemas que pongan en riesgo derechos fundamentales o la dignidad humana: “disponer de las herramientas necesarias para actuar si los proveedores no toman medidas respecto a los sistemas de IA que ponen en peligro los derechos fundamentales o la dignidad humana”, dijo el eurodiputado Michael McNamara, que participó en las negociaciones finales.

Qué detonó el cambio: los deepfakes en redes

El giro normativo se produjo después de una ola de polémica por imágenes sexualizadas de mujeres reales retocadas con IA en la red X, fenómeno conocido como deepfake. Según el Centro para Contrarrestar el Odio Digital, usuarios de esa plataforma generaron tres millones de imágenes sexualizadas en solo 11 días, lo que evidenció la rápida y masiva capacidad de difusión de este tipo de contenido y la necesidad de intervención regulatoria.

Plazos y otras medidas incluidas en la simplificación del reglamento de IA

El acuerdo forma parte de una simplificación del pionero Reglamento de IA, tramitado con rapidez desde la propuesta de la Comisión Europea a mediados de noviembre. Entre las principales fechas y cambios acordados están:

  • La prohibición de sistemas que generen contenidos sexualizados sin consentimiento empezará a aplicarse el 2 de diciembre de este año.
  • Las obligaciones para los llamados sistemas de alto riesgo —como identificación biométrica remota, categorización biométrica, sistemas que afecten educación, empleo, servicios públicos esenciales, seguridad de infraestructuras, aplicación de la ley y gestión de la migración— se posponen hasta el 2 de diciembre de 2027.
  • Los sistemas de IA usados como componentes de seguridad regulados por legislación sectorial tendrán hasta el 2 de agosto de 2028 para cumplir las nuevas obligaciones.
  • Las reglas sobre el marcado digital (watermarking) de contenidos generados por IA también se aplazan, pero empezarán a regir el 2 de diciembre de 2026, en línea con la prohibición de contenidos sexualizados no consentidos. Esto representa un ajuste respecto a la propuesta inicial de la Comisión, que planteaba fechas más tardías para algunas obligaciones.

La vicepresidenta de la Comisión para Soberanía Tecnológica, Henna Virkkunen, afirmó: “Nuestras empresas y los ciudadanos quieren dos cosas de las normas sobre la inteligencia artificial: quieren que sean innovadoras, pero también sentirse seguros. El acuerdo de hoy cumple las dos cosas”.

Qué significa este retraso para las grandes tecnológicas

La simplificación y los aplazamientos buscan dar un margen adicional a empresas y autoridades para adaptarse a requisitos complejos —por ejemplo, supervisión continua y auditorías de sistemas de alto riesgo—. En la práctica, las grandes tecnológicas tendrán más tiempo para implementar controles, documentar procesos y adaptar productos al mercado europeo. Eso sí, la prisa por cerrar la prohibición de los deepfakes sexuales revela que el legislador prioriza la protección inmediata frente a ciertos daños concretos sobre una implementación simultánea de todas las obligaciones regulatorias.

Implicaciones para plataformas, proveedores y reguladores

Para proveedores y desarrolladores de IA que operan en la UE, el mensaje es claro: deben evitar comercializar modelos que puedan facilitar la creación de contenidos sexuales sin consentimiento o adoptar y demostrar medidas de seguridad razonables que lo impidan. Para las plataformas y operadores, el acuerdo refuerza la responsabilidad a la hora de detectar y bloquear este tipo de usos.

Los reguladores europeos obtendrán así herramientas legales para exigir cambios o sancionar a quienes no actúen. Sin embargo, la efectividad dependerá de la vigilancia, cooperación transfronteriza y capacidad técnica para identificar contenidos generados por IA, una tarea que el watermarking pretende facilitar una vez entre en vigor.

Relevancia para América Latina

Aunque esta regulación es europea, sus efectos trascienden el continente. Empresas globales que ofrezcan modelos o servicios desde fuera de la UE deberán cumplir estas reglas para operar en el mercado europeo, lo que puede influir en prácticas comerciales y en los estándares técnicos a nivel mundial. Para gobiernos, reguladores y empresas latinoamericanas, hay varias consecuencias prácticas:

  • Plataformas regionales y desarrolladores que presten servicios a usuarios europeos o que utilicen infraestructuras en la UE deberán revisar sus políticas y controles para evitar riesgos legales.
  • El avance regulatorio europeo actúa como referencia para debates locales sobre protección de la dignidad, prevención del abuso sexual y responsabilidad en IA; varios países de la región podrían ajustar marcos legales o adoptar medidas inspiradas en estas reglas.
  • Organizaciones civiles y de derechos digitales en la región, que ya enfrentan retos de desinformación y violencia en línea, pueden apoyarse en precedentes internacionales para demandar mejores salvaguardias y responsabilidad de plataformas.

Conclusión

El acuerdo entre el Parlamento Europeo y el Consejo marca un paso concreto para limitar los daños más visibles y urgentes que la IA puede causar en materia de intimidad y dignidad: los deepfakes sexuales y la pornografía infantil generada por máquinas. Al mismo tiempo, el pacto introduce aplazamientos que dan tiempo a la industria para adaptarse a requisitos complejos. Para actores en América Latina —desde empresas hasta autoridades y sociedad civil— la lección es doble: atender tanto la prevención y mitigación técnica como la preparación normativa ante cambios regulatorios que, aunque europeos, impactan el ecosistema digital global.

Fuente original: El Pais IA