Etica e IA 6 min lectura

Yaël Eisenstat: por qué no puede tocarle al usuario detectar los deepfakes

Yaël Eisenstat, exdirectiva de Facebook y ahora en Cybersecurity for Democracy, alerta que no es razonable descargar en los usuarios la tarea de identificar vídeos generados por IA. Pide regulaciones, etiquetado y pruebas de seguridad auditable para las plataformas.

Por Redaccion TD
Yaël Eisenstat: por qué no puede tocarle al usuario detectar los deepfakes

De diplomacia y Silicon Valley a la pelea contra la desinformación

Yaël Eisenstat lleva más de veinte años trabajando en áreas vinculadas a la seguridad, la diplomacia y la lucha contra la polarización en entornos digitales. Fue diplomática, analista en la CIA y asesora del vicepresidente Joe Biden en la administración de Barack Obama. En 2018 aceptó un puesto en Facebook como directora de integridad global de elecciones, donde debía supervisar la política sobre anuncios políticos justo cuando estalló el escándalo de Cambridge Analytica. Tras seis meses decidió marcharse y hablar públicamente sobre la incapacidad de la empresa —luego rebautizada como Meta— para garantizar procesos electorales limpios.

Hoy es directora de política e impacto en el centro de investigación Cybersecurity for Democracy y participa activamente en foros internacionales sobre derechos digitales. Desde esa posición advierte que la combinación entre la concentración de poder de las grandes plataformas y la incorporación de herramientas de inteligencia artificial complica aún más los riesgos para la democracia.

Un paisaje más complejo que en 2016

Eisenstat insiste en que la situación no es la misma que en 2016. Las compañías que articulan el debate público son más poderosas y, además, están integrando IA en sus sistemas: desde algoritmos que ordenan el contenido hasta herramientas que generan audios, vídeos y montajes falsos. Al mismo tiempo, señala, se han debilitado ciertas garantías y medidas de moderación que antes existían. Esa combinación amplifica los riesgos de manipulación y erosiona la confianza.

Para ella, no se trata únicamente de actores estatales. Sin negar la influencia de países con agendas geopolíticas, como Rusia, China o Irán, recuerda que hoy hay una variedad de actores: organizaciones estatales, grupos ideológicos, pero también individuos o empresas que buscan monetizar audiencias explotando lo que el algoritmo recompensa: contenido emocional, polarizador y, con frecuencia, desinformación.

Deepfakes: no es realista dejar la detección en manos de los usuarios

Una de las frases más claras de Eisenstat respecto a esta amenaza es: “Es injusto que los usuarios tengan que distinguir qué vídeo ha sido manipulado”. Sus argumentos parten de una realidad práctica: las herramientas de generación de contenido son cada vez más accesibles y los deepfakes han dejado de ser evidentes para quienes no trabajan a diario en su detección. Incluso especialistas pueden caer en la trampa.

Por eso propone medidas que no deleguen la responsabilidad en el público. Entre las soluciones que plantea están el etiquetado obligatorio de contenido generado por IA y la obligación de que las plataformas clarifiquen la procedencia del material. Sin estas medidas, la promesa de productos “rápidos, gratuitos y divertidos” seguirá ocultando consecuencias que impactan a elecciones, debates públicos y reputaciones personales.

Rendición de cuentas: posible y necesaria

Eisenstat reconoce el enorme poder económico y político de la industria tecnológica, pero no cae en el fatalismo. Compara el enfoque que pide para las plataformas con precedentes regulatorios en otros sectores: no propone destruir las empresas, sino exigir pruebas de seguridad básicas, transparencia auditable y mecanismos de responsabilidad —algo parecido a lo que se hizo con el tabaco o la industria automotriz.

Esa receta incluye regulaciones claras, incentivos financieros para prácticas seguras y estándares públicos que permitan auditar cómo operan los algoritmos y qué efecto tienen sobre el discurso público. En su visión, cuanto más conscientes sean las personas de que están siendo manipuladas, mayor será la presión política y social para cambiar modelos empresariales que hoy priorizan el engagement por encima de la seguridad democrática.

El impulso social: seguridad infantil y casos legales en EE. UU.

Eisenstat destaca que no siempre hace falta un escándalo mayor como Cambridge Analytica para generar cambio. Señala cómo la preocupación por la explotación y la adicción infantil en redes sociales ha movilizado a padres, activistas y tribunales. Menciona dos sentencias recientes en Estados Unidos —citadas como “de hace mes y medio”— que concluyeron que Meta engañó a consumidores sobre la seguridad de sus plataformas y que sus productos pueden generar adicción en menores. Para ella, esos fallos son relevantes porque demuestran que el problema puede abordarse como una cuestión de seguridad del sistema, no solo como un debate sobre libertad de expresión.

Romper la lógica del engagement que premia el odio

Los algoritmos recompensan lo que genera más interacción. Eso crea incentivos para contenidos extremos, polarizantes o de odio que, aunque “horrible but lawful” en contextos como el estadounidense, terminan alimentando ciclos de radicalización. Eisenstat plantea que hay que atacar el problema desde el diseño: ajustar métricas, reducir la prioridad del contenido que fomenta la violencia simbólica y crear reglas que mitiguen la amplificación de discursos dañinos.

Qué pueden pedir gobiernos y empresas

Entre las demandas prácticas que propone están:

  • Etiquetado obligatorio de contenido generado o modificado por IA.
  • Transparencia sobre la procedencia del contenido y metadatos verificables.
  • Pruebas de seguridad auditable para productos que influyen en la esfera pública.
  • Incentivos regulatorios y financieros que promuevan productos más seguros.

Estas medidas no eliminan la desinformación de la noche a la mañana, pero trasladan parte de la carga desde el usuario a las empresas que diseñan y distribuyen el contenido.

Implicaciones para América Latina

En la región, donde los marcos regulatorios sobre plataformas y IA aún están en construcción en muchos países, las advertencias de Eisenstat cobran especial relevancia. Campañas políticas, noticias virales y manipulación temática pueden afectar procesos electorales y fortalecer polarizaciones preexistentes. Además, niveles variables de alfabetización mediática y diferencias en acceso a herramientas de verificación hacen a las sociedades latinoamericanas más vulnerables a técnicas sofisticadas de manipulación.

Por eso, la traducción local de sus propuestas implica fortalecer marcos legales, invertir en alfabetización digital y colaborar entre gobiernos, sociedad civil y medios para exigir transparencia y controles. También requiere pensar en herramientas públicas y apoyos para periodistas y organizaciones que trabajan en verificación.

Conclusión: no dejar la defensa de la verdad en manos de los usuarios

La llamada de Eisenstat es clara: no es razonable que la ciudadanía, sola y sin herramientas, tenga que discernir constantemente entre lo real y lo fabricado. Para mitigar los riesgos que plantean los deepfakes y la desinformación empujada por algoritmos, hace falta regulación, pruebas de seguridad, transparencia auditable y voluntad política. Es una agenda que, aunque desafiante frente al poder de las grandes tecnológicas, resulta imprescindible para proteger la integridad de la deliberación pública, también en América Latina.

Fuente original: El Pais IA