Telegram e IA: cómo se multiplican los abusos digitales contra mujeres anónimas
Un informe sobre grupos en Telegram en España e Italia documenta cómo miles de usuarios comparten fotos, crean deepfakes y organizan humillaciones sexuales en chats no moderados. La inteligencia artificial ha acelerado el abuso y la monetización en la plataforma, mientras las víctimas suelen ser mujeres comunes.
Un problema cotidiano que crece con la IA
Mensajes como “Busco pajabro para tributo”, “¿Alguno me presta a su novia para humillarla y pajearme?” o “¿Alguien puede desnudarlas?” aparecen en grupos de Telegram donde miles de hombres comparten fotos, fantasías y material sexual sin consentimiento. Un informe elaborado por el equipo de Silvia Semenzin, socióloga y especialista en violencia de género digital de AI Forensics, documenta esta realidad en España e Italia y muestra cómo la inteligencia artificial ha transformado y ampliado estas prácticas.
Los investigadores accedieron a 16 canales y grupos en ambos países y profundizaron en ocho chats y canales particularmente activos en España. El material recogido no pretende ser exhaustivo, pero sí ofrece una radiografía del fenómeno: desde la difusión de fotografías robadas hasta la creación de imágenes y audios sintéticos que permiten “desnudar” o humillar a mujeres sin que ellas participen.
Telegram como refugio operativo y comercial
Telegram funciona en una zona gris entre la web oscura y las grandes plataformas generalistas. Esa ambigüedad facilita que grupos problemáticos encuentren un espacio donde publicar y monetizar. Según el informe, la plataforma permite sistemas de pago anónimos (incluido uso de criptomonedas) y suscripciones premium que habilitan subcanales. Los investigadores también detectaron el uso de bots y ofertas de herramientas basadas en IA para alterar o generar contenido íntimo.
Salvatore Romano, coautor del informe, resume la potencia de este ecosistema: Telegram actúa como punto de conexión estratégico entre lo difícilmente alcanzable y lo masivo, y provee herramientas de monetización que los usuarios aprovechan para vender archivos o servicios que facilitan la violencia sexual digital.
IA: multiplicador de daño
La inteligencia artificial no creó el problema, pero lo ha acelerado. Cuando no existen fotos reales, los participantes recurren a modelos generativos que fabrican imágenes o audios. El informe describe prácticas como los “roles” o chats de “morbo”, donde un usuario suplanta a una mujer con contenido íntimo —muchas veces sintético— para mantener sexting con otro usuario. También documenta la práctica del “tributo”: eyacular sobre la imagen de alguien sin su consentimiento y grabarse.
El uso de IA permite producir contenidos cada vez más verosímiles y difíciles de diferenciar de material auténtico, lo que agrava la humillación y el daño a las víctimas. Además, la tecnología facilita la creación rápida de variantes que se redistribuyen con facilidad en la red de canales y subcanales.
Perfil de participantes y material sensible
El rango de edad de quienes participan es amplio: desde adolescentes hasta hombres cercanos a la jubilación. El promedio estimado ronda los 25 años, pero el informe alerta sobre la presencia de menores que comparten fotos de otras menores y material que constituye abuso sexual infantil, como fotografías de compañeras de clase o imágenes tomadas a escondidas en centros educativos.
Las normas internas que algunas comunidades publican —por ejemplo, exigir aportar fotos para permanecer en un grupo— demuestran la organización y dinamismo de estas redes. Aun así, los investigadores pudieron permanecer dentro de varios grupos pese a reglas de “depuración” internas y recopilar material que evidencia prácticas sistemáticas y coordinadas.
Acoso, humor y control
Las “bromas” que circulan en estos chats no son inocuas. Semenzin lo explica con claridad: “Las ‘bromas’ consisten en enviar fotos del pene. Lo llaman broma, pero es un ejercicio de control”. El uso del humor y la trivialización sirve para naturalizar el acoso y reducir la percepción de daño tanto entre participantes como, en ocasiones, ante observadores externos.
Desde la perspectiva sociológica, estas dinámicas muestran un patrón donde el cuerpo de mujeres se convierte en objeto para construir relaciones entre hombres, una forma de violencia que combina sexualidad, humillación y una lógica de gamificación del abuso.
Denuncias sin respuesta y responsabilidad de la plataforma
Los investigadores reportaron los grupos a Telegram, pero según el informe no se han producido acciones concretas por parte de la plataforma. El periódico que difundió el estudio intentó obtener una posición oficial de Telegram sin éxito. Esta falta de respuesta plantea preguntas sobre la eficacia de las políticas y la moderación en plataformas que permiten anonimato y pagos opacos.
La capacidad de monetizar contenidos abusivos —a través de suscripciones, pagos directos o venta de herramientas de IA— añade un componente económico que incentiva la continuidad de estas actividades y dificulta su erradicación solo mediante denuncias puntuales.
Relevancia para América Latina
Aunque el estudio se centra en España e Italia, el modelo detectado es de interés para América Latina. Telegram es una aplicación con amplia adopción en varios países latinoamericanos y las mismas funcionalidades técnicas y comerciales están disponibles: grupos, bots, suscripciones y pagos anónimos. La convergencia de accesibilidad de la IA y la cultura de impunidad en ciertos espacios digitales puede producir riesgos similares en la región.
Organizaciones, medios y autoridades públicas en América Latina deben tomar nota: prevenir y atender estas formas de violencia requiere combinar medidas tecnológicas, legales y de educación digital, además de coordinación internacional cuando el contenido y los servidores cruzan fronteras.
Qué queda por hacer
El informe subraya varias líneas de acción necesarias sin proponer soluciones concretas que excedan su alcance investigativo:
- Mejorar la capacidad de moderación y respuesta de plataformas como Telegram, incluyendo procesos claros para atender denuncias de contenido sintético y abuso infantil.
- Regular modelos de negocio que permiten la monetización anónima de material abusivo, evaluando el papel de pagos y suscripciones en la sostenibilidad de estas redes.
- Fortalecer la alfabetización digital y la protección de la privacidad entre jóvenes y comunidades vulnerables para reducir la circulación de imágenes tomadas sin consentimiento.
- Desarrollar herramientas forenses y colaboraciones entre tecnólogos, fiscalías y organizaciones civiles para identificar autores y probar la manipulación sintética cuando sea necesario.
Conclusión
Los grupos documentados en el informe muestran cómo la intersección entre plataformas con poca moderación y herramientas de inteligencia artificial crea un caldo de cultivo para nuevas formas de violencia digital. Para las víctimas —a menudo mujeres anónimas y jóvenes— el daño no solo es la difusión de una imagen, sino la circulación de su humillación multiplicada por tecnología y comercio. Sin respuestas firmes de plataformas ni marcos regulatorios robustos, estas prácticas siguen alimentándose de anonimato, humor tóxico y la impunidad de espacios que se perciben como refugio.
La lección es clara para gobiernos, empresas y organizaciones civiles: la tecnología aumenta capacidades, pero la ausencia de controles y responsabilidad transforma esa capacidad en riesgo real para la integridad y la dignidad de las personas.
Fuente original: El Pais IA