Etica e IA 6 min lectura

Dentro de las oficinas de estafas románticas: cómo la IA refuerza una maquinaria criminal

Un joven retenido en una oficina de estafas en Laos filtró documentos que muestran la meticulosa ingeniería social detrás de fraudes románticos. La inteligencia artificial actúa como asistente, pero la explotación humana sigue siendo central.

Por Redaccion TD
Dentro de las oficinas de estafas románticas: cómo la IA refuerza una maquinaria criminal

El testimonio que destapó una red

Mohammad Muzahir, un informático indio de 23 años, cuenta cómo fue atraído con una oferta de trabajo falsa y retenido en una oficina en Laos dirigida por una banda criminal. Su relato, y el material interno que logró filtrar a la prensa, describen un sistema organizado para defraudar a usuarios occidentales mediante estafas románticas y de criptomonedas. Desde el arranque del turno, con eslóganes y música para animar al personal, hasta las instrucciones detalladas para manipular afectos y dinero, los documentos muestran la frialdad del proceso.

Las operaciones se realizaban en el conocido Triángulo de Oro, en la frontera entre Laos, Myanmar y Tailandia, una región ya asociada a actividades ilícitas. Desde allí, miles de millones de euros son extraídos a través de plataformas sociales y de mensajería, según la documentación filtrada. Muzahir logró sacar del recinto miles de archivos, guiones y capturas que describen paso a paso cómo se construye la estafa.

Estructura del fraude: volumen, guiones y objetivos

En esas oficinas trabajaban más de cien personas forzadas, cada una con metas de contacto exigentes. Muzahir debía escribir al menos a 100 personas por día, lo que se traduce en decenas de miles de intentos de acercamiento solo desde una ubicación. Los guiones internos desglosan el proceso desde el primer contacto hasta la petición de dinero. Un documento instructivo, bajo el título del primer al cuarto día, explica la progresión: crear confianza, evaluar la solvencia aparente de la víctima según empleo, edad y vida personal, y encontrar una excusa para cortar y retomar la comunicación, manteniendo siempre la expectativa de continuar al día siguiente.

La presión para convertir el vínculo en una transacción económica es constante. Las plantillas recomiendan contar historias emocionales que «toquen la fibra», hablar de ingresos pasivos o inversiones en oro digital, y ofrecer respuestas prefabricadas para justificar transferencias y problemas bancarios. En algunos casos se adoptan papeles específicos: para personas mayores, fingir paternidad o amistad cercana; con víctimas más jóvenes, promesas de viajes y futuro en pareja.

La inteligencia artificial como asistente del fraude

Aunque el trabajo es manual y artesanal, la inteligencia artificial acelera y afina la operación. Muzahir relata ejemplos de uso: pedir a un modelo nombres y apellidos comunes entre hispanohablantes en Estados Unidos para filtrar candidatos, o generar frases que empaten con publicaciones en Facebook e Instagram. La IA facilita traducciones, sugiere el tono emocional apropiado, y puede crear deepfakes o voces para llamadas cuando se requiere un contacto más convincente.

Estos agentes automatizados no reemplazan la mano humana en el centro de la estafa, pero multiplican la eficacia: permiten encontrar víctimas potenciales rápidamente, personalizar mensajes y resolver objeciones técnicas durante la solicitud de dinero. En la práctica, la combinación de guiones humanos con herramientas de IA produce una maquinaria de alto rendimiento.

Violencia, trata y consecuencias humanas

Detrás del algoritmo y los scripts hay violencia real. Los empleados como Muzahir estaban retenidos sin pasaporte y sometidos a multas y castigos si no alcanzaban objetivos. A quienes intentaban escapar los mataban, según el testimonio. En septiembre se informó de una ejecución en China contra 11 miembros de una banda que operaba desde Myanmar, lo que pone en contexto la tipología violenta y organizada de estas redes.

Muzahir logró salir y llevar pruebas a periodistas, pero sigue con miedo por represalias. Su historia recuerda que estas operaciones combinan delitos informáticos, fraude financiero, explotación laboral y trata de personas, produciendo daños difusos que van desde pérdidas económicas hasta traumatismos y riesgos para la vida.

Lo que revelan los guiones: manipulación emocional y técnica

Los materiales filtrados describen tácticas psicológicas precisas. Primero, abrir con saludos y referencias a publicaciones de la víctima para mostrar cercanía. Luego, escalar la conversación hacia la intimidad y la confianza. Cuando la interacción está madura, introducir la narrativa financiera: inversiones, estructuras para evitar comisiones bancarias, carteras descentralizadas. El objetivo es preparar el terreno para una transferencia justificable en la mente de la víctima.

Además, los guiones contienen respuestas preparadas para problemas habituales, como rechazos bancarios o dudas legales. Todo está pensado para minimizar fricciones y ofrecer explicaciones coherentes que mantengan al blanco comprometido emocionalmente y dispuesto a transferir dinero.

Implicaciones para América Latina y responsabilidad de empresas y autoridades

Aunque las víctimas descritas en el material son mayoritariamente occidentales, la amenaza tiene implicaciones globales, incluida América Latina. Usuarios latinoamericanos y la diáspora en países de habla inglesa pueden ser objetivos por su presencia en redes sociales y la confianza que depositan en interlocutores aparentemente cercanos. Además, el flujo de dinero, plataformas de mensajería y servicios de pago con alcance internacional facilitan estas estafas.

Para responsables y tomadores de decisión en la región hay al menos tres frentes de trabajo: prevención y educación digital para usuarios vulnerables; regulación y colaboración transfronteriza con plataformas tecnológicas para detectar patrones de abuso; y políticas públicas que aborden la trata y explotación detrás de estas oficinas, combinando fuerzas de seguridad, cooperación internacional y protección a víctimas.

Las empresas tecnológicas también tienen un papel. Moderación proactiva de perfiles falsos, límites en la automatización de mensajes y mejores herramientas de verificación de identidad pueden reducir la superficie de ataque. Del lado de la IA, es urgente desarrollar salvaguardas que dificulten su uso para generar perfiles, guiones y deepfakes con fines criminales.

Conclusión

El testimonio de Muzahir ofrece una ventana a una actividad criminal que conjuga ingeniería social, explotación humana y tecnologías emergentes. La inteligencia artificial funciona como una herramienta multiplicadora, no como el origen del problema. La respuesta efectiva requiere políticas públicas, cooperación internacional y conciencia pública para proteger a usuarios y desmantelar las estructuras que lucran con la manipulación y la violencia.

La historia también es un recordatorio: detrás de cada mensaje aparentemente inocente en redes puede haber una operación organizada y, en el otro extremo, una víctima real y una persona forzada a participar en el delito. Para evitar más daños, la combinación de alfabetización digital, mejores controles de plataformas y acciones contra la trata es imprescindible.

Fuente original: El Pais IA