Cómo TikTok ayudó a Trump en 2024: lo que revela el estudio y qué significa para América Latina

Investigadores descubrieron que TikTok mostró más vídeos afines al Partido Republicano antes de las elecciones de 2024 en EE. UU. El hallazgo abre preguntas sobre el papel de los algoritmos, controles humanos y la necesidad de auditorías por país.

Por Redaccion TD
Cómo TikTok ayudó a Trump en 2024: lo que revela el estudio y qué significa para América Latina

Resumen del hallazgo

Un estudio publicado en la revista Nature concluye que, en los meses previos a las elecciones presidenciales de 2024 en Estados Unidos, TikTok recomendó más vídeos conservadores que progresistas a usuarios interesados en política. Según la investigación, las cuentas configuradas como republicanas recibieron un 11,5% más de contenido afín a su partido, mientras que las cuentas demócratas vieron un 7,5% más de contenido antiprogresista. Los autores subrayan que, como resultado, un usuario con interés político tenía más probabilidad de toparse con material pro Trump.

Cómo se hizo el experimento

Para medir el comportamiento del sistema de recomendaciones, los investigadores crearon 323 cuentas en tres estados clave: Nueva York, Texas y Georgia. Durante varios meses recopilaron más de 280.000 vídeos recomendados por la plataforma. Con esos datos, compararon lo que el motor de recomendación ofrecía a distintos perfiles de usuario.

No se trató solo de observar: para explorar explicaciones alternativas, los autores construyeron 48 modelos distintos que intentaban reproducir un sistema de recomendaciones basado únicamente en métricas de interacción (me gusta, compartidos y visualizaciones). En todos los modelos, el sesgo observado en los datos reales fue mayor que el que los modelos podían explicar. De hecho, algunos modelos apuntaban en sentido contrario, porque el contenido demócrata mostró en general niveles de interacción más altos.

Por qué no es sencillo atribuir culpa

El gran interrogante es por qué ocurrió ese sesgo. Los sistemas de recomendación combinan múltiples señales —desde la tasa de visualización hasta la viralidad y las preferencias del usuario— y generan bucles de retroalimentación. Los autores aclaran que su estudio puede describir lo que hace el algoritmo, pero no determinar la intención detrás de esos resultados.

Hazem Ibrahim, coautor y profesor en la Universidad de Nueva York en Abu Dabi, explica: “El sesgo supera todos los controles de solidez que hicimos, pero los sesgos pueden surgir de los objetivos de optimización y de bucles automáticos sin que nadie los haya elegido”. En otras palabras, un efecto sesgado puede emergir de la dinámica del sistema sin que exista una decisión consciente de favorecer una tendencia política.

No obstante, los investigadores tampoco descartan la posibilidad de una intervención deliberada: técnicamente sería fácil alterar las recomendaciones para impulsar cierto contenido. “Técnicamente, sí, y además sería muy sencillo”, dijo Ibrahim sobre la posibilidad de manipulación intencional.

El factor humano: el botón que impulsa vídeos

Un antecedente que complica aún más la lectura del fenómeno fue una investigación de Forbes en 2023, que citó documentos internos de TikTok sobre una herramienta interna llamada “calentador” (heating). Esa función permitía a empleados impulsar manualmente determinados vídeos para asegurarles una cantidad de visualizaciones, con el fin de atraer marcas e influencers. Forbes señaló que algunas personas usaron esa capacidad para beneficiar cuentas propias o cercanas.

En respuesta a la investigación, TikTok dijo a Forbes que solo unas pocas personas en EE. UU. pueden aprobar promociones manuales y que ese tipo de acciones representan aproximadamente el 0,002% de los vídeos. Respecto al estudio publicado en Nature, la compañía ha criticado el uso de cuentas experimentales, argumentando que no refleja cómo la gente real usa la plataforma y que los usuarios disponen de más de una docena de herramientas para controlar su experiencia, algo que, según TikTok, los autores del estudio no consideraron.

Impacto político y la preocupación por la soberanía de datos

El hallazgo llega en un contexto político delicado. Antes de las elecciones, el gobierno de Joe Biden había planteado una ley que obligaba a TikTok a separarse de ByteDance, su matriz china, si quería seguir operando en EE. UU. Tras la victoria de Trump y un acuerdo posterior, la plataforma continuó disponible en el país. El propio Trump llegó a reconocer el papel que le jugó la red: “No era fan de TikTok, pero empecé a usarlo, me hice fan y me ayudó a ganar las elecciones por goleada”.

Esa posibilidad de influencia fue, precisamente, el argumento central de quienes defendían medidas contra TikTok: si ByteDance estuviera obligado a obedecer al gobierno chino, podría presionar para inclinar la plataforma hacia candidatos o narrativas favorables a sus intereses. En EE. UU. hay más de 170 millones de usuarios de TikTok, una audiencia considerable sobre la cual cualquier sesgo de recomendación podría tener efectos macro sobre la agenda pública.

¿Influyen realmente las redes en el voto?

Los autores recuerdan que no midieron directamente el efecto sobre el voto. Sin embargo, citan la literatura académica que muestra cómo las redes sociales pueden moldear pensamientos y comportamientos. Más allá del voto puntual, los sistemas de recomendación determinan a qué se expone la gente a lo largo del tiempo: qué temas parecen prioritarios, qué candidatos reciben mayor visibilidad y qué narrativas ganan terreno. Ese contexto informativo constituye la atmósfera en la que se toman decisiones políticas.

Relevancia para América Latina

Aunque el estudio se centra en EE. UU., sus conclusiones tienen implicaciones globales. Talal Rahwan, coautor, señala que la selección algorítmica que se impone a las preferencias del usuario puede ocurrir en cualquier país donde opere TikTok y que harían falta auditorías específicas por país para entender cómo se manifiesta el sesgo en cada contexto.

Para América Latina, donde TikTok tiene una presencia creciente y donde los ecosistemas mediáticos y regulatorios varían ampliamente, esto significa que no es prudente asumir que los efectos observados en EE. UU. no puedan repetirse localmente. Autoridades, partidos políticos, medios y empresas deberían considerar auditorías independientes, cláusulas de transparencia y protocolos de supervisión para plataformas con impacto político.

Qué pueden hacer reguladores y empresas

  • Impulsar auditorías independientes por país que evalúen no solo el comportamiento del algoritmo, sino también la posible intervención humana en las promociones.
  • Exigir transparencia sobre criterios de optimización y herramientas internas que permitan impulsar contenido manualmente.
  • Promover mecanismos de control para que los usuarios puedan personalizar y moderar sus recomendaciones con facilidad.
  • Fomentar investigación local sobre cómo las recomendaciones afectan la opinión pública en contextos latinoamericanos.

Conclusión

El estudio publicado en Nature aporta evidencia de que, en 2024, TikTok recomendó más contenido conservador en EE. UU., un resultado que pudo contribuir a la visibilidad de Trump en la plataforma. No hay una respuesta definitiva sobre si fue un sesgo intencional o una propiedad emergente del sistema, pero el efecto —sean cuales sean sus causas— plantea preguntas importantes sobre la gobernanza de plataformas, la intervención humana en algoritmos y la necesidad de auditorías y transparencia, tanto en Estados Unidos como en los países de América Latina donde estas plataformas crecen rápidamente.

Fuente original: El Pais IA