La 'era tabaco' de las redes: cuándo un like se compara con un cigarrillo
Tribunales en Estados Unidos y una detención en España volvieron a poner en primer plano el daño potencial de las redes sociales sobre menores. Un jurado en California responsabilizó a Meta y Google de diseñar plataformas que contribuyeron al daño psicológico de una joven; otros procesos y críticas cuestionan si este enfoque es justo o práctico.
Un punto de inflexión judicial
Esta semana hubo varios fallos y acontecimientos que obligan a replantear cómo las plataformas tratan a los menores. En Nuevo México, un tribunal condenó a Meta a pagar 375 millones de dólares por no impedir que menores accedieran a contenido explícito y fuesen acosados por adultos. En España, la Policía detuvo a un groomer que empleó Instagram para hostigar a decenas de menores. Y, quizás el caso más llamativo, un jurado en California determinó que Meta y Google deben pagar 6 millones de dólares a una joven de 20 años porque sus plataformas la engancharon desde la infancia sin tener en cuenta su bienestar.
Esos fallos confluyen en una idea: las prácticas de diseño de productos y algoritmos ya no son un asunto puramente técnico o de libertad de mercado; el sistema judicial y la opinión pública exigen responsabilidad.
¿Por qué lo llaman la “era tabaco”?
La expresión alude a la trayectoria histórica de la industria tabaquera: durante décadas sus productos estuvieron normalizados hasta que litigios, pruebas científicas y presión social cambiaron la narrativa y llevaron a acuerdos, regulaciones y advertencias públicas. En el caso de las redes sociales, algunos observadores trazan tres etapas: una inicial más optimista (la llamada era democrática), otra marcada por la desinformación y sus efectos en la política, y ahora —según este argumento— la era en la que se pone en cuestión el diseño de las plataformas por su impacto en la salud mental de jóvenes.
No significa que el proceso será idéntico al del tabaco, ni que las redes vayan a desaparecer. Pero la metáfora sirve para entender que un producto socialmente aceptado puede, en cierto momento, enfrentar consecuencias regulatorias y legales significativas.
¿Es comparable un contenido de Instagram a fumar un cigarrillo?
Aquí entra el matiz fundamental. La sentencia de California no afirma que las redes provoquen depresión de la misma forma directa que fumar causa cáncer; el veredicto evaluó si las plataformas fueron “un factor sustancial” en los problemas de la demandante. Según el caso, la joven empezó a usar YouTube a los 6 años e Instagram a los 9 —edades que muchos expertos y críticos consideran inadecuadas para ese tipo de experiencias en línea.
La discusión científica sobre causalidad es abierta: existen estudios que muestran asociaciones entre uso intensivo de redes y deterioro del bienestar en adolescentes, pero la cuestión de atribuir causalidad directa sigue siendo compleja. Aun así, desde el punto de vista social y legal, el diseño intencional de productos para maximizar la atención —con scroll infinito, recomendaciones personalizadas y notificaciones— ya no puede defenderse con la sola excusa de ser una práctica estándar del sector.
Reacciones encontradas: ¿culpa de las plataformas o de las familias?
Las respuestas públicas al fallo han sido polarizadas. Periodistas y comentaristas han resaltado factores familiares y personales en el caso de la demandante: abusos y negligencias domésticas que también explican problemas de salud mental. Taylor Lorenz, periodista e influencer, lo resumió criticando la idea de que solo los videos virales sean los responsables de trastornos complejos.
Del otro lado, el jurado y muchos activistas quieren que las empresas “sientan” el impacto de sus decisiones: varias declaraciones públicas de jurados y afectados indican que la intención no fue solo sancionar económicamente, sino forzar a la industria a cambiar prácticas.
Organizaciones que priorizan la libertad de expresión, como FIRE, advierten que responsabilizar a las plataformas por funciones diseñadas para captar la atención sería una intromisión en la libertad editorial y un camino hacia la censura. Y muchos padres y familias sostienen que la supervisión y la educación digital siguen siendo responsabilidades esenciales en el hogar.
¿Qué consecuencias legales y comerciales pueden venir?
Las empresas tecnológicas cuentan con recursos legales y apelaciones; Meta, por ejemplo, aún puede recurrir sentencias. Pero el efecto inmediato ya se nota: la opinión pública y los tribunales están más atentos a cómo los algoritmos, la automatización y la personalización amplifican contenidos que afectan a menores.
En el terreno comercial, la analogía con los vapeadores es útil: las plataformas podrían intentar alternativas menos agresivas en diseño (versiones con menos incentivos al engagement extremo), o introducir controles de edad más estrictos. Sin embargo, verificar edad y controlar contenido a gran escala implica desafíos técnicos, regulatorios y de privacidad.
¿Qué debe considerar América Latina?
Para gobiernos y empresas en América Latina, estos desarrollos internacionales son una señal clara. Algunas consideraciones relevantes:
-
Regulación y legislación: varios países de la región ya discuten leyes sobre protección de datos, derechos digitales y seguridad infantil. Los fallos en Estados Unidos podrían acelerar iniciativas locales para exigir obligaciones específicas a plataformas.
-
Capacitación y políticas públicas: más que prohibiciones, puede haber demanda por programas de educación digital para familias, formación docente y recursos para reconocer y responder a grooming y abuso en línea.
-
Desafíos de verificación: muchas propuestas de control de edad y verificación son difíciles de implementar sin afectar la privacidad y el acceso digital, especialmente en contextos con menor acceso a documentación o tecnología.
-
Riesgo de desinformación regulatoria: hay que evitar respuestas apresuradas que limiten derechos o inhiban innovación sin proteger efectivamente a los niños.
¿Y ahora qué sigue?
Es probable que estos casos no sean los últimos. Miles de demandas con argumentos relacionados ya están en curso. La discusión pública continuará en tres frentes: tribunales, reguladores y opinión pública. Las plataformas deberán decidir si cambian sus productos (y cómo) o si apuestan por batallas legales prolongadas.
Para tomadores de decisión en empresas y gobiernos latinoamericanos, el mensaje es claro: la regulación y la política pública sobre tecnología deben contemplar el diseño de productos y sus efectos, no solo el contenido publicado. La protección de menores exige una combinación de supervisión familiar, mejores herramientas de control, transparencia algorítmica y, cuando proceda, responsabilidad legal.
En suma, no se trata solo de decidir si un mensaje de Instagram es igual a un cigarrillo, sino de reconocer que las decisiones de diseño pueden tener consecuencias sociales profundas. Y que la sociedad, a través de tribunales y políticas, ya empezó a reclamar cuentas.
Fuente original: El Pais IA