En vez de prohibir: Brasil exige que las redes sean menos adictivas para menores
Mientras países debaten vetos de acceso para menores, Brasil y la Unión Europea optan por regular cómo funcionan las plataformas: medidas de diseño que limiten scroll infinito, autoplay y recomendaciones diseñadas para maximizar el tiempo en pantalla. Este enfoque busca proteger sin depender solo de verificaciones de edad que pueden vulnerar la privacidad.
Un debate global con dos caminos
La presión por proteger a niñas, niños y adolescentes en internet ha llevado a varios gobiernos a plantear regulaciones sobre redes sociales. Sin embargo, no existe consenso científico definitivo sobre los efectos sociales del uso intensivo de estas plataformas, y las políticas públicas se han dividido en dos grandes enfoques: restringir el acceso por edad o responsabilizar el diseño y funcionamiento de las plataformas.
El primer enfoque plantea límites claros al acceso de menores a ciertas redes. Australia fue pionera al prohibir el uso de redes sociales a menores de 16 años, y desde entonces países como España, Francia y Portugal han discutido o adoptado medidas similares. En México, algunos gobiernos estatales también han explorado restricciones locales. El argumento es sencillo: evitar que la exposición temprana aumente riesgos asociados con salud mental, privacidad y vulneración de derechos.
El otro enfoque concentra el esfuerzo en las empresas que desarrollan y operan las plataformas. En vez de bloquear el acceso, se busca que los servicios sean menos adictivos y más seguros por diseño, integrando salvaguardas en las funciones, algoritmos y estructuras mismas del producto.
Por qué la prohibición tiene límites prácticos y éticos
Las medidas que exigen verificar la edad para restringir acceso plantean problemas operativos y de derechos. Implementar sistemas de verificación masiva obligaría a todos los usuarios a someterse a comprobaciones que, sin las salvaguardas apropiadas, podrían poner en riesgo la privacidad y favorecer discriminaciones. Además, en regiones donde la infraestructura de identidad digital no está extendida, exigir registros robustos puede excluir a sectores vulnerables del ecosistema digital.
Expertos advierten que estas decisiones, aunque políticamente atractivas, se apoyan en evidencias todavía limitadas sobre su impacto real. Restringir el acceso sin mecanismos eficaces de verificación y protección puede generar más problemas que soluciones, como mayores brechas de acceso a la información y riesgos de recolección de datos por vías menos reguladas.
Responsabilidad de diseño: la apuesta de Brasil y la UE
Frente a estas limitaciones, la Unión Europea y ahora Brasil han optado por medidas que atacan las prácticas de diseño consideradas problemáticas. Estas regulaciones obligan a las plataformas a aplicar principios de privacidad y seguridad por defecto, ofrecer sistemas auditables de verificación de edad, clasificar contenidos por rangos etarios y modificar funciones que fomentan el uso prolongado.
En la práctica, las normas apuntan a características como el scroll infinito, los videos con reproducción automática (autoplay), las notificaciones push constantes, las recomendaciones hiperpersonalizadas y los sistemas de recompensa diseñados para aumentar el tiempo de permanencia. Documentos internos filtrados de plataformas como TikTok han sido citados como evidencia de que muchas de estas herramientas fueron pensadas para maximizar la atención del usuario.
Brasil sería el primer país en América Latina en prohibir funciones como el scroll infinito y el autoplay para usuarios menores, una señal clara de que la región también está incorporando la discusión sobre diseño y adicción digital.
¿Son suficientes las medidas voluntarias de las plataformas?
Ante las críticas, las empresas han implementado funciones propias: controles parentales, recordatorios de descanso, límites de tiempo, y ajustes de algoritmos según la edad declarada. Sin embargo, muchos especialistas consideran que estas respuestas no bastan porque trasladan la carga de la protección a los usuarios y a sus familias.
Es decir, pedir a adolescentes que se autorregulen en entornos diseñados para captar su atención resulta, según observadores, una solución insuficiente. El foco debería estar en cómo se construyen y monetizan los productos digitales, no solo en educar a usuarios para que eviten los efectos que esos diseños inducen.
Riesgos de la verificación de edad y la protección universal
Las exigencias de verificación de edad pueden tener consecuencias no deseadas. Sin protocolos robustos de privacidad y seguridad, estos sistemas podrían exacerbar desigualdades y abrir la puerta a prácticas ilícitas de recolección y uso de datos. Además, cuando la protección de la infancia se define exclusivamente por lo que es “seguro” para menores, se corre el riesgo de fijar un estándar que impacte a toda la población digital, alterando dinámicas de acceso a la información y expresión.
Por eso, especialistas en privacidad y políticas públicas señalan la necesidad de equilibrar medidas técnicas con garantías de derechos: evitar que la verificación se convierta en una excusa para recolectar identidades o para construir perfiles comerciales más detallados.
Un enfoque preventivo y adaptativo
La principal ventaja del enfoque centrado en el diseño es que promueve cambios estructurales: obliga a las empresas a incorporar la protección desde la concepción del producto, no solo a ofrecer herramientas correctivas. Medidas como activar parámetros de privacidad por defecto, auditar algoritmos y clasificar contenidos por edades son pasos concretos hacia plataformas menos dependientes de estrategias de atención masiva.
Especialistas consultados por medios internacionales consideran que esta estrategia tiene más probabilidades de equilibrar la protección de menores con la preservación de derechos como la libertad de expresión y el acceso a la información.
Qué implica esto para América Latina
En la región la discusión enfrenta desafíos particulares: baja penetración de sistemas de identidad digital en algunos países, brechas de conectividad, y niveles variados de capacidad regulatoria. Por eso, políticas que dependen exclusivamente de verificaciones biométricas o de identidad pueden resultar impracticables o injustas.
Si los países latinoamericanos quieren seguir la ruta de Brasil y la UE, será necesario complementar la regulación del diseño con inversiones en alfabetización digital, apoyo a familias y marcos de supervisión que eviten abusos comerciales. Asimismo, la cooperación internacional y la adaptación normativa a contextos locales serán claves para que las medidas no generen exclusión.
Conclusión: menos prohibición, más responsabilidad
La polaridad entre prohibir el acceso y reformar el diseño de las plataformas coloca a los reguladores frente a una decisión de fondo: ¿quieren controlar quién entra a las redes o transformar cómo estas operan? La tendencia que ganan tracción en Brasil y la UE apuesta por lo segundo, entendiendo que la protección efectiva pasa por modificar incentivos comerciales y técnicas de producto, en lugar de confiar únicamente en verificaciones de edad que pueden ser invasivas o poco prácticas.
Para América Latina, adoptar ese enfoque exige cautela y ajustes: proteger a la infancia sin abrir espacios para la discriminación digital, y promover plataformas más seguras sin limitar injustamente el acceso a la información. En este equilibrio se juega gran parte del futuro digital de la región.
Fuente original: Wired