Tendencias 6 min lectura

El veto a menores en redes flaquea en Australia: qué está pasando y por qué importa

Australia fue pionera al prohibir el acceso a redes sociales a menores de 16 años, pero un informe revela que una proporción importante de niños sigue usando esas plataformas. El regulador eSafety advierte sobre fallos en las verificaciones y amenaza con acciones legales y multas millonarias.

Por Redaccion TD
El veto a menores en redes flaquea en Australia: qué está pasando y por qué importa

Australia quiso cerrar la puerta, pero muchos menores siguen dentro

Desde el 10 de diciembre Australia puso en marcha una norma para impedir que menores de 16 años mantengan cuentas en redes sociales. La intención es clara: reducir la exposición de niños y adolescentes a contenidos dañinos y a dinámicas de producto que fomentan el uso excesivo.

Sin embargo, los primeros datos oficiales muestran que la medida está encontrando límites prácticos. Un informe del regulador de seguridad en internet, eSafety, indica que un “porcentaje significativo” de menores sigue usando plataformas como Facebook, Instagram, Snapchat o TikTok, pese a la nueva ley. En las primeras semanas se eliminaron o bloquearon 4,7 millones de cuentas de menores, pero la realidad detrás de esa cifra es más compleja.

Las cifras esenciales: una reducción, pero no un cierre total

Según el informe, el porcentaje total de menores en redes se redujo del 49,7 % al 31,3 %. Aunque hay una caída notable, el regulador advierte que muchos niños no han pasado por verificaciones adecuadas. Cerca de siete de cada diez menores continúan presentes en algunas plataformas importantes, y casi la mitad mantiene cuentas en YouTube.

El Gobierno australiano sostiene que la medida responde a riesgos documentados para la salud mental: un estudio encargado por Canberra indicaba que el 96% de los niños entre 10 y 15 años usan redes sociales, y que alrededor de 7 de cada 10 han estado expuestos a contenidos o comportamientos dañinos, desde mensajes misóginos hasta vídeos violentos o que promueven trastornos alimentarios o ideas suicidas.

Dónde fallan los controles: verificación de edad y mecanismos eludibles

El informe de eSafety identifica fallos estructurales en los sistemas de control implementados por las plataformas. Entre las debilidades señaladas están la posibilidad de modificar la edad declarada, repetir intentos de verificación y crear cuentas con datos falsos. Estas vías facilitan que menores eludan la restricción.

Plataformas como Meta (dueña de Facebook, Instagram y Threads) empezaron a cerrar cuentas de adolescentes en diciembre y ofrecieron vías para revertir cierres por error, como presentar un documento de identidad oficial o grabar un vídeo selfie para verificar edad. Aun así, eSafety considera que las empresas deben demostrar que han tomado medidas “razonables” para impedir el acceso de menores y está recabando evidencias para posibles acciones legales.

La amenaza de multas y la presión internacional

La ley australiana contempla sanciones económicas severas: multas de hasta 49,5 millones de dólares australianos (unos 29 millones de euros) si las plataformas no cumplen. Además de las consecuencias económicas, está en juego la reputación y la capacidad operativa de las compañías en un mercado que busca cada vez más controles sobre el contenido y la privacidad infantil.

El caso australiano no es aislado. Indonesia, que acaba de aprobar una normativa similar, ha acusado a grandes tecnológicas de falta de colaboración y también ha exigido cambios en sus sistemas para detectar y desactivar cuentas de menores de 16 años. La ministra de Comunicación y Asuntos Digitales de Indonesia, Meutya Hafid, señaló que las plataformas no habían informado con claridad las medidas que adoptarían, y el Gobierno emitió avisos a empresas como Meta, Google, TikTok y Roblox.

Además, países como España, Francia y Reino Unido han mostrado interés en reglas parecidas, lo que marca una tendencia internacional hacia controles de edad más estrictos.

Dilemas técnicos y éticos: privacidad vs. protección

La implementación práctica de estas restricciones plantea preguntas complejas. Verificar la edad de un usuario de manera fiable sin comprometer su privacidad es técnicamente difícil y políticamente sensible. Los métodos disponibles —documentos oficiales, biometría facial o servicios de verificación de terceros— tienen costes, riesgos de filtración y pueden ser inaccesibles para amplios segmentos de la población.

Para países con registros civiles poco digitalizados o sin sistemas de identidad universales, la barrera técnica es aún mayor. En este contexto, la exigencia de controles estrictos puede dejar fuera a usuarios adultos legítimos o empujar a menores a alternativas menos reguladas.

Consecuencias y lecciones para América Latina

En América Latina los reguladores y responsables de políticas están observando con atención lo que sucede en Australia e Indonesia. Aunque no todos los países de la región tienen planes inmediatos para prohibir el acceso de menores a redes, la discusión sobre la protección infantil en línea, la salud mental y la responsabilidad de las plataformas ya forma parte de las agendas públicas.

Para los tomadores de decisión en la región, el caso australiano ofrece varias lecciones prácticas:

  • Las normas necesitan acompañarse de capacidades técnicas y recursos de supervisión para ser efectivas.
  • Las exigencias de verificación deben equilibrarse con garantías de privacidad y acceso inclusivo.
  • La rendición de cuentas de las plataformas pasa por exigir demostraciones claras de “medidas razonables” y por dotar a los reguladores de poder sancionador y herramientas investigativas.

Qué pueden hacer las empresas y qué deben exigir los reguladores

Las plataformas deben mejorar la robustez de sus sistemas de verificación y transparencia sobre su funcionamiento. Eso incluye explicar públicamente cómo detectan intentos de elusión, cómo protegen los datos usados en la verificación y cómo manejan los errores de exclusión.

Los reguladores, por su parte, deben definir estándares técnicos mínimos para verificación, procedimientos claros para supervisar el cumplimiento y garantías para proteger los derechos de los usuarios. También es importante fomentar estrategias complementarias: educación digital para familias y menores, controles parentales efectivos y promoción de diseños de producto menos orientados a la captación constante de atención.

Un problema global, soluciones multifacéticas

El intento de Australia por restringir el acceso de menores a redes sociales pone de relieve un desafío global: las políticas públicas pueden establecer límites, pero su eficacia depende de soluciones técnicas, cooperación internacional y decisiones empresariales responsables. Mientras las medidas se despliegan y se evalúan sus resultados, queda claro que no basta con poner una norma; hace falta infraestructura regulatoria, transparencia por parte de las plataformas y políticas públicas que consideren el equilibrio entre protección y derechos digitales.

Para América Latina, el debate ofrece una oportunidad para anticipar problemas, diseñar respuestas adaptadas al contexto local y exigir a las plataformas compromisos concretos que protejan a los menores sin sacrificar la privacidad ni la inclusión digital.

Fuente original: El Pais IA