Meta usará IA para analizar huesos y altura y detectar usuarios menores
Meta incorporará algoritmos que examinan fotos, vídeos y textos para buscar pistas visuales de la edad, como estructura ósea o altura. Si detecta menores de 13 años, la cuenta se desactivará; los adolescentes tendrán restricciones.
Qué anunció Meta
Meta, la empresa matriz de Facebook, Instagram y WhatsApp, avanza en nuevas técnicas basadas en inteligencia artificial para tratar de asegurar que sus usuarios tengan al menos 13 años. La compañía ha explicado que sus sistemas analizarán fotos y vídeos “en busca de pistas visuales sobre la edad”, entre las que figuran la estructura ósea o la altura aparente de la persona en la imagen. Estos datos se complementarán con el análisis del texto de publicaciones e interacciones del usuario.
Meta afirma que el objetivo es “aumentar significativamente el número de cuentas de menores que identificamos y eliminamos”. También ha subrayado que estas herramientas no forman parte de reconocimiento facial, una tecnología que la empresa dice haber dejado de usar hace cinco años.
Cómo funcionaría la verificación de edad
Según la comunicación de la compañía, el sistema no se basa en una sola señal, sino en la combinación de múltiples indicios. El análisis visual (fotos y vídeos) se suma a señales de comportamiento: lenguaje empleado en posts, patrones de interacción y otros metadatos. Con esa combinación, la plataforma pretende estimar con mayor precisión la edad del usuario y activar medidas en función del resultado.
Las consecuencias previstas son claras: si el algoritmo concluye que la persona es menor de 13 años, la cuenta se desactivará. Si se determina que el usuario tiene entre 13 y 17 años pero se había hecho pasar por adulto, la cuenta se reclasificará como adolescente y se aplicarán restricciones en contenidos e interacciones.
Límites técnicos y de privacidad señalados por Meta
Meta ha enfatizado que estas técnicas no suponen volver al reconocimiento facial, que la empresa asegura haber abandonado como herramienta de verificación. Sin embargo, el uso de análisis de imágenes que evalúan rasgos corporales y antropométricos plantea preguntas sobre precisión, sesgos y privacidad. Evaluar edad por apariencia puede fallar en casos de personas que no encajen en patrones poblacionales preexistentes o que pertenezcan a distintos grupos étnicos o de edad biológica diversa.
La compañía no ha hecho públicos detalles técnicos sobre cómo se entrenan estos modelos, qué datos se usan ni qué margen de error manejan. Esos puntos serán clave para valorar si la solución respeta derechos de privacidad y no discrimina a ciertos grupos.
Marco legal y presiones regulatorias
El anuncio llega en un momento de fuerte escrutinio legal y regulatorio sobre la protección de menores en redes sociales. En Estados Unidos, una resolución reciente obliga a Meta a pagar 375 millones de dólares por no proteger adecuadamente a menores en sus plataformas. Asimismo, otro tribunal estadounidense responsabilizó a Meta y a YouTube por generar adicción entre menores y engancharlos a sus servicios.
En Europa, la Comisión Europea abrió una investigación sobre si Meta ha identificado, evaluado y mitigado los riesgos derivados del acceso de menores de 13 años a Facebook e Instagram. En España, el presidente del Gobierno anunció propuestas para limitar el acceso de menores de 16 años a redes sociales, y mientras las herramientas públicas de verificación no están disponibles, Meta ha optado por desplegar soluciones propias.
Contexto laboral y prioridades corporativas
La iniciativa para reforzar la verificación de edad se produce en paralelo a cambios organizativos en Meta: la empresa anunció un recorte de plantilla que afectará a 8.000 empleados (aproximadamente el 10% de su personal) y la cancelación de 6.000 contrataciones previstas. La compañía plantea estos ajustes como parte de un intento por mejorar la eficiencia y equilibrar las inversiones realizadas en desarrollo de IA.
Implicaciones para América Latina
Para gobiernos, reguladores y empresas de América Latina, la medida de Meta tiene varias aristas relevantes:
-
Regulación y cumplimiento: muchos países de la región están revisando normas sobre protección de menores y privacidad. La llegada de técnicas automatizadas de detección de edad obligará a actualizar marcos legales para exigir transparencia, auditorías y garantías contra sesgos.
-
Brecha tecnológica y datos locales: los sistemas entrenados con datos mayoritariamente de otras regiones pueden no generalizar bien a poblaciones latinoamericanas. Sin medidas de supervisión y datos representativos, hay riesgo de errores que afecten desproporcionadamente a usuarios de la región.
-
Rol de las plataformas versus Estado: hasta que existan herramientas públicas de verificación de edad confiables, las plataformas toman decisiones tecnológicas que impactan derechos y acceso. Esto puede generar tensiones con iniciativas regulatorias locales sobre límites de edad, verificación y responsabilidad.
-
Concienciación de familias y escuelas: además de medidas tecnológicas, la protección efectiva de menores requerirá educación digital y políticas de parentalidad que acompañen la adopción de estas funciones.
Riesgos y preguntas abiertas
El anuncio plantea varias preguntas que están por resolverse: ¿qué precisión real ofrece el análisis de estructura ósea o altura? ¿Cómo se mitigan los sesgos por edad aparente, etnia o contextos fotográficos? ¿Qué garantías de privacidad recibirán los usuarios sobre el uso y conservación de los datos analizados? ¿Habrá mecanismos de apelación accesibles para quienes consideren que su edad fue estimada incorrectamente?
La transparencia en estos puntos será determinante para la aceptación pública y para cumplir con obligaciones regulatorias en distintos mercados.
Qué deberían considerar empresas y reguladores
Para responsables de políticas y equipos de producto en la región, la situación es una invitación a actuar en varios frentes:
-
Exigir transparencia: solicitar documentación técnica sobre datasets, tasas de error y medidas para evitar sesgos.
-
Evaluaciones independientes: promover auditorías independientes y pruebas en muestras representativas de la población local.
-
Marcos de apelación y rectificación: garantizar procesos claros y rápidos para que usuarios puedan corregir estimaciones erróneas de edad.
-
Complementar con políticas de educación digital: unir la verificación tecnológica con programas de alfabetización para familias y educadores.
Conclusión
La apuesta de Meta por usar IA que analiza imágenes y textos para identificar a menores busca responder a presiones legales y regulatorias y a la necesidad de controlar el acceso de menores a sus plataformas. Sin embargo, la eficacia y legitimidad de esa estrategia dependerán de la transparencia de los modelos, la capacidad de mitigar sesgos y de ofrecer garantías de privacidad y recursos de apelación. En América Latina, donde los contextos demográficos y regulatorios varían, será crucial que las autoridades y la sociedad civil exijan pruebas y salvaguardas antes de aceptar soluciones automatizadas que afectan derechos de infancia y privacidad.
Fuente original: El Pais IA