Pokémon Go y la polémica de los datos: qué pasó y por qué importa en Latinoamérica
Un reportaje reveló que Niantic aprovechó las imágenes y la geolocalización de millones de jugadores de Pokémon Go para alimentar modelos de IA geoespacial. La práctica reaviva debates sobre consentimiento, privacidad y uso comercial de datos generados por usuarios.
El hallazgo que reabrió la polémica
En 2016 Pokémon Go se convirtió en un fenómeno global al combinar geolocalización, realidad aumentada y una marca icónica. Con alrededor de 700 millones de descargas y más de 6,000 millones de dólares en ingresos, el juego dejó una huella clara en la cultura digital. Ahora, a diez años de su lanzamiento, un reportaje de MIT Technology Review destapó que Niantic utilizó datos capturados por los usuarios —imágenes y posiciones— para entrenar lo que denominan un modelo de inteligencia artificial geoespacial a gran escala.
La noticia encendió de nuevo las discusiones sobre privacidad y consentimiento: muchos jugadores no sabían que, al jugar, estaban contribuyendo a construir mapas tridimensionales detallados del espacio real que sirven para aplicaciones comerciales fuera del juego.
Qué tipo de datos se habrían usado
Los elementos centrales son las imágenes recopiladas por las cámaras de los dispositivos cuando los usuarios interactuaban con Poképaradas, gimnasios y otros puntos del juego, además de los datos de geolocalización asociados. Según la investigación y explicaciones técnicas publicadas por científicos de la compañía, estos insumos permiten a los sistemas aprender la forma y el contexto de edificios, plazas y objetos urbanos.
Niantic y su equipo académico —mencionando a Eric Brachmann y Victor Adrian Prisacariu— han descrito cómo esos conjuntos de datos ayudan a crear lo que llaman modelos geoespaciales de gran tamaño (LGM, por sus siglas en inglés).
Qué es un modelo geoespacial de gran tamaño (LGM)
Un LGM busca replicar algo que los humanos hacemos de forma natural: completar la vista de un lugar a partir de varios ángulos conocidos. Para una máquina esto es difícil si no tiene suficientes datos. Al entrenar con miles de millones de imágenes y coordenadas, el modelo aprende a inferir la forma y la apariencia de espacios físicos incluso en áreas que no han sido escaneadas por completo.
Esto es análogo a los modelos de lenguaje (LLM) que se entrenan con enormes cantidades de texto para predecir palabras: los LGM utilizan datos geoespaciales para predecir la estructura y la visualización del mundo real.
El papel del Sistema de Posicionamiento Visual (VPS)
Niantic desarrolló un Sistema de Posicionamiento Visual que permite a un dispositivo ubicarse con precisión milimétrica en el entorno. Con VPS, el contenido digital se superpone de forma persistente y consistente en ubicaciones reales, y esa persistencia es exactamente lo que genera datos valiosos para entrenamiento: múltiples vistas de los mismos puntos desde diferentes ángulos y momentos.
Esos datos, agregados a lo largo del tiempo y de millones de jugadores, alimentan los LGM y permiten reconstrucciones tridimensionales más completas.
Aplicaciones prácticas y alianzas comerciales
Los modelos resultantes no son solo para juegos. Niantic ha impulsado proyectos fuera del entretenimiento y anunció colaboraciones con empresas de robótica, como Coco Robotics, para mejorar la navegación de robots repartidores. Mapas más detallados ayudan a prevenir tropiezos, caídas por escaleras o choques con elementos urbanos, problemas habituales en demostraciones tempranas de robots de entrega.
Además, la compañía pasó por una reorganización: lo que fue Niantic Labs ahora figura como Niantic Spatial tras ser adquirida por Scopely, según la información técnica disponible.
Por qué esto genera rechazo y confusión
El principal reproche es la falta de claridad: muchos usuarios no sabían que sus recorridos y fotos estaban siendo reutilizados para entrenar sistemas de IA con fines comerciales. En foros y redes hay desde indiferencia hasta inquietud. Para activistas y expertos, el caso plantea preguntas clásicas sobre consentimiento informado, transparencia y el derecho de las personas a controlar datos que ellas mismas generan en contextos sociales y lúdicos.
También resurge un dilema técnico-ético: ¿es suficiente el aviso en términos y condiciones para que el consentimiento sea realmente informado, especialmente cuando la recolección ocurre en masa y se usa para aplicaciones que los usuarios no imaginaban?
Implicaciones concretas para Latinoamérica
En la región, donde la regulación sobre datos y privacidad aún está en desarrollo en muchos países, estos hallazgos tienen relevancia práctica. Ciudades con infraestructura desigual, zonas con señales GPS intermitentes y un aumento en servicios de logística ultrarrápida pueden verse directamente afectadas por tecnologías que dependen de mapas más precisos.
Si empresas globales reutilizan datos generados localmente, los tomadores de decisión en gobiernos y empresas latinoamericanas deberían evaluar cómo se protege la información de sus ciudadanos y clientes, y qué beneficios o riesgos implica permitir que terceros construyan infraestructuras digitales sobre el espacio público.
Qué preguntas siguen abiertas
- ¿Hubo un consentimiento claro y específico para este uso de datos?
- ¿Qué medidas de anonimización o protección se implementaron para evitar identificar a personas o lugares sensibles?
- ¿Qué límites éticos y regulatorios deben aplicarse cuando datos lúdicos alimentan infraestructuras comerciales?
Las respuestas no son del todo públicas y la discusión continúa en foros, prensa y entre reguladores.
Recomendaciones para empresas y reguladores
Para evitar conflictos similares, conviene que las empresas: clarifiquen de forma explícita y accesible los usos de datos, implementen mecanismos de opt-in real para finalidades no esenciales y apliquen prácticas de minimización y anonimización. Para reguladores y gobiernos, es pertinente reforzar marcos que obliguen a la transparencia sobre usos secundarios de información y a garantizar derechos de acceso, rectificación y eliminación.
Conclusión
El caso de Pokémon Go ilustra cómo tecnologías que comenzaron como experimentos lúdicos pueden convertirse en infraestructura para sistemas de IA con impacto real en la vida urbana y los modelos de negocio. La reacción pública refleja una demanda creciente de claridad y control sobre datos personales. En Latinoamérica, donde las soluciones tecnológicas a menudo se adoptan rápidamente, es urgente que empresas, reguladores y sociedad civil dialoguen sobre límites, beneficios y garantías cuando datos locales alimentan modelos con alcance global.
Fuente original: Wired