16 de marzo 2026 - 9:55hs

La tecnología que nació alrededor de Pokémon Go empezó a encontrar una nueva aplicación fuera del videojuego. Según un artículo de MIT Technology Review, Niantic Spatial está usando datos reunidos a partir de ese juego para desarrollar un sistema de posicionamiento visual orientado a robots de reparto de última milla.

No se trata de robots industriales ni de vehículos de gran porte. El foco está puesto en robots terrestres pequeños y autónomos, que se desplazan por veredas para llevar pedidos de comida o compras hasta el destino final de un cliente.

Niantic Spatial es una empresa de inteligencia artificial que busca reutilizar una base de imágenes del mundo real generada durante años por jugadores de Pokémon Go e Ingress.

Más noticias

El punto de partida fue la escala del fenómeno. Brian McClendon, director de tecnología de Niantic Spatial, dijo: “500 millones de personas instalaron esa aplicación en 60 días”. El artículo agrega que, según Scopely, el juego todavía registró más de 100 millones de jugadores en 2024, ocho años después de su lanzamiento.

Esa masividad dejó un efecto concreto en el mundo físico. Durante años, millones de personas apuntaron sus teléfonos a edificios, fachadas, esquinas y otros puntos urbanos mientras jugaban. Esa práctica produjo una enorme colección de imágenes asociadas a información precisa de ubicación.

De acuerdo con MIT Technology Review, Niantic Spatial usa ese material para construir una clase de modelo del mundo. La empresa lo presenta como una tecnología que busca vincular sistemas de inteligencia artificial con entornos reales, a partir de datos espaciales concretos.

La aplicación inmediata no está centrada en el entretenimiento. La firma quiere usar ese sistema para ayudar a máquinas a navegar con más precisión en lugares donde el GPS presenta limitaciones, sobre todo en sectores urbanos densos.

Ahí entran en escena los robots de reparto. La empresa acaba de asociarse con Coco Robotics, una startup que despliega robots autónomos de delivery de última milla en varias ciudades de Estados Unidos y Europa. Esta compañía opera unos 1.000 robots, equipos del tamaño de un baúl de transporte, diseñados para cargar hasta ocho pizzas extra grandes o cuatro bolsas de supermercado.

Esos robots se mueven por veredas, no por autopistas ni por interiores de depósitos. Su función es cubrir el último tramo del recorrido logístico, el que va desde un comercio hasta la puerta del cliente.

Según el director ejecutivo de Coco, Zach Rash, la empresa ya realizó más de medio millón de entregas. También afirmó que esos robots recorrieron varios millones de millas en distintas condiciones climáticas.

Para ese tipo de operación, la localización precisa es central. Rash dijo: “La mejor manera de hacer nuestro trabajo es llegar exactamente cuando dijimos que íbamos a llegar”. En ese marco, perderse o detenerse en un punto incorrecto afecta directamente el servicio.

El problema, según explicó, es que muchas de las zonas donde trabaja Coco son complicadas para el GPS. La empresa hace entregas en áreas densas, con edificios altos, pasos bajo nivel y autopistas elevadas, donde la señal puede degradarse.

McClendon lo resumió así: “El cañón urbano es el peor lugar del mundo para el GPS”. En la nota, agregó que el punto azul del teléfono puede desplazarse hasta 50 metros, lo que puede ubicar a una persona o a un robot en otra cuadra y del lado equivocado de la calle.

Para un robot pequeño que avanza por vereda a baja velocidad, ese margen de error no es menor. Puede afectar el punto de retiro frente a un restaurante, el lugar donde espera sin bloquear el paso o la posición final en la entrega al cliente.

La propuesta de Niantic Spatial es complementar el GPS con un sistema de posicionamiento visual. Es decir, determinar dónde está el robot a partir de lo que sus cámaras ven alrededor, en vez de depender solamente de señales satelitales.

John Hanke, director ejecutivo de Niantic Spatial, vinculó directamente el problema del juego con el de estos equipos. “Resulta que lograr que Pikachu corra de manera realista y que el robot de Coco se mueva por el mundo de forma segura y precisa es en realidad el mismo problema”, dijo.

La frase marca el eje del artículo. Lo que antes servía para superponer criaturas virtuales sobre una calle real ahora se aplica a robots de reparto autónomo que circulan entre peatones en espacios urbanos.

Cómo funciona el sistema y qué tipo de robots busca mejorar

El artículo señala que el sistema de Niantic Spatial fue entrenado con 30.000 millones de imágenes captadas en entornos urbanos. Muchas de ellas están concentradas en puntos calientes de sus juegos, como lugares importantes que los usuarios eran incentivados a visitar.

McClendon dijo: “Teníamos más de un millón de ubicaciones en todo el mundo donde podemos localizarte con precisión”. También afirmó que la empresa sabe con precisión de centímetros dónde estaba una persona y, sobre todo, hacia dónde estaba mirando.

Eso importa porque no se trata solo de tener una foto. Para cada uno de esos lugares, Niantic Spatial reunió miles de imágenes tomadas desde ángulos distintos, en diferentes horarios del día y bajo condiciones climáticas diversas.

La nota agrega que cada imagen incluye metadatos detallados. Entre ellos figuran la posición espacial del teléfono, la orientación del dispositivo, la dirección en la que apuntaba, si estaba en movimiento y a qué velocidad se desplazaba.

Con ese conjunto, la empresa entrenó un modelo capaz de estimar su ubicación a partir de lo que observa. Según el texto, esa capacidad no queda limitada a los puntos más documentados, sino que también apunta a funcionar en otras áreas con menos datos.

La tecnología fue pensada originalmente para realidad aumentada. Hanke explicó que, si alguien usa anteojos de AR y quiere que el contenido digital quede fijado exactamente donde mira, necesita un método de localización espacial muy preciso.

Lo que cambió, según su planteo, fue el mercado posible para esa herramienta. “Ahora estamos viendo una explosión cámbrica en la robótica”, dijo Hanke, en referencia al crecimiento del interés en distintos tipos de robots.

En este caso concreto, la aplicación no está orientada a humanoides ni a brazos robóticos de fábrica. Está dirigida a robots terrestres de reparto de última milla, que se desplazan a unos ocho kilómetros por hora y comparten la vereda con personas.

Esos equipos necesitan reconocer con exactitud dónde están cuando pasan frente a locales, esquinas, entradas de edificios o puertas de viviendas. También necesitan corregir su posición cuando una maniobra, un obstáculo o un movimiento imprevisto altera su trayectoria.

Hanke planteó que, si los robots van a integrarse en entornos humanos sin resultar disruptivos, van a necesitar un nivel de comprensión espacial parecido al que tienen las personas. En la nota afirmó: “Podemos ayudar a los robots a encontrar exactamente dónde están cuando fueron empujados o golpeados”.

En la práctica, Coco usará este sistema junto con otras referencias. Sus robots, que están equipados con cuatro cámaras, incorporarán el modelo de Niantic Spatial además del GPS para estimar mejor su ubicación y su dirección.

Rash explicó que la perspectiva visual del robot no es igual a la de un jugador de Pokémon Go. Las cámaras están a una altura similar a la de la cadera y registran el entorno en todas direcciones al mismo tiempo.

Aun con esa diferencia, sostuvo que adaptar la tecnología fue sencillo. La meta, según dijo, es que los robots puedan posicionarse mejor en los puntos de retiro fuera de restaurantes y detenerse justo donde corresponde al momento de la entrega.

El artículo precisa que Rash apuesta a que esta mejora les permita ubicarse en el lugar correcto sin estorbar. También sostuvo que la tecnología podría ayudar a que el robot quede frente a la puerta del cliente, y no a unos pasos de distancia como podía pasar antes.

La nota aclara que Coco no es la única firma del sector que trabaja con posicionamiento visual. Como referencia, menciona a Starship Technologies, que usa sensores para construir un mapa 3D del entorno y registrar bordes de edificios o la posición de faroles.

Aun así, la apuesta de Niantic Spatial está en el volumen y la naturaleza de sus datos. El valor diferencial que plantea la empresa es haber reunido durante años una base masiva de imágenes urbanas tomadas por personas en escenarios reales.

Ese volumen es clave para la ambición más amplia de la compañía. Hanke dijo que lo que están empezando a construir son las primeras piezas de lo que define como un “mapa vivo”, una especie de mapa detallado que cambia a medida que cambia el mundo.

Según el texto, la idea es que los robots de Coco y de otras compañías aporten nuevos datos mientras se desplazan. Esos recorridos sumarían información para crear réplicas digitales cada vez más detalladas de calles, objetos y transformaciones urbanas.

En esa visión, los mapas dejan de servir solo para orientar a personas. También pasan a funcionar como infraestructura de referencia para máquinas que necesitan entender no solo dónde están, sino también qué tienen enfrente.

El artículo plantea que los mapas para máquinas podrían convertirse en algo más parecido a una guía descriptiva. No solo ubicarían puntos en el espacio, sino que añadirían información sobre los objetos y sus propiedades.

Hanke lo resumió con esta frase: “Esta era consiste en construir descripciones útiles del mundo para que las máquinas puedan comprenderlo”. La apuesta, según dijo, es que los datos reunidos por la empresa sirvan para construir una comprensión más amplia del entorno físico.

La nota sitúa ese trabajo dentro del auge de los llamados modelos del mundo. Allí menciona que, aunque los modelos de lenguaje parezcan saber mucho, tienen limitaciones de sentido común cuando deben interpretar o interactuar con ambientes cotidianos.

En ese marco, algunas empresas como Google DeepMind y World Labs están desarrollando sistemas que generan mundos virtuales para entrenar agentes de inteligencia artificial. Niantic Spatial, en cambio, afirma que avanza desde otro punto de partida.

La empresa sostiene que empujar el mapeo lo suficientemente lejos permitiría capturar cada vez más aspectos del mundo real. McClendon lo formuló de este modo: “Todavía no estamos ahí, pero queremos estarlo. Estoy muy enfocado en intentar recrear el mundo real”.

Temas:

Pokémon GO Europa

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos