Siempre, esta tecnología no es que crece lineal, son como generaciones. Aparece una colección de nuevos devices, permiten ciertos casos de uso, la gente explora eso y trabaja sobre ese caso de uso.
Y después aparece una nueva generación con más funcionalidades. Hoy en día, Meta y Apple entraron hace un año en la industria de realidad mixta, donde te ponés los lentes, ves el mundo y podés agregar capas digitales. Y este año entra en juego la tercera pieza importante en la ecuación, que es Google.
Google lanzó Android XR y ahora está sacando su primer lente en colaboración con Samsung, entrando a competir con Meta y Apple. Ahora hay tres sistemas operativos tratando de establecerse, como lo que fue en su momento Android y iOS, Windows y Mac.
Los tres son: Google con Android XR, Meta con Horizon OS y Apple con Vision OS. Entonces, es como que estamos en el comienzo de una nueva generación.
Google Glass fue un fracaso hace más de 10 años. ¿Qué cambió para que Google vuelva a apostar por esta tecnología?
Es la primera vez que Google entra fuerte después de Google Glass.
Lo más controversial de Google Glass no era tener una pantalla. Era que todos tuvieran una cámara en sus ojos.
La conversación en ese momento era: "¿Cómo van a ir al cine con Google Glass? ¿Van a poder grabar la película? ¿Quién me está filmando y quién no?"
Esto fue hace 12 años, cuando arrancó esa conversación.
¿Para vos se adelantó demasiado a su tiempo?
La idea en sí, nadie la cuestionaba. Todo el mundo, en la época de Google Glass, incluso Google mismo, entendía que esto era un preview de cómo iba a ser inevitablemente en el futuro.
Yo lo probé en Google I/O, antes de entrar en la industria, y era un super tronco de cosas. Tenía un cristal chiquito, era como un prototipo de lo que podría llegar a ser.
Lo que pasa es que todavía no había una maduración, incluso de las aplicaciones. O sea, el mundo mobile estaba recién arrancando.
Esto era 2012. No existía ni Instagram todavía. Estábamos en el boom del mobile y apareció esto, que no era realidad mixta todavía, era más que nada una pantalla de Android flotando.
Ahora que la inteligencia artificial avanza tanto, ¿esto también está modificando la industria?
Nosotros, ahora, en TreeView, justo estamos entrenando un modelo de AI para reconocimiento de objetos.
Uno de los casos de uso más interesantes de Vision Pro para trabajo y enterprise es Guided Work. Todas las cosas que usás con Vision Pro te guían pero contextualmente.
Para eso, no alcanza con reconocer imágenes, hay que reconocer modelos de objetos.
¿Por ejemplo?
Por ejemplo, arreglar un auto. Abrís el capó y el sistema entiende todo lo que está pasando ahí adentro, y te dice exactamente qué hacer.
O, no sé, mirar a alguien que está limpiando y con Vision Pro te diga: "Hacé este recorrido por allá".
Es una capa de información adicional, de conocimiento sobre una actividad contextual. Ese es un use case que es de los más interesantes hoy en día.
¿La inteligencia artificial realmente está revolucionando el trabajo o todavía es limitada?
Hoy los modelos que tenemos son herramientas útiles, pero no lo suficientemente "wow". Chatbots que ayudan con código, ideas, tareas banales. Lo realmente disruptivo, y que todavía no vimos, son las aplicaciones indeterministas.
Hasta ahora, todas las apps son deterministas: alguien define cómo funcionan y las usás dentro de esos límites. Lo que se viene es un nuevo paradigma, donde en lugar de usar herramientas prediseñadas, el sistema generará herramientas específicas para vos.
¿Cuándo va a estar lista la realidad mixta para el usuario común?
Yo lo que había escrito en un blog post era que son generaciones de 15 años. La Mac en 1984, el iPhone en 2007 y el Vision Pro en 2024. Mi interpretación es que eso es la versión 1, como cuando nadie tenía un smartphone en 2007. El grueso de la gente lo va a tener en los últimos 5 años de esa generación. Si fuera ese el caso, en 2035 esto estaría en todos lados.
¿Y los lentes de contacto?
Es más difícil, pero podría ser. O sea, todo puede ser, la pregunta es cuándo.
20250318 TreeView. Lentes de realidad virtual (7).JPG
Foto: Inés Guimaraens
Después del lanzamiento del Vision Pro, muchos hablaron de fracaso. ¿Es un fracaso?
No. La adopción de esta tecnología va a ser más parecida a la computadora personal. La Mac 1 en 1984 fue un fracaso total. El iPhone fue distinto porque era una mezcla del iPod, que ya estaba maduro. Pero en este caso, la adopción de computación espacial va a ser más parecida a la computadora personal que a los smartphones.
La computadora personal tuvo una adopción en dos industrias que eran completamente opuestas: se usaba en oficinas y para jugar al Mario...
¿Qué querés decir?
Yo pienso que la adopción más fuerte ahora es en videojuegos, que va a competir con tener una Play.
O sea, tener un casco de estos cascos va a sustituir la PlayStation.
20250318 TreeView. Lentes de realidad virtual (4).JPG
Foto: Inés Guimaraens
Me pongo a pensar en alguien con lentes, y por más chicos que sean, es como que genera otra capa, otra barrera en el vínculo. ¿Cómo lo analizás desde ese punto de vista?
La visión de Meta es distinta. Ellos ven que no es que evoluciona la interacción humana, sino que evolucionan las otras formas en las que interactuamos. Es la mejor versión de WhatsApp, por ejemplo. Eso podría ser bastante impersonal, pero mejora esa forma de comunicación. No mejora esta dinámica de diálogo cara a cara.
Conectar gente no es el caso que más me entusiasma hoy. Yo creo que el caso de uso más high-value de la realidad mixta no es conectar a las personas.
¿Dónde ves el mayor impacto entonces?
Las empresas tienen millones de problemas, y muchas de esas empresas están en el mundo físico. Creo que esta tecnología puede solucionar muchos de esos problemas. Nosotros, en TreeView, estamos muy entusiasmados con eso, porque nuestro negocio es ayudar a esas empresas a solucionar problemas con realidad mixta.
¿Tampoco lo ves como un reemplazo de algo ya existente?
No, es una capa más. Esto (señala su celular) no reemplazó la PC. Cuando salió el iPad, la gente decía: "Me compré un iPad, no necesito más una computadora". Y al final el iPad es el del sillón. Este tipo de dispositivos sirven para otra cosa, complementan lo que ya existe.
20250318 TreeView. Lentes de realidad virtual (1).JPG
Foto: Inés Guimaraens
¿Y en cuanto a las aplicaciones en sí? Porque ha habido intentos de llevar apps del smartphone a los lentes, pero capaz que no se traduce bien. ¿Cómo lo ves a futuro?
No hay una traducción directa. No es que agarro esto y lo convierto o lo porto a los lentes. Es un paradigma de comunicación totalmente diferente. Es como tratar de traducir una foto a un texto. No podés convertir una foto en un libro o una película en una novela. Son medios completamente diferentes.
Y en ese sentido, ¿qué hace único a este medio?
Bueno, está el término de inmersión, pero inmersión no es algo exclusivo de este medio. Vos cuando ves una buena película, como El Padrino, estás totalmente metido en ese mundo, son dos horas en las que te olvidás de todo lo demás. Lo mismo cuando leés un buen libro y entrás en ese estado de flow. Este medio tiene inmersión, pero no es lo más importante. Lo más importante es lo que se llama "impersonation", que es la sensación de estar ahí. Es diferente de estar inmerso, porque en El Padrino vos podés empatizar con los personajes, pero no hay una relación directa entre ellos y vos. En cambio, en la realidad mixta, vos sos una entidad dentro de ese contexto.
Es un recurso literario, un recurso de animación, que permite abrir un abanico totalmente nuevo para contar historias, para el arte, para comunicar ideas. Es un nuevo medio dentro del arte, y me gustaría que haya más exploración artística en este espacio, que haya artistas que realmente usen este nuevo toolset. Es un color nuevo en la paleta del arte.
¿Cómo imaginás que va a ser la interacción con los lentes en el futuro? ¿Va a ser más hablado o más gestual?
Lo más poderoso no es la forma de interactuar en sí, sino lo que permite la tecnología. Después, si es un chip, si es un Matrix que se te clava a nivel neural, eso se va viendo. Es un detalle dentro de la idea más grande.
Hoy en día, se destaca cada vez más el gestual, y lo increíble de Apple es cómo logró que estos gestos sean tan naturales. Zoom, scroll, scale… todo eso no existía antes. El concepto de scroll viene de hacer esto con el papel, y ahora es algo obvio. Pero en su momento fue diseñado, no es algo innato a la humanidad.
Hoy en día, se están definiendo esos nuevos gestos para la realidad mixta, y uno de los más interesantes que trajo Apple es que el cursor ahora es la mirada.
¿Cómo sería eso?
Donde vos mirás es el punto de enfoque. No hay un cursor más real que la mirada humana. Literalmente, nuestro cursor existencial es donde miramos. Y Apple logró que eso sea el centro de interacción. Ahora, además, se incorpora el gesto, y eso es increíble.
¿Eso no existía antes de Vision Pro?
No, nadie había hecho eso antes. Antes de Vision Pro, lo más normal en la industria era otro tipo de interacciones. Y cuando lo probás, es completamente natural. Nosotros venimos haciendo esto hace casi 10 años, y es la primera vez que alguien se le ocurre hacer esto de una forma tan intuitiva.
¿Sentís que estamos en un momento clave para la industria?
Sí, se está construyendo la fundación de algo completamente nuevo. Es como con el mouse. Hoy en día es la cosa más obvia del mundo: hay algo en la pantalla, movés el mouse y clickeás. Pero en su momento, era una idea rarísima.
Viste la historia de Steve Jobs cuando fue al Xerox PARC, probó el mouse dos segundos y dijo: "Es esto". Bueno, esa sensación es la que tenemos hoy en la industria de realidad mixta. Es como que estamos en 1984, cuando los paradigmas de interacción todavía no están definidos, cuando todavía no está claro para qué se va a usar todo esto. Pero lo que hizo Apple con Vision Pro ya se va a estandarizar.
Y ustedes no solo son testigos de este cambio, sino que forman parte, ¿no?
Sí, aunque a veces somos una parte muy chiquita dentro de la gente que está explorando cómo hacer esto.