Ultimas Noticias

Google quiere replicar en sus gafas con IA el éxito de Android en móviles. A diferencia de Glass en 2013, ahora sí tiene sentido

En 2013, Google Glass prometía revolucionar nuestro día a día con unas gafas inteligentes que nos darían información en tiempo real. Sin embargo, el proyecto se topó con múltiples obstáculos que lo llevaron al fracaso comercial. Ahora, más de una década después, Google vuelve a apostar por una propuesta similar, pero esta vez las cartas sobre la mesa son completamente diferentes por dos razones: Android XR y Gemini.

«Si vuelves atrás y miras el vídeo original del lanzamiento de Google Glass, creo que la visión era genial. Esta idea de un producto que puedes llevar puesto y que te da la información correcta en el momento adecuado era increíble. Es solo que la tecnología no estaba del todo preparada», reconoce Juston Payne, director de gestión de producto en Google, quien nos pudo conceder una entrevista durante el Google I/O en las oficinas de Googleplex en Mountain View, California.

La ecuación que faltaba en Glass

El Google I/O nos ha dejado con grandes novedades en torno a los productos y ecosistema de la compañía. Casi que de la noche a la mañana, Google nos bombardeaba con un aluvión de funciones y productos orientados a su ecosistema Android al que Gemini ha abrazado fuertemente. Entre algunos de los aspectos más destacados pudimos probar el nuevo AI Mode que sustituye a las búsquedas tradicionales de Google junto a Search Live, Flow con los nuevos modelos Imagen 4 y Veo 3, y hasta los nuevos dispositivos de realidad mixta con Android XR como Project Moohan y sus gafas con Gemini.

Payne nos ha brindado más contexto acerca de los planes que tiene la compañía para el nuevo ecosistema que están desarrollando con Android XR, que ya toma prestado todo el trabajo que había detrás en Android para móviles. El ejecutivo identifica tres elementos clave que no estaban presentes en la época de Google Glass y que ahora sí existen: la inteligencia artificial, un ecosistema de aplicaciones robusto y hardware verdaderamente usable.

Gafas 1

Imagen | Xataka

«Una cosa que no existía era la IA. Hacer que esas experiencias fueran realidad requería algunos avances fundamentales en inteligencia artificial que simplemente no habían ocurrido todavía. Gemini está aquí ahora», explica Payne.

El segundo factor es el ecosistema de aplicaciones. Mientras que para Glass los desarrolladores tenían que construir aplicaciones específicas en un entorno de desarrollo especial, Android XR toma un enfoque radicalmente diferente. «Estamos construyendo una plataforma. Trabajamos con el ecosistema. Incluimos a todos los desarrolladores de Android. Ahora, en lugar de que los desarrolladores tengan que crear una nueva aplicación, la app simplemente funciona», destaca Payne.

Gafas 3

Imagen | Xataka

Esta aproximación significa que todas las aplicaciones de Android funcionarán en Android XR, desde móviles hasta gafas y dispositivos de realidad virtual, eliminando la barrera de entrada que existía anteriormente. Con esto, Google quiere dejar atrás ese problema de fragmentación que ha ido lastrando a Android durante años, ofreciendo compatibilidad universal, herramientas unificadas de desarrollo y el uso de estándares abiertos como WebXR, OpenXR y Vulkan para ampliar su ecosistema.

Gemini como intermediario entre el software y nosotros

Gafas 4

Interfaz que plantea Google para Android XR en Project Moohan | Imagen: Google

«Pensamos que Gemini es para XR lo que la pantalla táctil fue para los smartphones», afirma Payne, estableciendo un paralelismo con el iPhone de 2007 que cambió para siempre la industria móvil.

Según expuso Payne durante la entrevista, la visión de Google para sus gafas inteligentes es crear «una interfaz conversacional natural que entienda qué es importante para ti y te dé la información correcta en el momento adecuado». Las gafas, equipadas con cámaras y micrófonos, pueden alimentar a Gemini con información del mundo real, mientras que la conexión con el teléfono les da acceso al mundo digital del usuario.

Gafas 2

Prueba de traducción en tiempo real con Gemini en las gafas | Imagen: Google

Gafas que la gente realmente quieras llevar

El tercer pilar es el hardware. Google ha realizado inversiones significativas en tecnología de pantallas, como la adquisición de Raxium, que fabrica pantallas micro LED RGB monolíticas «diminutas y eficientes energéticamente», según contaba el directivo. La compañía también parece considerar igual de importante la colaboración con marcas de moda como Warby Parker y Gentle Monster para crear «gafas realmente elegantes, gafas que la gente realmente quiera llevar».

«Lo que aprendimos es que la gente realmente necesita sentir que lleva gafas normales para poder usarlas todo el tiempo», reconoce Payne sobre las lecciones aprendidas de Glass. Y es que a ver, la propuesta que Google ofreció en 2013 con Glass molaba bastante, pero para ganarte al público masivo, quizás optar por un enfoque más mainstream en diseño sea más adecuado. Prueba de ello es el éxito irrefutable de las Ray-Ban Meta no como producto, que también, sino como formato.

Privacidad de la mano de lo que conocemos en Android

Gafas 5

Project Moohan | Imagen: Xataka

Consciente de las preocupaciones sobre privacidad que genera un dispositivo de grabación continua, Payne también nos contaba más acerca del enfoque que Google está adoptando en materia de privacidad y seguridad. Por una parte, la idea es que el dispositivo ofrezca interruptores y marcadores clave para saber cuándo el usuario está grabando, activando su ubicación o enviando su información a sus servidores. «La privacidad acaba siendo la base de cualquier cosa que desarrollemos en torno al ecosistema», subraya Payne.

En el prototipo actual no podemos hablar de que se hayan aplicado estas medidas aún porque no están a la venta al público todavía y todo indica que la compañía aún tiene un largo recorrido por delante antes de comercializar sus gafas. Eso sí, Payne nos ha podido adelantar que la idea es aplicar el framework de permisos ya familiar de Android relacionados con la privacidad, junto a esa serie de interruptores y mecanismos incorporados en el hardware para proteger al usuario. Está claro que tener unas gafas conectadas constantemente y que ven todo lo que tus ojos ven deben aterrizar con un enfoque crucial y determinante en este aspecto.

La explosión con la IA puede ser el momento idóneo para impulsar esta tecnología

Como hemos visto, para que Android XR deje de ser un nicho y se convierta en un producto mainstream, Payne identifica la confluencia de tres factores: aplicaciones abundantes y útiles, diversidad de dispositivos para diferentes necesidades, y una interfaz potente alimentada por IA.

«Nadie está por ahí diciendo: ‘¿Sabes qué quiero hacer? Quiero ponerme un casco. Quiero ponerme gafas inteligentes. No sé qué hacen, pero solo quiero ponérmelas'», bromea el directivo sobre la importancia de ofrecer valor real al usuario.

Con colaboradores y partners ya establecidos con Samsung para Project Moohan (el casco de realidad virtual que llegará este año) y XReal para dispositivos más ligeros, Google parece haber aprendido las lecciones del pasado. La pregunta ya no es si la tecnología está lista, sino si el resto de consumidores estamos preparados para que este tipo de dispositivos acaben asentándose de tal manera como los smartphones hoy día. El tiempo dirá si Google acaba acertando con la fórmula.

Imagen de portada | Xataka

En Xataka | He generado este vídeo en menos de un minuto y desde el móvil: así funciona Veo 2 en la app de Gemini

source

Mostrar más
Botón volver arriba