Lors d'une récente conférence TED, les lunettes intelligentes XR passionnantes de Google ont été démontrées au public pour la toute première fois. Bien que nous ayons déjà vu les lunettes intelligentes, elle a toujours été dans des vidéos très polies présentant le projet Astra, où nous n'avons jamais une vraie idée des fonctionnalités et des fonctionnalités dans le monde réel. Tout ce qui a maintenant changé, et notre premier aperçu de l'avenir est très excitant. Cependant, avenir est vraiment le mot opératoire.
La démonstration de ce que les lunettes intelligentes peuvent faire occupe la majorité de la présentation de 16 minutes, qui est introduite par le vice-président de Google de la réalité augmentée et étendue Shahram Izadi. Il commence avec quelques antécédents sur le projet, qui dispose d'Android XR en son centre, le système d'exploitation que Google construit avec Samsung. Il amène Google Gemini au matériel XR tel que les casques, les lunettes intelligentes et les «facteurs de forme dont nous n'avons même pas encore rêvé».
Une paire de lunettes intelligentes est utilisée pour la démonstration. La conception est audacieuse, en ce sens que les cadres sont noirs et «lourds», un peu comme les méta-lunettes Smart-Ban Ray-Ban. Ils présentent une caméra, un haut-parleur et un microphone pour que l'IA puisse voir et entendre ce qui se passe autour de vous, et grâce à un lien avec votre téléphone, vous pourrez passer et recevoir des appels. Où ils se séparent de Ray-Ban Meta est avec l'ajout d'un petit affichage dans les couleurs de couleur.
Casque et lunettes
Ce qui fait que les lunettes intelligentes Android XR se démarquent initialement dans la démo, c'est la capacité de Gemini à se rappeler ce qu'elle a «vu», et il se souvient correctement du titre d'un livre que le porteur a jeté un coup d'œil, et a même noté où une carte-clé d'hôtel avait été laissée. Cette mémoire à court terme a un large éventail d'utilisations, non seulement en tant que jogger de mémoire, mais comme un moyen de confirmer les détails et de mieux organiser le temps également.
La vision de l'IA est également utilisée pour expliquer un diagramme dans un livre et traduire le texte en différentes langues. Il traduit également directement les langues parlées en temps réel. L'écran est mis en action lorsque Gemini est invité à naviguer vers un lieu de beauté local, où les instructions sont affichées sur l'objectif. Gemini réagit rapidement à ses instructions, et tout semble fonctionner de manière transparente pendant la démonstration en direct.


Après les lunettes intelligentes, Android XR est ensuite affiché fonctionnant sur un casque complet. L'expérience visuelle se souvient de celle du casque Vision Pro d'Apple, avec plusieurs fenêtres montrées devant le porteur et des tons de pincement utilisés pour contrôler ce qui se passe. Cependant, Gemini a été la clé pour utiliser le casque Android XR, la démonstration montrant la capacité de l'IA à décrire et à expliquer ce qui est vu ou montré de manière très conversationnelle.
Quand pouvons-nous l'acheter?


Izadi a clôturé la présentation en disant: «Nous entrons dans une nouvelle phase passionnante de la révolution informatique. Les casques et les lunettes ne sont que le début. Tout cela indique une seule vision du futur, un monde où une IA utile convergera avec des informations XR. Augmenter notre réalité, mais plutôt augmenter notre intelligence. »
C'est des trucs alléchants, et pour tous ceux qui ont vu le potentiel dans Google Glass et ont déjà apprécié Ray-Ban Meta, les lunettes intelligentes en particulier semblent certainement être la prochaine étape souhaitable dans l'évolution des lunettes intelligentes de tous les jours. Cependant, l'accent devrait être mis sur l'avenir, car même si les lunettes semblaient presque prêtes à être publiées, ce n'est peut-être pas du tout le cas, car Google poursuit la taquinerie apparemment sans fin de ses lunettes intelligentes.
Izadi n'a pas parlé d'une date de sortie pour l'un ou l'autre appareil XR pendant le TED Talk, ce qui n'est pas bon signe, alors quand sont-ils susceptibles d'être de vrais produits que nous pouvons acheter? Les lunettes intelligentes démontrées seraient une autre collaboration entre Google et Samsung – le casque est également réalisé par Samsung – et ne devrait pas être lancé avant 2026, selon un rapport du Corean Economic Daily, qui étend la date de lancement possible au-delà de la fin de 2025 comme précédemment. Bien que cela puisse sembler long, il est en fait plus proche du temps que la version consommatrice de Meta's Orion Smart Glasses, qui ne devraient pas frapper les magasins avant la fin de 2027.
Arrivera-t-il trop tard?


Compte tenu des lunettes intelligentes montrées lors de la conférence TED semblent réunir des aspects du verre, des méta-ray-ban et des lunettes intelligentes telles que celles de Halliday, ainsi que l'assistant Google Gemini que nous utilisons déjà sur nos téléphones et nos ordinateurs maintenant, la longue attente continue est surprenante et frustrante.
Pire, la surcharge de matériel utilisant l'IA, ainsi que les nombreuses méta-copies et alternatives Ray-Ban attendues d'ici la fin de 2026 signifie que les efforts de Google et Samsung risquent de devenir de vieilles nouvelles, ou finalement de publier à un public incroyablement blasé. Le casque Android XR, connu sous le nom de Project Moohan, devrait être lancé en 2025.
Peut-être que nous sommes juste impatients, mais quand nous voyons une démo avec un produit qui a l'air si définitif et alléchant, il est difficile de ne pas le vouloir entre nos mains (ou sur nos visages) plus tôt que quelque temps l'année prochaine.