Six mois après son lancement, le Meta Ray-Ban Display commence à ressembler moins à une expérience, grâce à ce qui est sans doute la mise à jour la plus importante que Meta ait jamais proposée pour l'appareil.
La fonctionnalité phare est Neural Handwriting, qui est désormais disponible pour tous les propriétaires d'écran Ray-Ban, après avoir passé ses premiers mois en accès limité pour les utilisateurs de Messenger et WhatsApp.
Qu’est-ce que l’écriture neuronale ?
Pour ceux qui rattrapent leur retard, la fonctionnalité utilise le Neural Band, le bracelet sEMG Meta livré dans la boîte avec les lunettes à 799 €, pour détecter les mouvements subtils des doigts. Ensuite, il traduit ces mouvements en texte tapé sur une application.
Pour utiliser cette fonction, portez l'écran Ray-Ban et, tout en portant le Neural Band à votre poignet, bougez vos doigts comme si vous écriviez une lettre. Les lunettes peuvent convertir les mouvements de vos doigts (dans les airs) en un message dans WhatsApp, Messenger, Instagram ou dans l'application de messagerie native de votre téléphone.
La fonctionnalité fonctionne à la fois sur Android et iOS. Bien que cette fonctionnalité ouvre un nouveau cas d'utilisation pour le Ray-Ban Meta Display et qu'elle fasse sûrement la une des journaux, la mise à jour ouvre également l'appareil aux développeurs d'applications Web tiers pour la première fois..
Qu'est-ce que Meta a mis à jour d'autre ?
Pour moi, cela donne l’impression que Meta traite les lunettes comme une plate-forme, et pas seulement comme un produit vendu aux utilisateurs finaux.
Cela pourrait permettre aux développeurs de créer des assistants IA, des outils de productivité, des superpositions de navigation, des fonctionnalités d'accessibilité et des expériences contrôlées par les gestes qui pourraient étendre l'attrait de l'appareil au-delà de la messagerie et de la capture multimédia.
Au-delà de ces deux développements, Meta apporte également l'enregistrement d'affichage aux lunettes, un nouveau mode qui capture la sortie d'affichage de l'objectif, les images de la caméra et l'audio environnant dans un seul fichier vidéo.
Les itinéraires à pied couvrent désormais l'ensemble des États-Unis, ainsi que les grandes villes internationales comme Londres, Paris et Rome. La fonctionnalité de sous-titres en direct s'étend à WhatsAppMessageret les messages vocaux Instagram DM. De plus, Muse Spark AI arrive sur les lunettes cet été.






