L'écran Ray-Ban de Meta saisit désormais les messages issus des mouvements de vos doigts

L'écran Ray-Ban de Meta saisit désormais les messages issus des mouvements de vos doigts

Six mois après son lancement, le Meta Ray-Ban Display commence à ressembler moins à une expérience, grâce à ce qui est sans doute la mise à jour la plus importante que Meta ait jamais proposée pour l'appareil.

La fonctionnalité phare est Neural Handwriting, qui est désormais disponible pour tous les propriétaires d'écran Ray-Ban, après avoir passé ses premiers mois en accès limité pour les utilisateurs de Messenger et WhatsApp.

Pour une mise à niveau de puissance de vos lunettes IA, ne cherchez pas plus loin que les lunettes Ray-Ban Meta Display et le Meta Neural Band, parfaits pour les créateurs, les connecteurs et les professionnels de la productivité. https://t.co/TAfNlHyOhG pic.twitter.com/8Zl0Sk957l

– Salle de presse Meta (@MetaNewsroom) 15 mai 2026

Qu’est-ce que l’écriture neuronale ?

Pour ceux qui rattrapent leur retard, la fonctionnalité utilise le Neural Band, le bracelet sEMG Meta livré dans la boîte avec les lunettes à 799 €, pour détecter les mouvements subtils des doigts. Ensuite, il traduit ces mouvements en texte tapé sur une application.

Pour utiliser cette fonction, portez l'écran Ray-Ban et, tout en portant le Neural Band à votre poignet, bougez vos doigts comme si vous écriviez une lettre. Les lunettes peuvent convertir les mouvements de vos doigts (dans les airs) en un message dans WhatsApp, Messenger, Instagram ou dans l'application de messagerie native de votre téléphone.

La fonctionnalité fonctionne à la fois sur Android et iOS. Bien que cette fonctionnalité ouvre un nouveau cas d'utilisation pour le Ray-Ban Meta Display et qu'elle fasse sûrement la une des journaux, la mise à jour ouvre également l'appareil aux développeurs d'applications Web tiers pour la première fois..

Qu'est-ce que Meta a mis à jour d'autre ?

Pour moi, cela donne l’impression que Meta traite les lunettes comme une plate-forme, et pas seulement comme un produit vendu aux utilisateurs finaux.

Cela pourrait permettre aux développeurs de créer des assistants IA, des outils de productivité, des superpositions de navigation, des fonctionnalités d'accessibilité et des expériences contrôlées par les gestes qui pourraient étendre l'attrait de l'appareil au-delà de la messagerie et de la capture multimédia.

Au-delà de ces deux développements, Meta apporte également l'enregistrement d'affichage aux lunettes, un nouveau mode qui capture la sortie d'affichage de l'objectif, les images de la caméra et l'audio environnant dans un seul fichier vidéo.

Les itinéraires à pied couvrent désormais l'ensemble des États-Unis, ainsi que les grandes villes internationales comme Londres, Paris et Rome. La fonctionnalité de sous-titres en direct s'étend à WhatsAppMessageret les messages vocaux Instagram DM. De plus, Muse Spark AI arrive sur les lunettes cet été.

Rate this post
Total
0
Shares
Previous Post
Gemini Intelligence a des exigences strictes et votre téléphone peut ne pas être éligible

Le Rambler de Google pourrait transformer la saisie vocale en quelque chose que je ne déteste pas

Related Posts