Apple aurait accéléré le développement sur leur nouveau portable portable: des lunettes intelligentes propulsées par AI conçues pour rivaliser directement avec les rayons de rayons de Meta. Selon Bloomberg, la société basée à Cupertino vise un lancement de la fin de 2026 et a commencé à préparer des prototypes à grande échelle pour la production.
Ce nouveau rapport clarifie et met à jour les informations antérieures rapportées par notre publication, qui ont émis l'hypothèse qu'Apple ferait ses débuts à ses lunettes intelligentes aux côtés de puces personnalisées basées sur l'Apple Watch Architecture. À l'époque, des sources ont suggéré que la production de puces commencerait à l'été 2026. Cependant, Bloomberg confirme maintenant qu'Apple vise à commencer à produire des quantités importantes de lunettes intelligentes elles-mêmes – pas seulement leurs composants – d'ici la fin de 2025, signalant une chronologie plus agressive que prévu précédemment.
Bien que les lunettes AR futuristes d'Apple restent à des années, ce nouveau développement, nommé N401, apportera un contexte réel à Siri dans un facteur de forme plus élégant qu'un casque. Considérez-les comme «Vision Light»: lunettes intelligentes avec des caméras à bord, des haut-parleurs et des microphones capables de traduction en direct, de manipulation d'appels et de directions tournants. Les lunettes ne comporteront pas les affichages de réalité augmentés contrairement au casque Vision Pro. Au lieu de cela, ils s'appuient sur la rétroaction audio et vocale, ce qui est une décision délibérée pour réduire la complexité, le coût et le volume. Cela confirme des rapports antérieurs suggérant qu'Apple travaille à la fois sur un modèle AR et un modèle non AR, N401 représentant clairement ce dernier.
Les lunettes d'Apple font partie d'une stratégie plus large pour rester pertinente sur le marché en croissance rapide des appareils compatibles AI. Meta et Google sont déjà dans le même, et le partenariat matériel nouvellement annoncé d'Openai avec Jony Ive devrait renverser le domaine.
Il convient également de noter: ce dernier rapport ne fait aucune mention de puces spécialisées nommées dans la fuite antérieure, Glennie pour AirPods et Nevis pour Apple Watch, bien qu'il réitère qu'Apple est confronté à des défis concernant l'intégration des données de caméra et de capteurs dans un cadre léger. Le concept de traitement de déchargement sur l'iPhone, également mentionné dans les rapports antérieurs, est toujours pertinent alors qu'Apple continue de lutter avec l'équilibrage des performances et de l'efficacité énergétique.
Qu'en est-il des autres expériences portables d'Apple?
Toutes les idées ne font pas la coupe. Apple aurait mis de côté le développement d'une smartwatch avec une caméra intégrée et des capacités d'analyse du monde réel. Cet appareil était destiné à apporter des fonctionnalités de détection environnementale au poignet, mais a été abandonné en raison d'obstacles techniques et de problèmes de confidentialité.
En interne, le projet Smart Glasses serait confronté à certaines des mêmes limitations d'IA avec laquelle l'Aple a du mal à avoir ailleurs. Alors que les rayons Ray-Bans de Meta bénéficient de Llama et que les lunettes Android XR s'appuient sur les Gémeaux de Google, Apple s'est jusqu'à présent appuyé sur une IA tiers comme Openai ou Google Lens pour une compréhension visuelle sur l'iPhone. Les analystes s'attendent à ce qu'Apple lance bientôt ses propres modèles propriétaires, potentiellement aux côtés des nouvelles lunettes intelligentes.
Si tout se passe comme prévu, les lunettes AI d'Apple serviront de première véritable incursion de l'entreprise dans les appareils portables IA-First et promet de redéfinir la façon dont nous interagissons avec la vie quotidienne. Il reste à voir si cela peut battre Meta dans son propre jeu, mais Apple ne se contente pas de s'asseoir sur la touche.








