Smart Glasses Daily

Analyses · · Français — auto

Vos prochaines lunettes ne feront pas que voir. Elles penseront.

La génération actuelle de lunettes connectées n'est guère plus qu'une caméra sur votre visage. Mais une nouvelle génération arrive, propulsée par des assistants IA toujours actifs qui transformeront l'optique d'un gadget passif en un copilote proactif pour votre vie.

M. BELL· American correspondant·18 avril 2026·5 min de lecture
Personne portant des lunettes connectées IA modernes au crépuscule avec une douce lueur cyan d'assistant IA réfléchie dans les lentilles

Personne portant des lunettes connectées IA modernes au crépuscule avec une douce lueur cyan d'assistant IA réfléchie dans les lentilles

Soyons honnêtes : les lunettes connectées d'aujourd'hui sont une astuce amusante, mais ce n'est pas une révolution. Les Meta Ray-Ban sont un triomphe du design industriel et les seules lunettes connectées que les gens portent réellement en public, mais elles sont fondamentalement réactives. Vous appuyez sur un bouton, vous prenez une photo. Vous donnez une commande, l'IA vous dit ce que vous regardez en un bref éclat de 30 secondes. C'est une évolution des lunettes équipées d'une caméra que des entreprises comme Pivothead et Epiphany construisaient il y a dix ans. Mais le véritable changement de paradigme ne consiste pas à améliorer la caméra ; il s'agit de rendre l'IA persistante. Le prochain chapitre des lunettes concerne un assistant toujours actif qui voit votre monde, le comprend et agit en conséquence sans sollicitation constante.

Meta jette déjà les bases de ce bond. Les fuites concernant ses lunettes de nouvelle génération, nommées Aperol et Bellini pour une sortie en 2026, indiquent une capacité appelée « super sensing ». Ce n'est pas une légère retouche ; c'est un changement fondamental dans la philosophie opérationnelle. Le plan est d'étendre la fonction « Live AI » d'une session fugace de 30 minutes à plusieurs heures de fonctionnement continu. Les implications sont profondes. Il ne s'agit pas seulement d'identifier un point de repère. Il s'agit de vos lunettes qui vous rappellent de prendre vos clés parce qu'elles vous *voient* vous diriger vers la porte, ou qui suggèrent des ingrédients pour le dîner basés sur un coup d'œil à votre calendrier et au contenu de votre réfrigérateur. C'est un passage d'une fonctionnalité de nouveauté à un véritable partenaire cognitif.

Ce n'est pas une fantaisie isolée de la Silicon Valley. Outre-Pacifique, Rokid, basée à Hangzhou, expédie sa propre réponse de 49 grammes aux Ray-Ban Meta, avec son propre assistant « Yunque AI » embarqué. Alors que les Rokid Glasses sont clairement un jeu de volume singeant une formule réussie, le casque plus avancé Rokid AR Spatial de l'entreprise prouve qu'ils ont les compétences techniques pour être pris au sérieux. Le message est clair : la course à l'intégration d'une IA pensante dans une paire de lunettes d'apparence normale est désormais mondiale. Le facteur de forme converge, mais la bataille pour l'IA dominante ne fait que commencer.

Simultanément, Apple développe la même capacité sous une bannière différente : l'accessibilité. La future fonction « Live Recognition » pour Vision Pro utilisera l'apprentissage automatique embarqué pour décrire l'environnement, identifier les objets et lire le texte pour les utilisateurs malvoyants. Ne vous méprenez pas, ce n'est pas une fonction de niche. Les technologies incubées dans le domaine de l'accessibilité — comme le contrôle vocal et les lecteurs d'écran — ont une longue histoire de généralisation. Apple teste en fait un assistant visuel puissant et toujours actif. Bien que le Vision Pro soit encore un casque encombrant, le « Vision Air » dont la sortie est prévue pour 2027 vise à réduire le poids et le prix, rapprochant ces capacités IA avancées d'un pas de géant d'un dispositif portable toute la journée.

Cette convergence matérielle inévitable provoque une guerre des plateformes. Alors que Meta et Apple construisent leurs jardins clos prévisibles, des startups comme Mentra parient sur un avenir open source. Née au MIT, Mentra propose une paire de lunettes conviviale pour les développeurs avec un OS ouvert, pariant que les assistants IA les plus innovants ne viendront pas d'un commandement central, mais d'une armée de développeurs indépendants. C'est la tension classique qui a défini les ères du bureau et du mobile qui se déroule maintenant sur nos visages. Votre copilote IA sera-t-il un employé d'Apple, ou un agent libre que vous choisirez vous-même ?

Sous-tendant tout cela, un changement silencieux et tectonique dans les normes techniques. L'adoption croissante de la norme OpenUSD — soutenue par tous, d'Apple et Pixar à Microsoft et Sony — crée le « HTML pour le métavers » que les futurologues ont longtemps promis. Lorsqu'un objet 3D possède une description universelle, la capacité d'un assistant IA à le reconnaître, le suivre et interagir avec lui — une fonction déjà présente dans visionOS 2 — devient exponentiellement plus puissante. Ce travail fondamental est crucial pour aller au-delà de la simple reconnaissance de texte vers une compréhension authentique du monde physique.

La route à venir est jonchée d'épaves. Meta réduit ses ambitions plus larges en matière de VR, et Snap licencie du personnel même s'il protège sa division de lunettes AR. Construire le matériel est toujours brutalement difficile et coûteux. Mais la direction du voyage est indéniable. Nous passons de la capture passive à l'assistance proactive. Le débat passera bientôt de la résolution de la caméra et de l'autonomie de la batterie à l'éthique de la fonction de reconnaissance faciale « explorée » de Meta. L'appareil sur votre visage est sur le point d'acquérir son propre esprit, et il changera la façon dont nous voyons le monde, et les uns les autres, pour toujours.

Partager cet article

L'Hebdo

Les lunettes connectées, dans votre boîte mail..

Un email court chaque vendredi matin. Pas de blabla. Désabonnement en un clic.

Nous ne partageons jamais votre email.

À lire aussi

Lunettes connectées minimalistes avec HUD uniquement, posées sur une surface en noyer foncé avec un subtil reflet HUD ambré.

Analysis ·

Le Retour Silencieux de la Lunette Connectée Simple

Alors que Meta et Apple courent après le dragon de l'informatique spatiale, une nouvelle catégorie de lunettes minimalistes, avec affichage tête haute uniquement (HUD), opère un retour discret. L'avenir des "wearables" pourrait être plus simple, moins cher et plus utile que ce que les géants de la technologie veulent n

M. BELL·5 min read

Apr 18, 2026

In the conversation

Most discussed

The pieces driving the loudest debates in spatial computing this week.

Picked for you

Just for you

A curated mix across reviews, news and analysis you might have missed.