Longtemps silencieux, Google revient sur le terrain des lunettes connectées. Véritable pionnier du concept avec ses Google Glass lancées en avril 2012 mais dont la commercialisation a été stoppée au grand public seulement trois ans plus tard, le géant d’Internet avait sans doute eu raison trop tôt. Cette fois, sans ironie ni esprit de revanche, Google revient avec recul et méthode. Bien décidé à ne pas rater le coche. À ses côtés : Samsung pour le matériel, des marques de mode pour le visage, et l’intelligence artificielle comme colonne vertébrale.
Objectif assumé : reprendre l’initiative face à Meta, aujourd’hui seul à occuper le marché grand public avec ses Ray-Ban connectées, et s’imposer avant l’arrivée annoncée d’Apple, attendue autour de 2026. Le calendrier est donc désormais public. Les premières lunettes Google-Samsung doivent arriver l’an prochain.
Deux paires de lunettes, deux usages bien distincts
La stratégie repose sur une séparation claire. D’un côté, des lunettes sans écran. Aucun affichage, aucune interface graphique. Juste des micros, des haut-parleurs, des caméras et l’IA Gemini en continu. On parle, les lunettes répondent. Assistance contextuelle, prise de photos, reconnaissance visuelle, aide ponctuelle. Une logique proche de celle qui a fait le succès des Ray-Ban Meta, mais intégrée directement dans l’écosystème Android.
De l’autre, un modèle plus ambitieux : un affichage intégré dans les verres. Discret, individuel, pensé pour ne pas rompre avec le réel. Navigation pas à pas, sous-titres en traduction simultanée, informations contextuelles visibles seulement par le porteur. Google parle d’un affichage « privé », presque intime. Les deux approches cohabiteront. Pas de produit unique, pas de lunettes universelles. Le postulat est simple : les usages diffèrent, les visages aussi.
Des expériences interactives et instantanées
Chez Google, le matériel n’est jamais une fin en soi. Android XR concentre l’essentiel de la bataille. Pensé comme une plateforme transverse, ce système d’exploitation doit faire tourner casques et lunettes, du plus immersif au plus discret. Google veut éviter l’erreur du passé avec des appareils séduisants mais orphelins d’applications.
Début décembre, Mountain View a donc ouvert davantage les vannes. La Developer Preview 3 du SDK Android XR est disponible. Les développeurs peuvent désormais concevoir des expériences pensées spécifiquement pour les lunettes : vision contextuelle, interaction vocale, reconnaissance d’environnement, traduction instantanée. Avec pour message limpide : la prochaine interface informatique ne sera ni l’écran, ni le clavier.
Le design enfin pris au sérieux
Les Google Glass premières du nom avaient également échoué pour une autre raison simple : personne ne voulait les porter... Cette fois-ci, Google délègue avec Gentle Monster pour le design haut de gamme et Warby Parker pour une approche plus accessible. Deux signatures, deux publics, mais une même obsession : faire oublier la technologie. Ces lunettes devraient être légères (moins de 50 grammes selon les premières indications), portables toute la journée, compatibles avec des verres correcteurs et assez ordinaires pour passer inaperçues. Tout sauf un détail. C’était même l'une des conditions de leur diffusion.
Chez Samsung, le mouvement est progressif. Le groupe a commencé par le massif avec un casque Galaxy XR, lancé fin 2025 à près de 1 800 dollars. Un produit de démonstration technologique plus que de masse. Les lunettes arrivent ensuite : plus complexes à miniaturiser, mais infiniment plus prometteuses. Et Samsung l’assume : le casque est l’étape immersive, les lunettes seront l’objet du quotidien. Le partenariat avec Google permet aussi de mutualiser un écosystème logiciel, là où Meta reste largement fermé.
Un marché potentiel à plusieurs milliards de dollars
Avec ce double mouvement - Google d’un côté, Apple en embuscade - Meta perd son statut de pionnier solitaire. Les lunettes connectées passent d’un marché expérimental à un champ de bataille stratégique. Les chiffres confirment l’enjeu : le marché de la réalité étendue est attendu à plusieurs dizaines de milliards de dollars d’ici 2030.
Mais au-delà des volumes, c’est la maîtrise de l’interface du quotidien qui se joue : voir, entendre, comprendre le monde à travers une couche algorithmique.