Quid des gens qui filment les gens dans le metro parisien. visibles (entr'autre sur) sur instagram #lesgensdanslemetro
Discussion :
Quid des gens qui filment les gens dans le metro parisien. visibles (entr'autre sur) sur instagram #lesgensdanslemetro
L'application Nearby Glasses vous avertit si quelqu'un porte des lunettes intelligentes à proximité, en identifiant le signal Bluetooth unique des Ray-Bans de Meta et d'autres
Un développeur amateur a créé une application capable de vous avertir si quelqu'un à proximité porte des lunettes intelligentes. L'application peut détecter les lunettes intelligentes en captant les signatures Bluetooth distinctes qu'elles envoient. Baptisée Nearby Glasses, l'application est actuellement disponible sur le Google Play Store.
Les lunettes intelligentes de Meta ont été l'un des rares succès du géant des médias sociaux dans le domaine du matériel informatique. Et il ne faudra pas attendre longtemps avant de voir apparaître des offres de Google, Samsung, Apple, etc. Si les lunettes intelligentes peuvent offrir des expériences intéressantes, elles présentent également un aspect plus sombre que l'on ne peut ignorer. Meta avait notamment suscité des craintes en matière de protection de la vie privée après la sortie de ces lunettes intelligentes.
Un cas récent a notamment confirmé ces craintes. Un homme a utilisé des lunettes intelligentes pour enregistrer illégalement des rapports sexuels. Le voyeur échappe à la prison après avoir envoyé à la femme des vidéos qu'il avait secrètement filmées lors d'une relation intime. Il a plaidé coupable de voyeurisme (enregistrement d'un acte privé sans le consentement de la victime) devant le tribunal de première instance de Warrington, et a été condamné à une amende de 1070 $, à une surcharge de 420 $ et à 115 $ de frais de justice.
Si vous vous méfiez du danger que représentent les lunettes intelligentes ou si vous souhaitez simplement éviter les personnes qui les portent, vous serez peut-être intéressé par une nouvelle application Android. Comme le rapporte 404 Media, le développeur amateur et sociologue Yves Jeanrenaud a créé une application Android appelée Nearby Glasses. Disponible sur le Google Play Store et GitHub, l'application est capable de vous envoyer une alerte lorsqu'elle détecte des lunettes intelligentes à proximité. Pour ce faire, elle recherche les signatures Bluetooth distinctives émises par ces appareils.
Plus précisément, l'application recherche les « trames publicitaires » Bluetooth, qui sont de petits éléments de données que les appareils Bluetooth diffusent régulièrement. Pour cette application, Jeanrenaud aurait référencé un répertoire de fabricants d'appareils Bluetooth Low Energy (BLE) afin que l'application recherche spécifiquement les trames publicitaires de Meta. Elle recherche également Luxottica Group S.p.A., qui non seulement propose ses propres lunettes intelligentes, mais s'associe également à Meta et Snap pour leurs lunettes intelligentes. "S'il voit une monture publicitaire de ces fabricants, il vous en informe. C'est à peu près tout", a déclaré Jeanrenaud au média.
Depuis que les lunettes intelligentes ont fait leur apparition, un certain nombre de rapports troublants ont été publiés sur la manière dont cette technologie est et peut être utilisée à mauvais escient. Par exemple, vous avez peut-être entendu dire récemment que Meta prévoit d'intégrer la reconnaissance faciale dans ses lunettes intelligentes cette année. Cela pourrait être un cauchemar pour la vie privée, comme l'ont montré deux étudiants en 2024 qui ont pu obtenir des informations personnelles telles que des noms, des numéros de téléphone, des adresses et des membres de la famille après avoir ajouté la reconnaissance faciale à leurs lunettes intelligentes. Sans compter que les lunettes intelligentes pourraient être utilisées pour renforcer la traque et le harcèlement.
Le débat ne porte plus seulement sur la protection des données personnelles au sens classique, mais sur une transformation profonde de l’espace public, où l’acte de filmer peut devenir invisible, permanent et difficilement détectable. Ce qui distingue fondamentalement ces lunettes des smartphones, c’est leur opacité fonctionnelle. Là où un téléphone tenu à bout de bras signale clairement une intention de filmer, les lunettes connectées brouillent ce signal social. Le simple fait de regarder quelqu’un peut désormais s’accompagner d’un enregistrement audio ou vidéo, sans geste explicite, sans écran visible, sans alerte évidente pour la personne filmée.
En outre, malgré l'ajout d'un voyant « de protection de la vie privée » par Meta, une modification permet de supprimer ce voyant d'avertissement. L' « amateur » qui modifie les lunettes intelligentes de Meta les vend à un prix modique (60 dollars) aux acheteurs intéressés. Il commercialise les lunettes Meta modifiées sur sa chaîne YouTube et semble les vendre sur eBay. Pourtant, ce voyant est censé s'allumer chaque fois que l'utilisateur enregistre, alertant ainsi les autres personnes de ce qui se passe.
Lorsqu'on lui a demandé pourquoi il avait créé cette application, Jeanrenaud a répondu : « Je considère que c'est une petite partie de la résistance contre les technologies de surveillance ». Il prévient également qu'il ne veut pas que « les gens se sentent faussement en sécurité » lorsqu'ils utilisent son application, car elle n'est pas parfaite. Par exemple, l'application peut générer des faux positifs lorsqu'elle est utilisée avec d'autres appareils qui émettent ces signaux Bluetooth, comme le casque VR Meta Quest 2.
Voici un extrait de la présentation de l'application :
Nearby Glasses
Cette application vous avertit lorsque des lunettes intelligentes se trouvent à proximité. Elle utilise des identificateurs d'entreprise dans les données Bluetooth envoyées par ces lunettes. Il est donc probable qu'il y ait des faux positifs (par exemple, des casques VR). Par conséquent, soyez prudent lorsque vous vous approchez d'une personne portant des lunettes. Il peut s'agir de lunettes ordinaires, malgré l'avertissement de l'application.
L'auteur de l'application, Yves Jeanrenaud, n'est pas responsable de cette application ni de ses fonctionnalités. Utilisez-la à vos risques et périls. Par conception technique, la détection des appareils Bluetooth LE peut parfois ne pas fonctionner comme prévu. Je ne suis pas un développeur diplômé. Tout ceci a été écrit pendant mon temps libre et avec des connaissances que j'ai apprises moi-même.
Les faux positifs sont probables. Cela signifie que l'application Nearby Glasses peut vous signaler la présence de lunettes intelligentes à proximité alors qu'il s'agit en fait d'un casque VR du même fabricant ou d'un autre produit de la même gamme. Il se peut également qu'elle ne détecte pas de lunettes intelligentes à proximité. Encore une fois, je ne suis pas un développeur professionnel : Je ne suis pas un développeur professionnel.
Cependant, cette application est gratuite et son code source est disponible (bien qu'il ne soit pas considéré comme fossile en raison de la restriction non commerciale), vous pouvez examiner le code, le modifier et le réutiliser (dans le cadre de la licence).
L'application Nearby Glasses ne stocke aucune information sur vous et ne collecte aucune information sur vous ou votre téléphone. Il n'y a pas de télémétrie, pas de publicité et aucune autre nuisance. Si vous installez l'application via Play Store, il se peut que Google ait des informations sur vous et recueille des statistiques. Mais l'application elle-même ne le fait pas.
Si vous choisissez de stocker (exporter) le fichier journal, cela dépend entièrement de vous et de votre responsabilité quant à la destination de ces données. Les journaux ne sont enregistrés que localement et ne sont pas automatiquement partagés avec qui que ce soit. Ils contiennent peu de données sensibles ; en fait, seuls les codes d'identification du fabricant des appareils BLE rencontrés.
À utiliser avec une extrême prudence ! Comme indiqué précédemment : Il n'y a aucune garantie que les lunettes intelligentes détectées se trouvent réellement à proximité. Il peut s'agir d'un autre appareil ressemblant techniquement (au niveau BLE adv) à des lunettes intelligentes.
N'agissez pas de manière irréfléchie. Réfléchissez avant d'agir sur la base de n'importe quel message (pas seulement de cette application).
Pourquoi ?
- Parce que je considère les lunettes intelligentes comme une intrusion intolérable, une négligence du consentement, une technologie horrible qui est déjà utilisée pour produire des tonnes et des tonnes de « contenu » tout aussi dégoûtant.
- Certaines lunettes intelligentes sont dotées d'une petite LED indiquant qu'un enregistrement est en cours. Mais cela peut être facilement désactivé, tandis que les fabricants prétendent empêcher cela et n'assument aucune responsabilité (la technologie a tendance à faire cela depuis des décennies maintenant).
- Les lunettes intelligentes ont déjà été utilisées pour la reconnaissance faciale instantanée et le seront apparemment dès la sortie de la boîte. Cela met beaucoup de gens en danger.
- J'espère que cette application sera utile à quelqu'un.
Comment ?
- Il s'agit d'une approche simple et plutôt heuristique. Parce que BLE utilise des MAC aléatoires et que l'OSSID n'est pas stable, pas plus que l'UUID des annonces de service, vous ne pouvez pas simplement scanner les balises Bluetooth. Et, pour rendre les choses encore plus désastreuses, certains comme Meta, par exemple, utilisent des services Bluetooth propriétaires et les UUID ne sont pas persistants, nous ne pouvons nous fier qu'aux noms des appareils communiqués pour l'instant.
- L'approche la plus viable actuellement provient du repo des numéros attribués par le Bluetooth SIG. Le nom du fabricant apparaît alors sous forme de codes numériques dans l'en-tête publicitaire (ADV) des balises BLE.
- Voici à quoi ressemblent les trames publicitaires BLE :
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18Frame 1: Advertising (ADV_IND) Time: 0.591232 s Address: C4:7C:8D:1E:2B:3F (Random Static) RSSI: -58 dBm Flags: 02 01 06 Flags: LE General Discoverable Mode, BR/EDR Not Supported Manufacturer Specific Data: Length: 0x1A Type: Manufacturer Specific Data (0xFF) Company ID: 0x058E (Meta Platforms Technologies, LLC) Data: 4D 45 54 41 5F 52 42 5F 47 4C 41 53 53 Service UUIDs: Complete List of 16-bit Service UUIDs 0xFEAA
- Selon le répertoire des numéros attribués par le Bluetooth SIG, nous pouvons utiliser les identifiants suivants :
0x01AB pour Meta Platforms, Inc. (anciennement Facebook).
0x058E pour Meta Platforms Technologies, LLC.
0x0D53 pour Luxottica Group S.p.A (qui fabrique les Meta Ray-Bans).
0x03C2 pour Snapchat, Inc. qui fabrique les SNAP Spectacles.
Ils sont immuables et obligatoires. Bien sûr, Meta et d'autres fabricants ont également d'autres produits qui sont équipés de Bluetooth et donc de leur code d'identification, par exemple les casques VR. Par conséquent, l'utilisation de ces codes d'identification d'entreprise pour le processus de balayage de l'application est sujette à des faux positifs. Mais si vous ne voyez personne portant un Occulus Rift autour de vous et qu'il n'y a pas de bâtiment où il pourrait se cacher, il y a de bonnes chances qu'il s'agisse plutôt de lunettes intelligentes.
- Lors de l'appairage, les lunettes intelligentes émettent généralement le nom de leur produit. Mais il est rare que cela se produise sur le terrain. Les personnes qui ont l'intention d'utiliser des lunettes intelligentes dans des bars, des pubs, dans la rue et ailleurs s'y préparent généralement à l'avance.
- Lorsque l'application reconnaît un appareil Bluetooth Low Energy (BLE) avec une force de signal suffisante (voir RSI ci-dessous), elle envoie un message d'alerte. Cela vous aidera à agir en conséquence.
Sources : Obtenir l'application Nearby Glasses (GitHub, Google Play Store)
Et vous ?
Pensez-vous que cette application est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Meta transforme ses lunettes connectées Ray-Ban en machine de surveillance pour l'IA. L'IA de Meta est désormais en permanence à l'affût, pour permettre à l'entreprise de collecter davantage de données
Google prévoit de lancer en 2026 ses premières lunettes équipées de l'IA Gemini, basées sur Android XR, afin de concurrencer Meta sur un marché en pleine expansion pour les appareils dotés d'IA
Les gens veulent-ils réellement des lunettes connectées dotées d'IA ? Malgré leurs capacités innovantes, les risques d'abus et les craintes pour la vie privée sont des obstacles potentiels à leur adoption
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Lunettes Ray-Ban Meta : une infrastructure de surveillance de masse portée par sept millions de personnes,
des sous-traitants ont accès aux images et Meta prépare la reconnaissance faciale en temps réel pour identifier les passants dans la rue
Sept millions de paires vendues en 2025, une LED quasi invisible, des employés sous-traitants qui visionnent vos images en temps réel et un projet de reconnaissance faciale baptisé « Name Tag » : les lunettes connectées de Meta cristallisent toutes les tensions entre innovation technologique et respect de la vie privée. Enquête sur un produit grand public qui transforme silencieusement son porteur en capteur ambulant.
Les chiffres donnent le vertige. En 2025, EssilorLuxottica — le géant franco-italien de l'optique et partenaire industriel de Meta — a écoulé sept millions de paires de lunettes connectées Ray-Ban Meta et Oakley Meta, soit plus de trois fois le cumul des deux années précédentes. Pour l'entreprise, c'est une « année historique » marquant le passage, selon ses propres termes, d'une entreprise d'optique à un « groupe leader dans la medtech et le big data ». Le chiffre d'affaires annuel 2025 a atteint 28,5 milliards d'euros, en hausse de plus de 11 % à taux de change constants.
Ces lunettes ne ressemblent presque à rien d'autre qu'à de banales Ray-Ban Wayfarer — et c'est précisément le problème. Dotées de caméras, de microphones et d'écouteurs intégrés dans les branches, elles permettent de filmer, photographier et diffuser en direct sur Instagram ou Facebook, et d'interagir avec l'assistant vocal « Hey Meta » pour obtenir des informations sur ce que la caméra capte. La deuxième génération, commercialisée en 2025, intègre même un écran dans le verre droit affichant notifications et informations contextuelles. À l'horizon 2026, Meta vise une capacité de production de dix millions de paires par an.
L'essor de ces dispositifs est d'autant plus significatif qu'il s'accompagne d'une banalisation sociale rapide. Contrairement aux Google Glass de 2013, qui avaient provoqué un fort rejet public — leurs porteurs avaient été surnommés « Glassholes » —, les lunettes Meta ont réussi à se fondre dans le paysage. Elles s'appuient sur un design calqué sur un modèle iconique de lunettes de soleil, leur adoption par des créateurs de contenu et leur positionnement marketing comme accessoire de mode ayant estompé les réticences. Ce camouflage stylistique, loin d'être accidentel, est au cœur de leur succès commercial — et au cœur du problème éthique qu'elles posent.
La LED fantôme : un voyant que personne ne voit
Meta a intégré une petite LED sur la monture censée indiquer aux personnes environnantes que la caméra est active. Cette mesure se veut être le garde-fou technique garantissant une transparence minimale. Sauf que, comme l'a démontré une enquête publiée par le quotidien suédois Svenska Dagbladet (SvD) et largement relayée, ce voyant lumineux est quasi invisible en plein jour, imperceptible à plusieurs mètres de distance. Dans les espaces professionnels, des travailleurs interrogés sous couvert d'anonymat décrivent la capacité de surveillance que confèrent ces lunettes : « Vous ne savez pas s'ils enregistrent ou non ». Des forums en ligne montrent que certains utilisateurs masquent délibérément ce voyant avec un simple morceau d'adhésif opaque, supprimant l'unique signal visible.
Les cas d'usages abusifs sont documentés et se multiplient. Des porteurs filment dans des salles de bain, des cabinets médicaux et des tribunaux. La tendance des propriétaires à porter ces lunettes dans les salons de massage, en diffusant parfois en direct sur Instagram à destination de milliers de spectateurs, est devenue un motif récurrent de plaintes. En octobre 2025, l'Université de San Francisco a émis une mise en garde officielle après des signalements de captation non consentie de femmes dans l'enceinte du campus. La RTBF a recensé, entre décembre 2025 et février 2026, 44 femmes victimes de ce type de filmage caché pour 25 hommes — et dans un cas espagnol similaire, 100 % des victimes étaient des femmes.
Des employés humains qui voient tout
Au-delà de la question du voyant, l'enquête du SvD soulève un angle bien plus préoccupant encore : le contenu capturé par les lunettes est régulièrement visionné par des travailleurs humains, en sous-traitance, chargés d'annoter les données pour entraîner les modèles d'IA de Meta. Ces annotateurs ont accès à des images qui peuvent inclure des scènes très intimes — des personnes se déshabillant, des situations médicales, des moments captés dans des espaces que leurs occupants croyaient protégés.
Ce n'est pas une pratique isolée dans le secteur. Amazon, Apple et Google ont tous été épinglés pour des pratiques similaires avec leurs assistants vocaux. Mais dans le cas des lunettes connectées, la dimension visuelle ajoute une couche de vulnérabilité inédite. Un enregistrement vocal accidentel déclenché par une fausse reconnaissance du mot-clé est déjà problématique ; une image captée dans une salle de bain ou un cabinet médical l'est bien davantage.
En avril 2025, Meta a révisé sa politique de confidentialité pour les Ray-Ban Meta, en activant par défaut les fonctionnalités d'IA incluant la caméra. L'entreprise assure que les photos et vidéos restent stockées localement sur le téléphone de l'utilisateur et ne servent à l'entraînement de l'IA qu'en cas de partage explicite vers les services cloud. Mais les enregistrements vocaux déclenchés par « Hey Meta » sont, eux, stockés dans le cloud par défaut et peuvent être conservés jusqu'à un an.
Les algorithmes d'annotation génèrent des erreurs — et c'est là qu'intervient le regard humain des sous-traitants, parfois sans que les frontières entre consentement et exploitation des données ne soient clairement établies.
Name Tag : la reconnaissance faciale en embuscade
Si les enjeux actuels sont déjà substantiels, ce que Meta prépare pour la suite est proprement vertigineux. Le New York Times a révélé l'existence d'un mémo interne de Reality Labs décrivant un projet baptisé « Name Tag ». Cette fonctionnalité permettrait à l'utilisateur d'identifier, en temps réel et grâce à la caméra intégrée dans ses lunettes, toute personne entrant dans son champ de vision — en croisant les données visuelles avec les profils disponibles dans l'écosystème Meta, ou d'autres informations basiques associées à l'individu.
La perspective est radicale : là où les lunettes actuelles se contentent de filmer, Name Tag attribuerait une identité. Les lunettes connectées ne se contenteraient plus de filmer ou d'écouter, elles attribueraient une identité. L'anonymat pratique des espaces publics — cet état dans lequel on coexiste avec des inconnus sans être identifiable — serait définitivement aboli.
Ce qui rend ce projet particulièrement cynique, c'est la stratégie de déploiement envisagée en interne. Selon des documents internes cités par le New York Times, Meta prévoyait de lancer cette fonctionnalité « au cours d'une période de contexte politique dynamique, pendant laquelle les divers groupes de la société civile susceptibles de nous attaquer auront concentré leurs ressources sur d'autres préoccupations ». En clair : profiter de la saturation médiatique pour faire passer en douce une fonctionnalité que l'entreprise sait elle-même controversée.
L'histoire de Meta avec la reconnaissance faciale est une suite de repentances et de revirements. La société avait fermé le système de reconnaissance faciale de Facebook en 2021, à la suite d'une forte réaction du public concernant des problèmes de confidentialité. Trois ans plus tard, en 2024, elle l'avait réintroduit pour détecter les publicités frauduleuses utilisant des visages de célébrités. En 2025, Meta avait étendu cette fonctionnalité au-delà des États-Unis, vers le Royaume-Uni, l'Europe et la Corée du Sud. Name Tag représenterait une troisième phase : la reconnaissance faciale dans l'espace public, embarquée dans des lunettes que personne ne distingue des Ray-Ban ordinaires.
L'Europe comme rempart, pour combien de temps ?
Face à cette offensive technologique, l'Union européenne constitue le principal front réglementaire. L'AI Act interdit strictement l'identification biométrique à distance dans l'espace public pour un usage commercial. Le projet « Name Tag », de par sa nature, violerait également les principes fondamentaux du RGPD sur la minimisation des données et le consentement. La combinaison de ces deux textes devrait, en théorie, bloquer son déploiement en Europe.
Mais la réalité juridique est plus complexe. La diffusion mondiale des lunettes Ray-Ban Meta complique l'application homogène de ces normes. Comment garantir qu'un citoyen américain portant ses lunettes connectées ne puisse pas les utiliser avec toutes leurs fonctionnalités en Europe ? L'Electronic Frontier Foundation a publié en février 2026 une analyse soulignant les précédents judiciaires en la matière et les limites de l'application extraterritoriale des textes européens. L'US Air Force a, quant à elle, pris les devants en interdisant à ses militaires en uniforme de porter ces dispositifs, en raison de leur capacité à enregistrer, stocker et transmettre des données.
Des contre-mesures technologiques émergent dans la communauté des hackers. Des dispositifs émettant des infrarouges à 940 nm sont capables d'aveugler la plupart des capteurs CMOS sans affecter la vision humaine. Des recherches portent également sur des motifs faciaux adversariaux — maquillages ou vêtements conçus pour perturber les algorithmes de reconnaissance — à réserver aux contextes sensibles comme les manifestations ou événements à risque. Ces solutions restent marginales, mais elles témoignent d'une prise de conscience croissante dans les milieux techniques.
Le marché qui avance, la réglementation qui court derrière
Ce qui frappe dans ce dossier, c'est la vitesse à laquelle le marché s'impose face à des régulateurs structurellement en retard. En quelques mois, Meta a transformé un gadget technologique en accessoire de mode grand public vendu à plusieurs millions d'exemplaires. Apple développerait des lunettes similaires. Snap propose déjà ses Spectacles. OpenAI serait sur le point d'entrer sur ce segment. Dans cette course, chaque acteur est incité à pousser les curseurs aussi loin que possible avant que les régulateurs n'interviennent.
La résurgence des lunettes intelligentes illustre de façon saisissante le paradoxe technologique permanent : l'innovation court en tête, tandis que les normes sociales et les cadres juridiques peinent à suivre. Les acteurs qui anticipent le retour de bâton lié à la vie privée — et conçoivent en conséquence — éviteront non seulement les écueils réglementaires, mais pourront aussi dégager un avantage concurrentiel durable dans un paysage où la confiance est la monnaie ultime.
Le cas des lunettes connectées Meta illustre avec une clarté brutale le paradoxe central de l'ère de l'IA : les technologies les plus disruptives pour la vie privée sont celles qui ressemblent le moins à des technologies. Ce n'est pas un datacenter, ni un serveur de surveillance étatique, ni même une caméra de reconnaissance faciale en façade d'immeuble qui pose la question la plus urgente en 2026. C'est une paire de lunettes de soleil stylées, portée par sept millions de personnes, dont la LED de signalement est à peine visible — et dont les images seront, un jour prochain, associées à un nom, un profil, une identité.
Sources : SVD, RTBF, NYT
Et vous ?
La LED de signalement est-elle un vrai garde-fou ou simplement une case à cocher pour satisfaire les régulateurs ? Peut-on imaginer une obligation légale de signal visuel permanent et non masquable sur tout dispositif de capture embarqué ?
Le RGPD et l'AI Act européens sont-ils réellement capables d'empêcher le déploiement de « Name Tag » sur le sol européen, notamment via des dispositifs importés par des voyageurs ? Ou faudrait-il envisager des mesures de blocage au niveau des infrastructures réseau ?
La stratégie de Meta consistant à planifier le lancement de fonctionnalités controversées « pendant que les opposants sont distraits » révèle une pleine conscience des dérives éthiques en jeu. Cela devrait-il constituer un facteur aggravant dans les procédures réglementaires ?
À partir du moment où un dispositif devient indiscernable d'une paire de lunettes ordinaires, l'interdiction dans des espaces privés est-elle encore applicable ? Faut-il penser des zones technologiquement neutres, à l'instar de ce qui existe pour les téléphones dans certains espaces sensibles ?
Avec sept millions de paires en circulation et un objectif de dix millions par an, les ingénieurs et développeurs qui travaillent sur ces technologies portent-ils une responsabilité individuelle dans cette normalisation de la surveillance ?
Voir aussi :
Meta Connect 2025 : Avec les Ray-Ban Display, Meta mise sur l'affichage discret pour transformer les lunettes en véritable compagnon numérique. L'écosystème est pensé autour de l'IA et du bracelet Neural Band
La mise à jour de novembre 2025 de Meta pour les lunettes intelligentes Ray-Ban introduit des améliorations en matière de stabilité vidéo, réduisant le flou dans les scénarios dynamiques grâce à l'IA
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Je suis fort étonné !
Qui aurait pu prévoir que des lunettes capables de filmer seraient utilisées comme ça ?![]()
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
7 millions de lunettes connectées Ray-Ban de Meta déjà vendues, zéro loi fédérale sur la reconnaissance faciale :
la fenêtre réglementaire est en train de se refermer définitivement
En 2025, Meta a écoulé 7 millions de paires de lunettes Ray-Ban et Oakley équipées d'IA — trois fois plus que l'année précédente. Un succès commercial inédit qui transforme un gadget de niche en produit grand public. Mais cette adoption massive soulève une question que ni les partenariats avec Prada ni les LED de signalement ne peuvent résoudre : comment protéger la vie privée de ceux qui ne portent pas ces lunettes ?
Les chiffres publiés par EssilorLuxottica, fabricant des deux lignes de produits, sont éloquents : 7 millions de paires de lunettes connectées vendues en 2025, contre 2 millions en 2024. Une croissance de 250 % en un an, sur un marché que beaucoup considéraient encore expérimental il y a dix-huit mois. La gamme s'articule aujourd'hui autour de deux références principales : les Ray-Ban Meta Gen 2 à 459 dollars et le modèle Display à 799 dollars, ce dernier intégrant un affichage tête haute et le Meta Neural Band pour le contrôle gestuel.
À titre de comparaison, Google Glass n'a jamais dépassé quelques dizaines de milliers d'unités avant d'être retiré du marché en 2015 sous le poids d'un backlash massif. Meta a réussi là où son prédécesseur avait échoué : rendre la caméra portable socialement acceptable en la dissimulant dans un design ordinaire. Les lunettes ressemblent à des montures standard — et c'est précisément ce qui change la donne par rapport à Google Glass, dont la physionomie trahissait immédiatement la fonction de surveillance. C'est aussi précisément le problème.
L'effet de masse : des millions de porteurs, des centaines de millions de sujets involontaires
La logique est purement arithmétique. Chaque porteur interagit quotidiennement avec des dizaines, voire des centaines de personnes. Aucune d'entre elles n'a consenti à être filmée, identifiée ou à voir ses données potentiellement traitées par l'IA embarquée. À 7 millions d'unités, l'échelle dépasse largement le stade de l'expérimentation marginale.
Les premiers incidents documentés illustrent concrètement ce glissement. En octobre 2025, l'Université de San Francisco a émis une alerte officielle après le signalement d'un homme portant des Ray-Ban Meta qui approchait des femmes sur le campus et enregistrait des interactions susceptibles d'être partagées sur les réseaux sociaux. La même période a vu émerger des témoignages plus banals mais tout aussi révélateurs : une femme new-yorkaise a découvert que son esthéticienne portait les lunettes pendant leur séance — la praticienne a prétendu que la batterie était vide, mais l'expérience a laissé sa cliente profondément mal à l'aise. Des établissements comme le College Board et certaines compagnies de croisière ont d'ores et déjà prononcé des interdictions partielles.
Ces incidents ne sont que la partie visible d'un problème structurel. Les données vocales déclenchées par la formule d'activation sont stockées dans le cloud par défaut et peuvent être conservées jusqu'à un an pour améliorer les systèmes d'IA, sans possibilité d'opt-out autre que la suppression manuelle. Quant aux enregistrements vidéo, ils restent en apparence sur le téléphone du porteur — mais tombent sous les politiques IA ou cloud dès qu'ils sont partagés vers ces services. Une architecture de collecte que Meta qualifie de transparente, mais que ses critiques jugent délibérément opaque pour l'utilisateur lambda.
I-XRAY : la démonstration qui a tout changé
L'alerte la plus retentissante n'est pas venue d'une fuite d'entreprise, mais d'un laboratoire universitaire. En octobre 2024, deux étudiants de Harvard, AnhPhu Nguyen et Caine Ardayfio, ont présenté un projet baptisé I-XRAY qui a durablement reconfiguré le débat. En combinant la capacité de streaming live des Ray-Ban Meta vers Instagram avec le moteur de recherche inversée de visages PimEyes et un modèle de langage, ils ont construit un système capable d'identifier un inconnu dans la rue en moins d'une minute — nom, adresse, numéro de téléphone, membres de la famille.
Le protocole est aussi simple que glaçant : le porteur des lunettes filme un passant, un programme de vision par ordinateur extrait le visage du flux vidéo, l'envoie à PimEyes qui retourne des URL correspondant à ce visage sur Internet, et un LLM analyse le texte associé à ces pages pour en déduire l'identité complète. « En utilisant nos lunettes, nous avons réussi à identifier des dizaines de personnes, dont des étudiants de Harvard, sans qu'elles s'en doutent une seconde », a déclaré Ardayfio.
Les deux étudiants ont délibérément refusé de publier leur code, conscients de son potentiel de nuisance. Ils reconnaissent toutefois qu'il ne s'agit que d'une question de temps avant que quelqu'un ne développe une version open source et la diffuse publiquement. La démonstration a suffi à poser le diagnostic : I-XRAY n'assemblait que des technologies librement disponibles. La barrière n'est pas technique — elle est réglementaire. Et sur ce terrain, le vide est abyssal.
La fonctionnalité de reconnaissance faciale native : une bombe à retardement
Si I-XRAY était une preuve de concept externe, Meta travaille en interne à une version officielle. Selon des informations publiées mi-février 2026 par le New York Times, citant des mémos internes et des conversations avec des employés, Meta prépare une fonctionnalité de reconnaissance faciale nommée « Name Tag » destinée à être intégrée directement dans les lunettes, avec un déploiement possible en 2026.
D'après des sources proches du dossier, cette fonctionnalité est fortement soutenue par Mark Zuckerberg, qui y voit un moyen de différencier les Ray-Ban Meta des produits concurrents et de rendre l'IA embarquée réellement utile au quotidien. Le projet serait à l'étude depuis début 2024 au sein de Reality Labs. Officiellement, la fonctionnalité ne permettrait pas d'identifier des inconnus au hasard, mais uniquement des personnes connues de l'utilisateur via les plateformes Meta ou des comptes publics Instagram. Ce « officiellement » est le nœud du problème.
Un mémo interne révèle que Meta avait initialement prévu de lancer Name Tag lors d'une conférence destinée aux personnes malvoyantes avant une diffusion plus large — un positionnement d'utilité publique commode pour atténuer les critiques. Plus troublant encore, le document évoque un contexte politique jugé « favorable » aux États-Unis, sous-entendant que les turbulences politiques actuelles détournent l'attention des organisations de défense des libertés civiles. Le cynisme de ce calcul n'a pas échappé aux observateurs.
De l'accessoire lifestyle à l'outil de surveillance d'État
La dimension la plus préoccupante du dossier a émergé ces dernières semaines. Selon un rapport de The Verge, des agents de l'ICE (Immigration and Customs Enforcement) utiliseraient des Ray-Ban Meta lors d'opérations d'identification d'immigrants sans papiers dans des espaces publics, photographiant des individus suspects pour croiser ces images avec des bases de données et des plateformes sociales.
Cette utilisation est légale dans le droit américain actuel : il n'existe pas de loi fédérale encadrant l'usage de la reconnaissance faciale, et le Quatrième Amendement offre une protection limitée dans les espaces publics. Des villes comme San Francisco ou Portland ont interdit l'usage gouvernemental de la technologie, mais ces restrictions locales ne lient pas les agences fédérales.
La situation illustre ce que beaucoup craignaient : à mesure que les caméras rétrécissent, que l'IA progresse et que les bases de données de reconnaissance faciale s'élargissent, la capacité à identifier n'importe qui, n'importe où, en temps réel devient techniquement triviale — non seulement pour des agents gouvernementaux, mais aussi pour des acteurs privés, des stalkers ou des intérêts commerciaux.
En Europe, la situation est différente sur le papier. Le RGPD et l'AI Act encadrent strictement le traitement des données biométriques dans les espaces publics. Les syndicats de plusieurs pays européens, particulièrement en Suède, ont commencé à soulever la question des lunettes connectées comme outil de surveillance patronale, décrivant un « effet panoptique » : même sans enregistrement actif, leur simple présence modifie les comportements des employés. L'application de ces textes face à un produit conçu et commercialisé aux États-Unis reste cependant un défi pratique considérable.
La stratégie Prada : le luxe comme bouclier anti-surveillance
Face à ces controverses cumulatives, Meta a opté pour une stratégie de repositionnement par le haut. La présence de Mark Zuckerberg au défilé Prada automne-hiver 2026 à Milan, le 26 février, n'avait rien d'un caprice de dirigeant soudainement féru de mode. Elle signalait le renouvellement d'un accord de licence de dix ans entre Prada et EssilorLuxottica, courant jusqu'au 31 décembre 2030 avec option d'extension jusqu'en 2035 — infrastructure contractuelle d'un partenariat structurant, pas d'une opération de communication opportuniste.
Le calcul de Meta est lisible : une personne qui achète des lunettes Prada à 1 200 euros ne sera pas désignée comme « espion technologique » lors d'un dîner. Le luxe opère comme un signal de statut censé neutraliser le stigmate du gadget de surveillance. Mais cette stratégie a une limite fondamentale : elle ne s'adresse qu'aux acheteurs. Les passants, eux, ne choisissent pas leur exposition.
La seule garantie visible d'enregistrement — le LED blanc en façade — est d'ailleurs déjà compromise : des hobbyistes proposent des modifications matérielles qui désactivent l'indicateur lumineux tout en maintenant la caméra pleinement opérationnelle. Meta peut multiplier les partenariats de prestige, les chartes d'utilisation responsable et les déclarations de bonne foi : aucun de ces dispositifs ne modifie le fait qu'une caméra orientée vers l'espace public capte sans consentement.
Le vide réglementaire : une fenêtre qui se referme
Aux États-Unis, la loi BIPA de l'Illinois prévoit des dommages et intérêts de 1 000 à 5 000 dollars par violation biométrique — chaque scan pouvant constituer une violation distincte. Le règlement de 51,75 millions de dollars obtenu contre Clearview AI en 2025 illustre l'exposition potentielle pour une entreprise collectant des données biométriques à l'échelle. Mais cette loi ne vaut qu'en Illinois, et à peine une douzaine d'États disposent d'une réglementation biométrique. Au niveau fédéral, le néant est total.
L'enjeu dépasse la régulation d'un gadget. Meta a vendu 7 millions de paires de lunettes en construisant sur un précédent normatif : filmer dans l'espace public est socialement acceptable depuis l'ère des smartphones. Cette normalisation progressive a réduit l'espace disponible pour un débat que les législateurs n'ont pas encore eu. Les données collectées par les lunettes — photos, vidéos, transcriptions vocales — alimentent déjà selon la politique de confidentialité de Meta les systèmes d'entraînement de l'IA et les mécanismes publicitaires. À l'échelle de millions d'appareils, il s'agit d'un flux de données comportementales d'une richesse inédite.
Si la reconnaissance faciale native est déployée avant qu'un cadre réglementaire ne soit établi, les législateurs se retrouveront exactement dans la position où ils se trouvaient face aux réseaux sociaux il y a quinze ans : à légiférer sur une technologie déjà intégrée dans des millions de foyers, portée par des millions de visages, normalisée par des décennies de tolérance progressive. La fenêtre pour agir en amont se referme à chaque paire vendue.
Sources : EssilorLuxottica résultats quatrième trimestre et année 2025, Université de San Francisco, Rocket Lawyer
Et vous ?
Le LED d'enregistrement constitue-t-il une mesure suffisante, ou Meta devrait-elle être contrainte à un signal sonore ou à une signalétique visible à distance sur la monture ?
La stratégie « privacy by design » qu'Apple pourrait adopter sur ses propres lunettes représenterait-elle un avantage concurrentiel réel, ou les consommateurs se soucient-ils finalement peu de la protection des tiers ?
L'utilisation par l'ICE révèle-t-elle un angle mort délibéré de Meta, ou est-ce la conséquence inévitable de tout dispositif de capture visuelle banalisé à grande échelle ?
Faut-il interdire les lunettes à caméra dans certains espaces — établissements de santé, écoles, lieux de culte — et qui doit décider : les législateurs, les entreprises, ou les établissements eux-mêmes ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Pour saluer cette nouvelle démonstration d'intelligence de méta
Je viens de fermer définitivement mon compte Facebook
Dire que ça va me manquer, non
C'est du même niveau que le reste
de la poubelle planétaire.
C'est du grand business, pour ma part, et je pense que pas mal de monde ici somme préoccupé un minimum par notre vie privée.
Une grande partie ici, utilisons même Linux si le besoin peut être satisfait au lieu de Windows.
Mais nous sommes très peu dans ce cas parmi le grand public, le Monsieur Tout le monde.
Apparemment, cela se vend comme des petits pains et cela fait peur d'être filmé à son insu et pire encore, être reconnu via IA en piochant dans une base.
Nous avions une certaines protection de la vie privée en Europe, une certaine réglementation mais comment cela se passe si l'on importe des lunettes importés. J'imagine que malheureusement elles sont utilisables sur le sol européen. Il faudrait qu'elle ne le soit pas, qu'elle soit fonctionnel en fonction des lois du pays, mais c'est un doux rêve.
Du coup qu'il y ait RGPD ou pas, cela change pas grand chose.
A mon avis si tu n'avais pas fait aucun like depuis des années, et ni posté de photo, et surtout si aucun de tes postes n'a posté de photo de toi, il y a peu de chance que Facebook puisse utiliser ton compte Facebook pour te reconnaître avec ses lunettes.
Pour ma part, j'ai un vieux compte, et je l'utilise quasiment jamais (1 à 2 fois tous les 1-3 ans). Je le maintiens parce que je n'ai pas de numéro de téléphone lié, pas d'identification poussé de moi, et j'ai des vieux contacts
Et si je veux reprendre, cela peut être pratique pour ensuite basculer sur un autre moyen.
Chose que j'ai fait avec un ancien correspondant anglophone canadien et cela m'a fait plaisir de reprendre contact, et de se raconter nos vies. On a basculé sur un autre moyen de communication, mais Facebook était le contact d'origine.
Des sous-traitants révèlent avoir vu des images filmées avec les lunettes Ray-Ban Meta montrant des personnes aux toilettes. Meta est accusée d’avoir « dissimulé la vérité » sur la vie privée des utilisateurs
Meta a vendu plus de 7 millions d'unités de ses lunettes connectées Ray-Ban. Ce qui signifie que plus 7 millions de dispositifs discrets capables de capter images et sons circulent désormais dans la nature, avec les risques évidents que cela pose pour la vie privée. Aucune loi fédérale sur la reconnaissance faciale n'est actuellement en vigueur et les garde-fous de Meta n'empêchent pas les potentiels abus de son gadget. Dans le même temps, un nouveau rapport indique que des techniciens de Meta examinent et annotent les images filmées par les lunettes Ray-Ban, y compris des scènes privées, ce qui soulève d'importantes questions en matière de confidentialité.
Une enquête publiée en février a révélé que des travailleurs de Sama, un sous-traitant de Meta basé au Kenya, visionnent des vidéos captées par les lunettes connectées Ray-Ban dans le cadre de missions d'annotation de données pour l'IA de Meta. Plus de 30 employés ont été interrogés à divers niveaux de Sama. Certaines des personnes interrogées dans le cadre de l'enquête ont travaillé sur d'autres projets que les lunettes connectées de Meta.
L'enquête, publiée en février 2026, est le fruit d'une collaboration entre les journaux suédois Svenska Dagbladet et Göteborgs-Posten et le journaliste indépendant kenyan Naipanoi Lepapa. Les auteurs du rapport ont précisé n'avoir pas eu accès aux documents traités par les employés de Sama ni à la zone où ceux-ci effectuent l'annotation des données. Le rapport s'appuie également sur des entretiens avec d'anciens employés américains de Meta.
Ces derniers auraient été témoins de l'annotation en direct des données pour plusieurs projets de Meta. Le rapport souligne « un flux de données sensibles en matière de confidentialité qui sont directement transmises aux systèmes du géant technologique », ce qui met les employés de Sama mal à l'aise. Les répondants ont déclaré avoir vu des images filmées montrant des personnes en train « d'avoir des relations sexuelles et d'utiliser les toilettes ».
Les problèmes de confidentialité graves liés aux lunettes de Meta
Les images capturées par les lunettes connectées Ray-Ban de Meta sont envoyées aux employés de Sama. Ces employés sont engagés comme annotateurs de données et sont rémunérés pour examiner les vidéos et les étiqueter. « Nous voyons tout, des salons aux corps nus. Il y a aussi des scènes sexuelles filmées avec des lunettes intelligentes, quelqu'un les porte pendant qu'il a des relations sexuelles », aurait déclaré l'un des employés de Sama.
« Dans certaines vidéos, on peut voir quelqu'un aller aux toilettes ou se déshabiller. Je ne pense pas qu'ils en soient conscients, car s'ils le savaient, ils ne filmeraient pas ». Mais les problèmes de confidentialités ne s'arrêtent pas là. Selon le rapport, les cartes bancaires de certaines personnes apparaissent par erreur dans certaines séquences, et les employés soulignent que ces clips pourraient déclencher « d'énormes scandales » s'ils étaient divulgués.
« J'ai vu une vidéo dans laquelle un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et se change », a déclaré un travailleur anonyme de Sama. Un autre employé anonyme a déclaré avoir vu les partenaires des utilisateurs des lunettes Ray-Ban sortir nus des toilettes.
Un travailleur a ajouté qu'il se sentait obligé de regarder et d'annoter, sous peine de perdre son emploi. « Vous comprenez que vous regardez la vie privée de quelqu'un, mais en même temps, on attend simplement de vous que vous fassiez votre travail. Vous n'êtes pas censé poser de questions. Si vous commencez à poser des questions, vous êtes viré ». Les données annotées sont utilisées par Meta pour former ses grands modèles de langage (IA).
Meta confirme qu'il fait appel à des annotateurs de données tiers
Meta a confirmé à la BBC qu'il partageait « parfois » avec des sous-traitants le contenu que les utilisateurs partagent avec son chatbot Meta AI, afin qu'ils l'examinent « dans le but d'améliorer l'expérience des utilisateurs », comme le font de nombreuses autres entreprises. « Ces données sont d'abord filtrées afin de protéger la vie privée des personnes », indique le communiqué de Meta, citant comme exemple le floutage des visages sur les images.
La politique de confidentialité de Meta pour les appareils portables stipule que les photos et vidéos prises avec ses lunettes Ray-Ban sont envoyées à Meta « lorsque vous activez le traitement cloud, interagissez avec le service Meta AI sur vos lunettes ou téléchargez vos médias vers certains services fournis par Meta (comme Facebook). Vous pouvez modifier vos choix concernant le traitement cloud de vos médias à tout moment dans les paramètres ».
La politique de confidentialité de Meta stipule également que les vidéos et les fichiers audio provenant des diffusions en direct enregistrées avec les lunettes connectées Ray-Ban sont envoyés à Meta, tout comme les transcriptions textuelles et les enregistrements vocaux créés par le chatbot de l'entreprise.
« Nous utilisons l'apprentissage automatique et des évaluateurs formés pour traiter ces données afin d'améliorer, de dépanner et de former nos produits. Nous partageons ces informations avec des fournisseurs et prestataires de services tiers afin d'améliorer nos produits. Vous pouvez accéder aux enregistrements et aux transcriptions associées et les supprimer dans l'application Meta AI », indique la politique de confidentialité de Meta sur les lunettes.
Les fonctionnalités activées par défaut exposent les utilisateurs
En août, Meta a activé par défaut la fonction « Meta AI with camera », laquelle reste active tant que l’utilisateur ne désactive pas la commande vocale « Hey Meta », selon un courriel envoyé aux utilisateurs à l’époque. Le porte-parole de Meta, Albert Aydin, avait alors indiqué que « les photos et vidéos prises avec les lunettes connectées Ray-Ban Meta sont stockées dans la galerie du téléphone et ne sont pas utilisées par Meta pour l’entraînement ».
Cependant, certains utilisateurs des Ray-Ban n'ont peut-être pas lu ou compris les nombreuses politiques de confidentialité associées aux lunettes connectées de Meta. Les employés de Sama ont suggéré que les propriétaires de Ray-Ban pourraient ne pas savoir que leurs appareils enregistrent parfois.
Les lunettes de Meta clignotent en rouge lorsqu'elles enregistrent une vidéo ou prennent une photo, mais beaucoup critiquent le fait que les gens peuvent ne pas remarquer ce clignotement. « Nous voyons tout, des salons aux corps nus. Meta dispose de ce type de contenu dans ses bases de données. Les gens peuvent s'enregistrer de manière inappropriée sans même savoir ce qu'ils enregistrent », aurait déclaré un travailleur anonyme aux enquêteurs.
Un représentant de Sama a déclaré à Ars que « l'entreprise ne commente pas les relations avec ses clients ni ses projets spécifiques, mais qu'elle respecte le RGPD et le CCPA et applique des politiques et procédures rigoureusement contrôlées, conçues pour protéger toutes les informations des clients ».
Meta visé par une action collective pour violation de la vie privée
L'affaire a déclenché plusieurs réactions institutionnelles. L'ICO, l'autorité britannique de protection des données, a contacté Meta au sujet du rapport suédois. Le débat intervient également alors que Meta prévoit d'ajouter la reconnaissance faciale à ses lunettes connectées de marque Ray-Ban et Oakley « dès cette année », selon un article publié en février par le New York Times citant des personnes anonymes « impliquées dans ces projets ».
Ces allégations ont également donné lieu à un recours collectif intenté contre Meta et Luxottica of America, une filiale de la société mère des lunettes connectées Ray-Ban, EssilorLuxottica. Le recours conteste le slogan de Meta pour ces lunettes, « conçues pour la confidentialité, contrôlées par vous ».
L'action allègue que Meta a enfreint les lois étatiques sur la protection des consommateurs et réclame des dommages-intérêts, des sanctions punitives et une injonction obligeant l'entreprise à modifier ses pratiques commerciales. Meta (anciennement Facebook), dont le modèle économique repose largement sur l’exploitation des données des utilisateurs de ses plateformes, est loin de faire figure de référence en matière de protection de la vie privée.Envoyé par Extrait de la plainte
Sources : Svenska Dagbladet, document de la plainte (PDF), Meta (1, 2)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du sort réservé aux contenus capturés par les lunettes Ray-Ban de Meta ?
Que pensez-vous du slogan « conçues pour la confidentialité, contrôlées par vous » utilisé par Meta ?
Comment protéger les gens contre les abus de ces gadgets portables ? Ces dispositifs doivent-ils être interdits ?
Voir aussi
Lunettes Ray-Ban de Meta : une infrastructure de surveillance de masse portée par sept millions de personnes, des sous-traitants ont accès aux images et Meta prépare la reconnaissance faciale en temps réel
7 millions de lunettes connectées Ray-Ban de Meta déjà vendues, zéro loi fédérale sur la reconnaissance faciale : la fenêtre réglementaire est en train de se refermer définitivement
La mise à jour de novembre 2025 de Meta pour les lunettes intelligentes Ray-Ban introduit des améliorations en matière de stabilité vidéo, réduisant le flou dans les scénarios dynamiques grâce à l'IA
FB comme tous les RS ne nous sert strictement à rien mais sert les intérêts des GAFAM
je n'y ai jamais trouve un seul usage qui ne soit pas débile et bêtement chronophage.Ni news ni tech ni culture, RIEN le NÉANT
FB fermé
le prochain c'est mon compte YT, pollué de plus en plus avec des vidéos AI débiles d'acteurs de films des 80's et ce qu'il en reste en 2026: on a droit soit aux vieillards de 70/80 ans soit à des anges avec des ailes et une auréole (c'est plus propre que de mettre une vidéo de squelette)
je passe mon temps depuis peu à block tube 10X par 1/2 journée ces chaînes débiles sur YT ça va finir comme FB
il y a 6 mois c'étaient les nanas à gros boobs pour des revival de pseudo movies 50's en mode prépubère
j’en ai marre de ces conneries
NB : tu peux avoir la collection complète X FB YT et tous les Instagram de la terre que je m'en fous
j'ai rebooté mon compte YT, j'ai tout supprimé sauf les Arte etc.
NB le -1 est infantile.
Partager