Meta aurait progressé avec des plans pour intégrer la technologie de reconnaissance faciale dans ses lunettes intelligentes propulsées par AI de nouvelle génération, un développement qui a ravivé des débats de confidentialité importants.

Selon un Rapport à partir de l’information , ces nouvelles lunettes, nommées en interne, Aperol et Bellini dans le cadre d’un”Projet Artemis”plus large, représenteraient un changement notable par rapport à la position précédente de Meta des étagères de telles fonctionnalités pour sa nouvelle initiative est une”Capacité Super-Sensing”Sur”Live AI Fonction conçu pour traiter en continu l’environnement d’un porteur et utiliser la reconnaissance faciale pour se souvenir des individus et des informations rencontrés.

a déclaré in2021 Cette reconnaissance facale pour les lunettes AR a été considérée.”C’est vraiment un débat que nous devons avoir avec le public”, a déclaré Bosworth à CNBC à l’époque.”Si les gens ne veulent pas de cette technologie, nous n’avons pas à le fournir. Le produit va bien dans les deux cas. Il existe de beaux cas d’utilisation, si c’est quelque chose avec lequel les gens sont à l’aise.”

“Super-Sensing”AI: Capacités et préoccupations

La”Super-Sensing”Ai en envie Modèles Ray-Ban. Les informations suggèrent que les lunettes seraient en mesure d’identifier les personnes et de fournir des informations à leur sujet.

Bien que cette fonctionnalité nécessiterait une opt-in de l’utilisateur, Meta envisageait un voyant de la lumière pour signaler lorsque ce mode de détection avancé est actif. L’efficacité de ces indicateurs demeure un point de discorde, car la petite LED sur les lunettes actuelles, destinée à signaler l’enregistrement, a été critiquée pour avoir été facilement négligé.

Ce développement suit la mise à jour d’avril de Meta à ses lunettes AR Politiques de confidentialité et s’aligne sur son utilisation limitée de la reconnaissance faciale”Target=”_ Blank”> Vérification d’identité . Le contexte plus large comprend les efforts continus de Meta pour construire ce qu’il appelle une «première étape vers la construction d’une IA plus personnelle», comme indiqué lors du lancement de son application de méta d’IA autonome en avril. L’application, alimentée par Llama 4 Modèles de grande langue, sert désormais d’interface principale pour les lunettes intelligentes Ray-Ban Meta, en remplacement de l’ancien Meta View App . L’appréhension

Le voyage de Meta avec des lunettes améliorés en AI a été marquée à la fois par un déploiement rapide des fonctionnalités et des alarmes de confidentialité persistantes. La démonstration”I-Xray”d’octobre 2024 par les étudiants de Harvard a clairement illustré comment les méta-lunettes Ray-Ban existantes pourraient être combinées avec des outils de reconnaissance faciale accessibles au public comme Pimeyes pour identifier les individus et accès à leurs données personnelles en temps réel. Le cas a souligné le potentiel d’utilisation abusive, une préoccupation selon laquelle les garanties actuelles de la confidentialité de Meta-une lumière indicatrice et la responsabilité des utilisateurs pour le consentement-ne sont pas entièrement assuies.

La société a continué à mettre à jour ses lunettes intelligentes, avec des fonctionnalités comme la traduction en direct entre AI entre l’anglais, l’espagnol, le français et l’italien, et «plier et demander» Les capacités, qui permettent aux utilisateurs d’obtenir des informations sur leur environnement sans avoir besoin d’un mot de réveil, sont fondamentales du concept de «super-détection» le plus avancé.

Cependant, les méthodes derrière la formation de ces puissants modèles d’IA ont également rédigé des livres en cours d’essentiels.

La poussée de Meta pour les lunettes plus avancées d’IA se produit dans un paysage technologique farouchement compétitif et avide de données. Les entreprises tiennent de plus en plus l’IA pour collecter des données d’utilisateurs granulaires, en partie parce que, comme Nature Cette tendance est visible dans le développement par perplexité d’un navigateur pour l’utilisation personnalisée de l’IA et l’exploration par un réseau social par un réseau social.

a travaillé à affiner le comportement de son IA, indiquant un objectif pour LLAMA 4 implique de s’attaquer à ce qu’il a décrit comme un biais de gauche historique dans le premier LLMS. Cet ajustement technologique s’est produit parallèlement aux changements de politique importants, tels que la fin de son programme de vérification des faits tiers américain en janvier 2025.

En tant que méta-forges à venir, les concurrents ne se tiennent pas immobile. Certains, comme les solos, mettent l’accent sur la vie privée avec des conceptions modulaires qui permettent l’élimination de la caméra. D’autres, comme Baidu avec ses lunettes Xiaodu axées sur l’utilité, et Apple avec son projet «Atlas» prudent, recherchent différentes stratégies. Google est également un acteur clé avec sa plate-forme Android XR.

La prochaine itération des lunettes Ray-Ban de Meta, en arrivant potentiellement en 2025 avec des écrans intégrés, sera probablement une étape essentielle dans ce marché en évolution, pontant les appareils portables actuels avec les systèmes de réalité augmentés plus ambitieux comme le prototype Orion de META.

Categories: IT Info