Home Bargains, une chaîne de vente au détail britannique, a accusé à tort un client de vol à l’étalage en raison d’une erreur du système de reconnaissance faciale. Cet incident lui a causé une grande détresse, qui a été fouillée, escortée et bannie du magasin. Facewatch, la société à l’origine de la technologie de reconnaissance faciale, a admis son erreur.

Lorsque le client est entré le magasin Home Bargains avec l’intention d’acheter du chocolat. Quelques instants plus tard, un employé du magasin l’a confrontée, l’accusant de vol et exigeant qu’elle parte. Le personnel a fouillé son sac avant de l’escorter et de lui interdire l’accès aux lieux. Facewatch a ensuite présenté des excuses, reconnaissant que son système de reconnaissance faciale l’avait mal identifiée.

Les détaillants britanniques utilisent la reconnaissance faciale

Le logiciel de reconnaissance faciale de Facewatch est utilisé par plusieurs détaillants britanniques pour identifier des voleurs potentiels. Cependant, l’erreur dans ce cas soulève de sérieuses inquiétudes quant à la fiabilité et à la précision de la technologie. Cette identification injustifiée a suscité des discussions sur les implications plus larges de l’utilisation de l’IA dans le commerce de détail, notamment en ce qui concerne la vie privée et le risque de nuire à des personnes innocentes.

Incidents associés et contexte plus large

Il ne s’agit pas d’un incident isolé. Il y a eu d’autres cas où la technologie de reconnaissance faciale a mal identifié des individus, conduisant à des accusations injustifiées et à une détresse personnelle. Par exemple, les caméras de reconnaissance faciale d’une patinoire par erreur a identifié un adolescent noir comme un fauteur de troubles interdit en 2021. En 2023, le ministère britannique du Travail et des Retraites a été confronté à des allégations de discrimination due à un algorithme opaque de détection de fraude.

Récemment, Microsoft a mis à jour sa politique pour interdire aux services de police américains d’utiliser l’IA générative à des fins de reconnaissance faciale via son service Azure OpenAI. Le service Azure OpenAI , une suite complète de niveau entreprise construite autour des technologies OpenAI, inclut désormais dans ses conditions de service un langage qui interdit explicitement l’utilisation de ses capacités pour des tâches de reconnaissance faciale « par ou pour » les services de police des États-Unis.

Categories: IT Info