TL;DR – Axon Facial Recognition Pilot
L’essentiel : Axon a déployé pour la première fois la reconnaissance faciale en direct sur les caméras corporelles de la police, mettant ainsi fin à une interdiction auto-imposée de six ans avec un pilote canadien. Détails clés: L’essai « Mode silencieux » implique 50 agents qui scannent passivement des visages par rapport à une liste de surveillance stricte de 7 065 personnes signalées pour des risques de sécurité ou des mandats. Le conflit : alors qu’Axon présente cela comme une recherche sur le terrain, le commissaire à la protection de la vie privée de l’Alberta affirme que l’initiative a été lancée sans l’approbation réglementaire nécessaire ni sans études d’impact réalisées. Comment ça marche : les agents ne reçoivent aucune alerte en temps réel ; les matchs sont revus rétrospectivement au siège pour préserver la surveillance humaine et éviter des affrontements immédiats sur le terrain.
Mettant fin à un moratoire de six ans, Axon Enterprise a déployé pour la première fois la reconnaissance faciale sur les caméras corporelles de la police dans un cadre opérationnel en direct. Le projet pilote, lancé cette semaine avec le service de police d’Edmonton (EPS) du Canada, marque un changement important pour le principal fournisseur américain de technologies d’application de la loi.
La société basée à Scottsdale développe des armes et des technologies pour les militaires, les forces de l’ordre et les civils, notamment le Taser, une gamme de dispositifs à électrochocs conçus pour neutraliser temporairement humains.
Fonctionnant en « mode silencieux », le système de caméra corporelle scanne les visages par rapport à une liste de surveillance de plus de 7 000 personnes signalées pour des risques de sécurité ou des mandats. Pourtant, le déploiement a déclenché des frictions immédiates, le commissaire à la protection de la vie privée de l’Alberta affirmant que l’initiative avait été lancée sans l’approbation réglementaire nécessaire.
Décrit par Axon comme une « recherche sur le terrain », ce test remet en question les limites éthiques établies par l’entreprise en 2019 pour empêcher la surveillance de masse en temps réel.
Promo
Du moratoire à la « recherche sur le terrain » : le pivot stratégique
Marquant la fin définitive de son interdiction auto-imposée, Axon Enterprise a lancé un test opérationnel en direct de la reconnaissance faciale sur les caméras portées sur le corps.
Confinée à une seule agence, le service de police d’Edmonton (EPS) en Alberta, au Canada, la société caractérise le projet pilote comme étant un déploiement commercial. mais comme une « recherche sur le terrain à un stade précoce ».
Rick Smith, fondateur et PDG d’Axon, a présenté l’initiative comme une étape nécessaire pour valider les protocoles de sécurité avant une adoption plus large.”Il ne s’agit pas d’un lancement. Il s’agit d’une recherche sur le terrain à un stade précoce axée sur la compréhension des performances réelles, des considérations opérationnelles et des garanties nécessaires à une utilisation responsable.”
Les paramètres opérationnels de l’essai sont strictement limités. À partir du 3 décembre et jusqu’au 31 décembre 2025, 50 agents spécifiques utiliseront la technologie au cours de leurs quarts de travail.
Contrairement aux modèles de grattage de masse utilisés par des entreprises controversées comme Clearview AI, qui ont fait face à des contestations juridiques à l’échelle mondiale, le système fonctionne en boucle fermée. Elle compare les visages uniquement à une « liste de surveillance » prédéfinie contrôlée par l’agence.
Le service de police d’Edmonton a divulgué les chiffres exacts de cette base de données afin d’anticiper les inquiétudes concernant une dérive de la portée. La base de données comprend 7 065 individus au total, dont 6 341 personnes signalées pour « risques pour la sécurité » et 724 avec des mandats d’arrêt actifs pour des crimes graves tels que le meurtre ou les voies de fait graves.
L’initiative représente un terrain d’essai pour le cadre éthique mis à jour d’Axon. Axon vise à prouver que les outils biométriques peuvent coexister avec le droit à la vie privée s’ils sont régis par une surveillance stricte. Définir le succès du programme implique plus que la simple précision technique.
“Le succès à ce stade n’est pas un produit ; il prouve que la technologie peut apporter de réels avantages à la sécurité de la communauté avec des garanties qui offrent des taux d’erreurs nuisibles très faibles.”
Smith a suggéré que les tests internationaux sont une condition préalable à un éventuel déploiement aux États-Unis.
“En testant dans des conditions réelles en dehors des États-Unis, nous pouvons recueillir des informations indépendantes, renforcer les cadres de surveillance, et appliquer ces enseignements aux évaluations futures, y compris aux États-Unis. Diane McLeod, commissaire à l’information et à la vie privée de l’Alberta, a confirmé que son bureau n’a pas encore approuvé l’évaluation des facteurs relatifs à la vie privée (PIA) soumise par l’EPS.
Alors que le service de police soutient que le projet pilote est simplement un essai de validation de principe qui ne nécessite pas l’approbation préalable des autorités réglementaires, les défenseurs de la vie privée affirment que cela contourne les mécanismes de surveillance critiques.
Le secret entourant le modèle d’IA lui-même aggrave les frictions. Axon a admis avoir utilisé un fournisseur tiers pour l’algorithme, mais refuse de nommer le fournisseur.
Barry Friedman, professeur de droit et ancien président du comité d’éthique de l’IA d’Axon, a critiqué ce manque d’engagement du public, en déclarant :
“Un projet pilote est une excellente idée. Mais il est censé y avoir de la transparence, de la responsabilité… Rien de tout cela n’est ici. Ils vont simplement de l’avant.”
Au cœur de la défense de l’EPS se trouvent les mécanismes opérationnels du procès. Les responsables affirment que, comme les agents ne reçoivent aucune donnée en temps réel, le risque d’une confrontation ou d’une escalade immédiate est annulé. L’annonce officielle du service de police d’Edmonton décrit les paramètres opérationnels spécifiques :
« À compter du mercredi 3 décembre 2025, jusqu’à 50 policiers qui utilisent actuellement des caméras BWV commenceront à utiliser des caméras BWV compatibles avec la reconnaissance faciale pendant leurs quarts de travail pour le reste du mois.”
“Cette preuve de concept testera la capacité de la technologie à fonctionner avec notre base de données pour informer les agents des individus présentant des indicateurs de sécurité et des avertissements lors d’interactions précédentes. Elle inclut également les personnes qui ont des mandats d’arrêt non exécutés pour des crimes graves, tels que le meurtre, les voies de fait graves et le vol. Les agents ne recevront aucune alerte ni notification concernant la ressemblance faciale pendant leur service. »
Cette architecture en « mode silencieux » est conçue pour protéger les agents des biais algorithmiques lors des interactions. En retenant les données de correspondance jusqu’à un examen après le quart de travail, l’agence prétend préserver l’exigence « humain dans la boucle » essentielle pour un maintien de l’ordre éthique.
Kurt Martin, surintendant par intérim du service de police d’Edmonton, a souligné l’intention de l’agence d’équilibrer l’utilité et les libertés civiles.
“Nous voulons vraiment respecter les droits des individus et leurs intérêts en matière de vie privée.”
À l’intérieur du « mode silencieux » : sauvegardes techniques et Limites
Sur le plan architectural, le projet pilote d’Edmonton diffère considérablement des systèmes « Live Alert » actuellement déployés à Londres et dans d’autres juridictions du Royaume-Uni. Dans ces environnements, les agents reçoivent des notifications immédiates de correspondances potentielles, une pratique que des lois plus strictes sur la reconnaissance faciale cherchent souvent à réglementer.
À Edmonton, le moteur de reconnaissance faciale fonctionne passivement en arrière-plan. Les agents dans la rue ne sont pas informés des correspondances, et toutes les « notifications de ressemblance » sont traitées rétrospectivement par une unité dédiée au siège de la police.
Cibler uniquement les menaces les plus graves est un élément essentiel de la conception du projet pilote. Ann-Li Cooke, directrice de l’IA responsable chez Axon, clarifié la portée de la liste de surveillance.
“Nous voulons vraiment nous assurer qu’elle est ciblée. de sorte qu’il s’agit de personnes ayant commis des délits graves.”
Cette exigence rigoureuse de « l’humain dans la boucle » est conçue pour empêcher les erreurs algorithmiques de conduire à des détentions injustifiées sur le terrain.
Axon affirme avoir conçu le système avec une logique de « confidentialité d’abord » qui donne explicitement la priorité à la précision plutôt qu’au rappel. En termes techniques, l’algorithme est optimisé pour minimiser les faux positifs – c’est-à-dire les cas où une personne innocente est signalée comme suspecte – même si ce seuil conservateur conduit à manquer des cibles réelles. Cette configuration est une protection technique délibérée contre les risques en matière de droits civiques souvent associés à l’analyse biométrique en temps réel.
Fonctionnellement, le système agit comme un filtre à grande vitesse plutôt que comme un filet. Il est programmé pour rechercher uniquement les délinquants dangereux ou les personnes disparues tout en ignorant le grand public. Tout scan facial qui ne génère pas de correspondance de haute fiabilité avec la liste de surveillance localisée est instantanément purgé du système, empêchant ainsi l’accumulation de données biométriques sur des citoyens non impliqués dans des enquêtes criminelles.
Axon affirme également s’être engagé à une « très faible tolérance » en matière d’identification erronée. Les ingénieurs ont réglé le système pour éliminer les correspondances de faible confiance, même si cela signifie manquer des cibles réelles, un compromis destiné à protéger les citoyens innocents des faux positifs.
Les politiques de conservation des données du projet pilote sont tout aussi strictes. Les données biométriques qui ne correspondent pas sont supprimées immédiatement après le traitement, bien que les séquences vidéo sous-jacentes soient conservées conformément à la politique EPS standard. Le surintendant Martin a souligné que la technologie reste soumise au jugement des agents.”Cette technologie ne remplacera pas la composante humaine du travail d’enquête.”
Réalités du marché : pourquoi Axon évolue maintenant
Le calendrier de ce projet pilote est en corrélation avec les pressions financières et concurrentielles importantes auxquelles est confronté le géant technologique basé à Scottsdale.
La valorisation des actions d’Axon a subi une baisse d’environ 30 % au cours du dernier mois (novembre-décembre 2025), ce qui crée l’urgence de démontrer de nouvelles sources de revenus au milieu de la volatilité boursière récente.
Les concurrents empiètent déjà sur l’espace biométrique. Motorola Solutions fait face à un recours collectif concernant un litige relatif à la confidentialité biométrique lié à ses capacités « FaceSearch », malgré ses affirmations publiques de s’abstenir de toute identification proactive.
La normalisation mondiale est également un facteur. Alors que le ministère de l’Intérieur du Royaume-Uni développe de manière agressive la reconnaissance faciale en direct, le marché nord-américain apparaît de plus en plus comme une exception dans sa résistance. Pourtant, le déploiement de ces outils reste controversé.
Temitope Oriola, professeur de criminologie à l’Université de l’Alberta, a décrit le rôle de la ville dans ce contexte mondial. expérimenter.”Edmonton est un laboratoire pour cet outil. Cela pourrait bien s’avérer être une amélioration, mais nous n’en sommes pas sûrs.”
En fin de compte, l’objectif est une réentrée sur le marché américain. La demande de la police en matière d’outils biométriques reste élevée malgré une mosaïque d’interdictions locales dans des villes comme San Francisco et Boston.
En fin de compte, garantir l’adhésion du public nécessite d’aller au-delà des promesses théoriques pour obtenir des résultats démontrables. Les juristes et les éthiciens soutiennent que les risques profonds associés à la surveillance biométrique, allant de l’érosion de la vie privée aux biais potentiels, sont trop élevés pour justifier son déploiement sans preuves irréfutables de son efficacité.
La charge de la preuve repose désormais sur les forces de l’ordre pour démontrer que ces outils offrent des avantages clairs et quantifiables en matière de sécurité qui dépassent largement leurs coûts sociétaux.