TL;DR – Axon-Pilot zur Gesichtserkennung

Das Wesentliche: Axon hat zum ersten Mal Live-Gesichtserkennung auf Körperkameras der Polizei eingesetzt und damit ein sechsjähriges selbst auferlegtes Verbot eines kanadischen Piloten beendet. Wichtige Details: Beim „Silent Mode“-Prozess scannen 50 Beamte passiv Gesichter anhand einer strengen Beobachtungsliste von 7.065 Personen, die wegen Sicherheitsrisiken oder Haftbefehlen gekennzeichnet sind. Der Konflikt: Während Axon dies als Feldforschung bezeichnet, behauptet der Datenschutzbeauftragte von Alberta, dass die Initiative ohne die erforderliche behördliche Genehmigung oder abgeschlossene Folgenabschätzungen gestartet wurde. So funktioniert es: Beamte erhalten keine Echtzeitwarnungen; Spiele werden im Nachhinein im Hauptquartier überprüft, um die menschliche Aufsicht zu wahren und unmittelbare Konfrontationen auf dem Spielfeld zu verhindern.

Axon Enterprise beendet ein sechsjähriges Moratorium und hat zum ersten Mal die Gesichtserkennung auf Körperkameras der Polizei in einer Live-Einsatzumgebung eingesetzt. Das Pilotprojekt, das diese Woche mit dem kanadischen Edmonton Police Service (EPS) gestartet wurde, markiert einen bedeutenden Wandel für den dominierenden US-amerikanischen Anbieter von Strafverfolgungstechnologie.

Das in Scottsdale ansässige Unternehmen entwickelt Waffen und Technologie für Militär, Strafverfolgungsbehörden und Zivilisten, insbesondere den Taser, eine Reihe von Elektroschockgeräten, die dazu dienen, vorübergehend außer Gefecht zu setzen Menschen.

Im „Silent Mode“ scannt das Body-Cam-System Gesichter anhand einer Beobachtungsliste von über 7.000 Personen, die wegen Sicherheitsrisiken oder Haftbefehlen gekennzeichnet sind. Doch die Einführung löste sofort Spannungen aus, da der Datenschutzbeauftragte von Alberta behauptete, die Initiative sei ohne die erforderliche behördliche Genehmigung gestartet worden.

Von Axon als „Feldforschung“ beschrieben, stellt dieser Test ethische Grenzen in Frage, die das Unternehmen 2019 eingeführt hat, um Massenüberwachung in Echtzeit zu verhindern.

Promo

Vom Moratorium zur „Feldforschung“: Der strategische Dreh-und Angelpunkt

Markiert eine endgültige Entscheidung Nach Beendigung seines selbst auferlegten Verbots hat Axon Enterprise einen Live-Betriebstest der Gesichtserkennung mit am Körper getragenen Kameras eingeleitet.

Das Unternehmen, das auf eine einzige Behörde, den Edmonton Police Service (EPS) in Alberta, Kanada, beschränkt ist, charakterisiert den Piloten nicht als kommerzielle Einführung, sondern als „Feldforschung im Frühstadium“.

Rick Smith, Gründer und CEO von Axon, bezeichnete die Initiative als einen notwendigen Schritt zur Validierung von Sicherheitsprotokollen vor einer breiteren Einführung. „Dies ist kein Start. Es handelt sich um eine Feldforschung im Frühstadium, die sich auf das Verständnis der realen Leistung, betrieblicher Überlegungen und der für eine verantwortungsvolle Nutzung erforderlichen Sicherheitsmaßnahmen konzentriert.“

Die Betriebsparameter für den Versuch sind streng begrenzt. Vom 3. Dezember bis zum 31. Dezember 2025 werden 50 bestimmte Beamte die Technologie während ihrer Schichten nutzen.

Im Gegensatz zu den Massen-Scraping-Modellen umstrittener Unternehmen wie Clearview AI, die weltweit mit rechtlichen Herausforderungen konfrontiert waren, arbeitet das System in einem geschlossenen Kreislauf. Es gleicht Gesichter nur mit einer vordefinierten „Beobachtungsliste“ ab, die von der Behörde kontrolliert wird.

Der Edmonton Police Service hat genaue Zahlen für diese Datenbank offengelegt, um Bedenken hinsichtlich einer Ausweitung des Umfangs vorzubeugen. In der Datenbank sind insgesamt 7.065 Personen enthalten, darunter 6.341 Personen, die als „Sicherheit“ gekennzeichnet sind Risiken“ und 724 mit aktiven Haftbefehlen für schwere Straftaten wie Mord oder schwere Körperverletzung.

Die Initiative stellt ein Testgelände für Axons aktualisierten ethischen Rahmen dar. Axon möchte beweisen, dass biometrische Tools mit Datenschutzrechten koexistieren können, wenn sie einer strengen Aufsicht unterliegen. Um den Erfolg des Programms zu definieren, geht es um mehr als nur technische Genauigkeit.

„Erfolg ist in dieser Phase kein Produkt; er beweist, dass die Technologie echte Vorteile für die Sicherheit der Gemeinschaft mit Schutzmaßnahmen bieten kann, die zu sehr niedrigen Raten schädlicher Fehler führen.“

Smith schlug vor, dass internationale Tests eine Voraussetzung für einen eventuellen US-Einsatz sind.

„Durch Tests unter realen Bedingungen außerhalb der USA können wir unabhängige Erkenntnisse sammeln, Aufsichtsrahmen stärken und anwenden.“ Diese Erkenntnisse werden in künftige Auswertungen, auch in den Vereinigten Staaten, einfließen. Diane McLeod, die Informations-und Datenschutzbeauftragte von Alberta, hat bestätigt, dass ihr Büro die von der EPS vorgelegte Datenschutz-Folgenabschätzung (Privacy Impact Assessment, PIA) noch nicht genehmigt hat.

Während die Polizei argumentiert, dass es sich bei dem Pilotprojekt lediglich um einen Proof-of-Concept-Versuch handelt, der keiner vorherigen behördlichen Genehmigung bedarf, behaupten Datenschutzbefürworter, dass damit wichtige Aufsichtsmechanismen umgangen werden.

Die Reibung wird durch die Geheimhaltung des KI-Modells selbst noch verstärkt. Axon hat zugegeben, für den Algorithmus einen Drittanbieter zu verwenden, weigert sich jedoch, den Namen des Anbieters zu nennen.

Barry Friedman, Juraprofessor und ehemaliger Vorsitzender des AI Ethics Board von Axon, kritisierte diesen Mangel an öffentlichem Engagement und sagte:

„Ein Pilotprojekt ist eine großartige Idee. Aber es soll Transparenz und Rechenschaftspflicht geben … Nichts davon ist hier. Sie machen einfach weiter.“

Im Mittelpunkt der EPS-Verteidigung stehen die operativen Mechanismen des Prozesses. Beamte argumentieren, dass das Risiko einer unmittelbaren Konfrontation oder Eskalation beseitigt sei, weil die Beamten keine Echtzeitdaten erhalten. Die offizielle Ankündigung des Edmonton Police Service beschreibt die spezifischen Betriebsparameter:

„Ab Mittwoch, dem 3. Dezember 2025, werden bis zu 50 Polizisten, die derzeit BWV-Kameras verwenden, damit beginnen, in ihren Schichten BWV-Kameras mit Gesichtserkennung zu verwenden.“ Der Rest des Monats.“

„Dieser Proof of Concept wird die Fähigkeit der Technologie testen, mit unserer Datenbank zusammenzuarbeiten, um Beamte auf Personen mit Sicherheitsmarkierungen und Verwarnungen aus früheren Interaktionen aufmerksam zu machen.“

„Beamte werden ihre Aufgaben wie gewohnt ausführen. Wenn diese am Körper getragenen Kameras aktiv aufzeichnen, wird die Gesichtserkennungsfunktion automatisch ausgeführt.“ „Silent Mode“. Beamte erhalten im Dienst keine Warnungen oder Benachrichtigungen über Gesichtsähnlichkeiten. Indem die Spieldaten bis zu einer Überprüfung nach der Schicht zurückgehalten werden, behauptet die Behörde, sie bewahre die für eine ethische Polizeiarbeit unerlässliche „Menschlichkeit auf dem Laufenden“.

Kurt Martin, amtierender Superintendent des Edmonton Police Service, betonte die Absicht der Behörde, Nutzen und bürgerliche Freiheiten in Einklang zu bringen.

„Wir wollen wirklich die Rechte des Einzelnen und seine Datenschutzinteressen respektieren.“

Inside „Silent Mode“: Technische Sicherheitsvorkehrungen und Einschränkungen

Architektonisch unterscheidet sich das Edmonton-Pilotprojekt erheblich von den „Live Alert“-Systemen, die derzeit in London und anderen britischen Gerichtsbarkeiten eingesetzt werden. In solchen Umgebungen erhalten Beamte sofort Benachrichtigungen über potenzielle Übereinstimmungen, eine Praxis, die häufig durch strengere Gesichtserkennungsgesetze reguliert werden soll.

In Edmonton läuft die Gesichtserkennungsmaschine passiv im Hintergrund. Beamte auf der Straße werden nicht über Übereinstimmungen benachrichtigt, und alle „Ähnlichkeitsmeldungen“ werden nachträglich von einer speziellen Einheit im Polizeipräsidium bearbeitet.

Nur die schwerwiegendsten Bedrohungen ins Visier zu nehmen, ist ein Kernbestandteil des Pilotprojekts. Ann-Li Cooke, Direktorin für verantwortungsvolle KI bei Axon, klärte den Umfang der Beobachtungsliste.

„Wir möchten wirklich sicherstellen, dass dies der Fall ist.“ gezielt, sodass es sich dabei um Personen mit schwerwiegenden Straftaten handelt.“

Diese strikte „Mensch auf dem Laufenden“-Anforderung soll verhindern, dass algorithmische Fehler zu unrechtmäßigen Festnahmen vor Ort führen.

Axon gibt an, das System mit einer „Privatsphäre an erster Stelle“-Logik entwickelt zu haben, bei der Präzision ausdrücklich Vorrang vor Rückruf hat. Technisch gesehen ist der Algorithmus darauf abgestimmt, Fehlalarme – Fälle, in denen eine unschuldige Person als Verdächtiger gekennzeichnet wird – zu minimieren, selbst wenn dieser konservative Schwellenwert dazu führt, dass tatsächliche Ziele verfehlt werden. Diese Konfiguration ist eine bewusste technische Absicherung gegen die Bürgerrechtsrisiken, die häufig mit biometrischem Echtzeit-Scannen einhergehen.

Funktionell fungiert das System eher als Hochgeschwindigkeitsfilter als als Schleppnetz. Es ist so programmiert, dass es ausschließlich nach gefährlichen Straftätern oder vermissten Personen sucht und dabei die breite Öffentlichkeit ignoriert. Jeder Gesichtsscan, der keine hochzuverlässige Übereinstimmung mit der lokalisierten Beobachtungsliste ergibt, wird sofort aus dem System gelöscht, wodurch die Ansammlung biometrischer Daten von Bürgern verhindert wird, die nicht an strafrechtlichen Ermittlungen beteiligt sind.

Axon gibt außerdem an, sich einer „sehr geringen Toleranz“ für Fehlidentifizierungen verpflichtet zu haben. Ingenieure haben das System so abgestimmt, dass Übereinstimmungen mit geringer Konfidenz verworfen werden, selbst wenn dadurch tatsächliche Ziele verfehlt werden. Dieser Kompromiss soll unschuldige Bürger vor Fehlalarmen schützen.

Die Richtlinien zur Datenaufbewahrung für das Pilotprojekt sind ebenso streng. Nicht übereinstimmende biometrische Daten werden sofort nach der Verarbeitung verworfen, das zugrunde liegende Videomaterial bleibt jedoch gemäß der standardmäßigen EPS-Richtlinie erhalten. Superintendent Martin bekräftigte, dass die Technologie weiterhin dem Urteil der Beamten unterliegt. „Diese Technologie wird die menschliche Komponente der Ermittlungsarbeit nicht ersetzen.“

Marktrealitäten: Warum Axon jetzt umzieht

Der Zeitpunkt dieses Pilotprojekts korreliert mit dem erheblichen finanziellen und Wettbewerbsdruck, dem der in Scottsdale ansässige Technologieriese ausgesetzt ist.

Die Aktienbewertung von Axon ist im letzten Monat (November-Dezember 2025) um etwa 30 % gesunken, was die Dringlichkeit erhöht, Neues zu beweisen Einnahmemöglichkeiten inmitten der der jüngsten Aktienvolatilität.

Konkurrenten drängen bereits in den biometrischen Bereich. Motorola Solutions steht vor einer Sammelklage im Zusammenhang mit biometrischen Datenschutzstreitigkeiten im Zusammenhang mit seinen „FaceSearch“-Funktionen, trotz öffentlicher Behauptungen, auf proaktive Identifizierung zu verzichten.

Globale Normalisierung ist ebenfalls ein Faktor. Da das britische Innenministerium die Live-Gesichtserkennung aggressiv ausweitet, scheint der nordamerikanische Markt zunehmend ein Ausreißer in seinem Widerstand zu sein. Der Einsatz dieser Tools bleibt jedoch umstritten.

Temitope Oriola, Professor für Kriminologie an der University of Alberta, beschrieb die Lage der Stadt Rolle in diesem globalen Experiment. „Edmonton ist ein Labor für dieses Tool. Es könnte sich durchaus als Verbesserung herausstellen, aber das wissen wir nicht genau.“

Letztendlich ist das Ziel ein Wiedereintritt in den US-amerikanischen Markt. Die Nachfrage der Polizei nach biometrischen Werkzeugen ist trotz einer Vielzahl lokaler Verbote in Städten wie San Francisco und Boston weiterhin hoch.

Letztendlich ist es für die Sicherstellung der Zustimmung der Öffentlichkeit erforderlich, über theoretische Versprechungen hinaus nachweisbare Ergebnisse zu erzielen. Rechtswissenschaftler und Ethiker argumentieren, dass die tiefgreifenden Risiken, die mit der biometrischen Überwachung verbunden sind und von der Beeinträchtigung der Privatsphäre bis hin zu möglichen Voreingenommenheiten reichen, zu hoch sind, um den Einsatz ohne unwiderlegbare Beweise für die Wirksamkeit zu rechtfertigen.

Die Beweislast liegt nun bei den Strafverfolgungsbehörden, um nachzuweisen, dass diese Tools klare, quantifizierbare Sicherheitsvorteile bieten, die ihre gesellschaftlichen Kosten deutlich überwiegen.

Categories: IT Info