Nowojorski Metropolitan Transportation Authority (MTA) idzie naprzód z planami zintegrowania sztucznej inteligencji z rozległą siecią kamer metra w celu zidentyfikowania „problematycznego zachowania” na platformach, zgodnie z szefem bezpieczeństwa agencji.
Michael Kemper Michael Kemper, Michael Kemper, stwierdził, że celem jest „przewidywalne zapobieganie”, wykorzystując AI AII AI Stage z potencjalnymi problemami policyjnymi,
Kemper potwierdził, że MTA aktywnie współpracuje z firmami technologicznymi, stwierdzając, że AI jest przyszłością… pracujemy dosłownie w tej sprawie, a widzą, co jest na rynku, w prawej stronie jest to, co jest na rynku, w prawej stronie, na rynku, w prawej stronie, na rynku, w prawej stronie, na rynku, w prawej stronie, na rynku, w prawej stronie, w prawej stronie, na rynku, w prawym miejscu, na rynku, na rynku. Możliwe, co działałoby w systemie metra „Aby automatycznie ostrzegać NYPD„ Jeśli ktoś działa irracjonalnie. “
a Twierdzenie: „Technologia badana przez MTA ma na celu identyfikację zachowań, a nie ludzi” i potwierdzona technologia rozpoznawania twarzy nie będzie stosowana. To nie jest pierwsze zastosowanie AI Analytics przez MTA; W 2023 r. Agencja korzystała z oprogramowania z Awaiait do analizy materiału aparatu wyłącznie do każda platforma metra i samochodu kolejowego , a Kemper zauważył, że Kemper zauważa, że Kemper zauważa obecnie 40% kamerów platformowych. Rząd federalny wywierał również presję na początku tego roku, z prośbą o szczegółowy plan bezpieczeństwa metra od agencji.
Nadzór AI spełnia obawy dotyczące wolności obywatelskich
Grupy wolności obywatelskich szybko potępiły tę propozycję. „Korzystanie z sztucznej inteligencji-technologii notorycznie niewiarygodnej i stronniczej-w celu monitorowania naszych metrów i wysyłania ryzyka policji zaostrzania tych różnic i tworzenia nowych problemów”, stwierdził Nowojorski Związek Wolności Obywatelskich (NYCLU) Starszy doradca polityczny Justin Harrison, dodając: „Życie w zamiataniu stanu nadzoru nie powinno być ceną, aby nie było bezpieczne. Nadzór. „
Projekt nadzoru technologii nadzoru (S.T.O.P.) powtórzył te obawy, nazywając plan polegający na„ przerażającej pseudonauce “, który może„ upiec w uprzedzeniu i kryminalizować ciała Bipoc New Yorker “. s.t.o.p. zauważył że Kemper potwierdził, że MTA współpracuje z prywatnymi firmami i dostarcza im danych dotyczących nadzoru MTA do rozwoju.
Podczas gdy MTA zaprzecza stosowaniu rozpoznawania twarzy w tej analizie behawioralnej, prawo stanu Nowy Jork minęło już około kwietnia 2024 r. Nie jest jasne, czy to prawo ogranicza NYPD, która wykorzystuje rozpoznawanie twarzy od 2011 r. I uzyskuje dostęp do kanałów MTA, od zastosowania takiej technologii do tego samego materiału. Ten nowy plan AI jest zgodny z innymi najnowszymi wdrożeniami technologicznymi, takimi jak pilot NYPD skanerów wykrywania broni z zasilaniem AI na stacjach od lipca 2024 r., Który również spotkał się z krytyką NYCLU.
[Eksploracja MTA Surveillance AI AI AI AI AI AI AI. Wraz z rosnącym wykorzystaniem w transporcie publicznym na całym świecie do zastosowań takich jak liczba pasażerów, wykrywanie zagrożeń i identyfikacja sprzeczek lub przedmiotów bez opieki. Obejmuje to również potencjalne partnerstwa z głównymi firmami technologicznymi, takimi jak Google i Amazon, które poruszają się po własnych kontrowersjach.
Obie firmy napotykały intensywną krytykę projektu Nimbusa, 1,2 miliarda dolarów umowy z chmurą i AI z rządem Izraelskim. Grupy praw człowieka i pracownicy argumentowali, że projekt umożliwił nadzór i nadużycia praw, powołując się na warunki umowy bardzo korzystne dla Izraela i brak przejrzystości. The eff stwierdził , „Przezroczystość nie jest luksusem, gdy prawa człowieka są zagrożeni-to etyczne i prawne zobowiązanie.” Grupy pracowników, takie jak brak technologii dla apartheidu: „Amazon i Google umożliwiają pierwsze na świecie ludobójstwo zasilane przez AI za pośrednictwem projektu Nimbusa,„ prowadząc do
Kontrowersje te podkreślają potencjalne pułapki dużych systemów nadzoru, w tym zagrożenia dla bezpieczeństwa danych, jak wykazano wyciek danych z kwietnia 2025 r., Który ujawnił miliony zrzutów ekranu pracowników. Obowiązują również obawy dotyczące ponownego przeznaczenia sztucznej inteligencji, podobnie jak osoby podniesione na temat systemu interwencji w miejscu pracy w miejscu AI. Ponadto domniemane użycie sztucznej inteligencji przez Departament Efektywności Rządowej (DOGE) w celu monitorowania pracowników federalnych stanowi niedawny przykład rządowego nadzoru podnoszącego alarmy etyczne. Środowisko dla takiej wspólnoty. W lutym Google formalnie usunął kluczowe ograniczenia z zasad AI, eliminując wcześniejsze zakazy opracowywania „broni lub innych technologii, których głównym celem lub wdrożeniem jest powodowanie lub bezpośrednio ułatwianie obrażeń ludzi” oraz „technologii, które gromadzą lub wykorzystują informacje o naruszeniu przez na granicy międzynarodowych norm. Drone AI Initiative. Przywództwo Google opracowało zmianę jako zgodne z wartościami demokratycznymi i bezpieczeństwem narodowym, stwierdzając za pośrednictwem
Ta strategiczna zmiana pozwala Google konkurować bardziej bezpośrednio z firmami takimi jak Microsoft i Palantir o kontrakty obronne, odzwierciedlając szerszy wzór branży, w którym giganci technologiczne zwiększają zaangażowanie w projekty bezpieczeństwa rządu. Zmienianie zasad i trendów branżowych
opóźnić się. Polityka AI stanu Nowy Jork ogłoszona przez gubernatora Hochula w styczniu 2024 r. Zawiera wytyczne, ale nie formalnie nie wiąże władz takich jak MTA , które są tylko „mocno zachęcane do tego, aby je przyjąć. Wysiłki takie jak proces Hiroshima G7 i UE AI ACT, wraz z US NIST AI RIKALIZACJI , Oferuj zasady, ale brak specyfikacji dla aplikacji jak publiczne scenę. Ta luka regulacyjna pozostawia znaczącą swobodę MTA i jej partnerom technologicznym. MTA wykazało chęć przyjęcia AI, niedawno ukończenie udanego pilota z Google Public Sector przy użyciu AI do wykrywania defektów toru . W miarę jak agencja rozwija się z AI w celu monitorowania behawioralnego, pytania dotyczące prywatności danych, uprzedzeń algorytmicznych, przejrzystości i ogólnej skuteczności w zwiększaniu bezpieczeństwa bez uszczerbku dla wolności obywatelskich pozostają kluczowe dla debaty.