Autoritatea Metropolitan Transport (MTA) din New York (MTA) avansează cu planurile de integrare a inteligenței artificiale cu rețeaua sa extinsă de camere de metrou pentru a identifica „comportamentul problematic” pe platforme, potrivit șefului de securitate al agenției.
ofițerul principal de securitate al MTA, Michael Kemper, a declarat că obiectivul este „predicția predictivă”, folosind A href=”https://gothamist.com/news/mta-wants-ai-to-flag-problematic-behavior-in-nyc-subways”target=”_ blank”> relatează site-ul de știri din New York City Gothamist. Inițiativa, parte dintr-o apăsare mai largă de siguranță dezvăluită în cadrul unei reuniuni a Comitetului din 28 aprilie, a atras imediat critici din partea libertăților civile avocații preocupați de prejudecata algoritmică și de extinderea supravegherii guvernului.
Kemper a confirmat că MTA colaborează activ cu companiile de tehnologie, afirmând că „AI este viitorul… noi lucrăm cu companiile de tehnologie literalmente în acest moment și văzând ceea ce este acolo în acest moment… fezabil, ce ar funcționa în sistemul de metrou „pentru a avertiza automat NYPD„ dacă cineva acționează în mod irațional. „Tehnologia explorată de MTA este concepută pentru a identifica comportamente, nu oameni”, iar tehnologia de recunoaștere facială confirmată nu va fi folosită. Aceasta nu este prima utilizare a MTA a AI Analytics; În 2023, agenția a folosit software-ul de la AwaAit pentru a analiza filmările camerei doar la Count Fare Evasion Instanțe , fără a identifica persoanele implicate. a larger safety initiative championed by the MTA and Governor Kathy Hochul since 2021, driven by public concern over high-profile, unprovoked attacks in the subway system. Această apăsare a văzut deja camere instalate pe Fiecare platformă de metrou și mașina de tren , Kemper notând aproximativ 40% din camerele de platformă sunt în prezent monitorizate live de către personal. Guvernul federal a aplicat, de asemenea, presiune la începutul acestui an, solicitând un plan detaliat de siguranță a metroului de la agenție.
AI Supravegherea îndeplinește preocupările privind libertățile civile
Grupurile de libertăți civile au fost repede pentru a denunța rapid propunerea. „Folosirea inteligenței artificiale-o tehnologie notoriu nesigură și părtinitoare-pentru a ne monitoriza metroul și pentru a trimite riscuri de poliție care agravează aceste disparități și creează noi probleme”, a declarat New York Civil Liberties Union (NYCLU), avocatul principal al politicii, Justin Harrison, adăugând: „Trăirea într-un stat de supraveghere nu ar trebui să fie prețul pe care îl plătim. Supraveghere.”
Proiectul de supraveghere a tehnologiei de supraveghere (S.T.O.P.) a răsunat aceste preocupări, apelând la planul bazat pe„ pseudosciența înfiorătoare “care este probabil să„ coace în prejudecată și să criminalizeze organismele Bipoc New Yorker “. s.t.o.p. remarcat că Kemper a recunoscut că MTA este parteneriat cu firme private și le oferă date de supraveghere a MTA pentru dezvoltare.
În timp ce MTA neagă să folosească recunoașterea facială pentru această analiză comportamentală, o lege a statului din New York a adoptat în jurul lunii aprilie 2024, deja interzice MTA de la utilizarea tehnologiei biometrice pentru aplicarea tal. Nu este clar dacă această lege restricționează NYPD, care a folosit recunoașterea facială din 2011 și accesează fluxurile MTA, de la aplicarea unei astfel de tehnologii la aceeași înregistrare. This new AI plan follows other recent tech deployments, like the NYPD’s pilot of AI-powered weapons detection scanners in stations starting July 2024, which also faced NYCLU criticism.
[embedded content]
AI Surveillance in Government Use and Big Tech Involvement
The MTA’s exploration of AI surveillance aligns cu utilizarea din ce în ce mai mare în transportul public la nivel global pentru aplicații precum numărarea pasagerilor, detectarea pericolelor și identificarea altercațiilor sau a obiectelor nesupravegheate. De asemenea, implică potențiale parteneriate cu marile companii de tehnologie precum Google și Amazon, care își navighează propriile controverse.
Ambele firme s-au confruntat cu critici intense asupra proiectului Nimbus, un contract de cloud de 1,2 miliarde de dolari și AI cu guvernul israelian. Grupurile pentru drepturile omului și angajații au susținut că proiectul a permis abuzurile de supraveghere și drepturi, invocând condiții contractuale extrem de favorabile Israelului și lipsa de transparență. ef a declarat , „Transparența nu este un lux când drepturile omului sunt în pericol-este o obligație etică și legală.” Grupuri de angajați, precum No Tech pentru apartheid, au afirmat: „Amazon și Google permit primul genocid al AI-urât al lumii prin intermediul proiectului Nimbus,„ conducând la peste 50 de lucrări de lucru pe Google Urmări Proteste.
Aceste controverse evidențiază potențialele capcane ale sistemelor de supraveghere la scară largă, inclusiv riscurile de securitate a datelor, așa cum s-a demonstrat de scurgerea de date WorkComposer din aprilie 2025, care au expus milioane de capturi de ecran ale angajaților. Se aplică și îngrijorările cu privire la AI pentru control, similar cu cele ridicate cu privire la sistemul de intervenție la locul de muncă al Spot AI. În plus, presupusa utilizare a AI de către Departamentul de Eficiență a Guvernului (DOGE) pentru a monitoriza lucrătorii federali oferă un exemplu recent de supraveghere a AI guvernamentală care ridică alarme etice.
Schimbarea politicilor și tendințele industriei
Mediul pentru astfel de colaborări s-a schimbat și el. În februarie, Google a eliminat oficial restricțiile cheie din principiile sale AI, eliminând interdicțiile anterioare privind dezvoltarea „armelor sau a altor tehnologii al căror scop principal sau implementare este de a provoca sau facilita în mod direct rănirea oamenilor” și „tehnologii care adună sau folosește informații pentru supravegherea care încalcă norme acceptate la nivel internațional. Inițiativa Drone AI. Conducerea Google a încadrat schimbarea ca fiind aliniată la valorile democratice și la securitatea națională, afirmând printr-un Compania Blog Post că „companii, guvernări și organizații care împărtășesc aceste valori ar trebui să lucreze împreună pentru a crea ai care protejează pe oameni, guvernări și organizații care împărtășesc aceste valori, care ar trebui să lucreze împreună pentru a crea ai care protejează oameni, promoții și organizații care împărtășesc aceste valori, ar trebui să lucreze împreună pentru a crea ai care protejează pe oameni, promoții, care partajează creșterea globală, și aceste valori ar trebui să lucreze împreună pentru a crea a-a supports national security.”
This strategic shift allows Google to compete more directly with firms like Microsoft and Palantir for defense contracts, reflecting a wider industry pattern where tech giants are increasing involvement in government security projects.
Regulatory Gaps and Unanswered Questions
Despite the increasing use of AI in sensitive areas, clear regulatory frameworks rămâne în urmă. O politică AI de stat din New York, anunțată de guvernatorul Hochul în ianuarie 2024, oferă linii directoare, dar nu leagă formal autorul ca MTA , care este doar „încurajat puternic” pentru a adopta. Eforturi precum procesul Hiroshima al G7 și Legea UE AI, împreună cu SUA NIST AI Management Risk Management Framework , oferă principii, dar nu lipsesc o executare specifică pentru aplicații precum supravegherea publică. Acest decalaj de reglementare lasă o discreție semnificativă MTA și partenerilor săi tehnologici. MTA a demonstrat disponibilitatea de a adopta AI, completând recent un pilot de succes cu Sectorul public Google folosind AI pentru a detecta defecte de urmărire . Pe măsură ce agenția avansează cu AI pentru monitorizarea comportamentală, întrebări despre confidențialitatea datelor, prejudecățile algoritmice, transparența și eficacitatea generală în îmbunătățirea siguranței fără a compromite libertățile civile rămân centrale în dezbatere.