A New York-i Metropolitan Transportation Authority (MTA) tovább halad a mesterséges intelligencia integrálására irányuló terveivel, és az ügynökség biztonsági vezérigazgatója szerint a platformokon való „problematikus viselkedés” azonosítása a platformon. href=”https://gothamist.com/news/mta-wants-ai-to-flag-problematic-behavior-in-nyc-subways”Target=”_ üres”> Jelentések New York City hírportál, a Gothamist. A kezdeményezés, amely egy szélesebb körű biztonsági lendület része, amelyet egy április 28-i bizottsági ülésen mutattak ki, azonnal felhívta a kritikát az algoritmikus elfogultsággal és a kormányzati megfigyeléssel kapcsolatos polgári szabadságjogok támogatói részéről. Munka a metrórendszerben”a NYPD automatikus figyelmeztetésére”Ha valaki irracionálisan cselekszik.”

Az MTA szóvivője hangsúlyozta a rendszer fókuszát, azt állítva:„ Az MTA által feltárt technológiát a viselkedés azonosítására tervezték, nem pedig az embereket, és a megerősített arcfelismerési technológiát nem alkalmazzák. Ez nem az MTA első használata az AI Analytics; 2023-ban az ügynökség az Awaait szoftvert használt a kamera felvételeinek elemzéséhez, a számú viselkedés-kimutatás, a részt vevők azonosítása nélkül. Az MTA és Kathy Hochul kormányzó által 2021 óta a biztonsági kezdeményezést, amelyet a nagyprofilja miatt a közvélemény aggodalma okoz, “_ üres”>”_ üres”> minden metróplatformot és vonzó autót, a Kemper-t, a platform kameráinak a személyzet által, minden metróplatformon és vonzó személyzetét. A szövetségi kormány az év elején is nyomást gyakorolt, és részletes metróbiztonsági tervet kért az ügynökségtől. „A mesterséges intelligencia-egy olyan technológia használata, amely hírhedten megbízhatatlan és elfogult-a metróink nyomon követésére és a rendõrségi kockázatokba való küldetésre, amelyek súlyosbítják ezeket az egyenlőtlenségeket és új problémákat okoznak”-mondta a New York-i Polgári Jogi Szövetség (NYCLU) vezető politikai tanácsadója, Justin Harrison, és hozzáteszi: „A közösségekből származó közönségektõl nem szabad az omnfektusból származni. Felügyelet.”

A felügyeleti technológiai felügyeleti projekt (S.T.O.P.) visszatükrözte ezeket az aggodalmakat, és a tervet„ hátborzongató álnévre “támaszkodva, amely valószínűleg„ torzításban süt és kriminalizálja a Bipoc New Yorker testét “. S.T.O.P. Megjegyezte , hogy Kemper elismerte, hogy az MTA a magánvállalatokkal együttműködik, és MTA megfigyelési adatokat szolgáltat a fejlesztéshez. Nem világos, hogy ez a törvény korlátozza-e a NYPD-t, amely 2011 óta használja az arcfelismerést, és hozzáfér az MTA-hírcsatornákhoz, az ilyen technológiák alkalmazását ugyanabba a felvételre. Ez az új AI-terv követi a közelmúltbeli technológiai telepítéseket, mint például a NYPD AI-hajtású fegyverkezelő szkennerek pilóta az állomásokon, 2024. júliusától kezdve, amely szintén a NYCLU kritikájával szembesült. számlálás, veszély észlelése és a váltságok vagy felügyelet nélküli elemek azonosítása. Ez magában foglalja a potenciális partnerségeket is olyan nagy technológiai vállalatokkal, mint a Google és az Amazon, akik navigálnak a saját vitájukban. Az emberi jogi csoportok és az alkalmazottak azzal érveltek, hogy a projekt lehetővé tette a megfigyelést és a jogok megsértését, hivatkozva a szerződéses feltételekre, amelyek rendkívül kedvezőek Izrael számára és az átláthatóság hiányát. A eff. Az olyan munkavállalói csoportok, mint a No A Apartheid technológiája, azt állították: „Az Amazon és a Google lehetővé teszik a világ első AI-meghajtású népirtását a NIMBUS projekten keresztül”, amely a

Ez a stratégiai váltás lehetővé teszi a Google számára, hogy közvetlenebben versenyezzen olyan cégekkel, mint a Microsoft és a Palantir a védelmi szerződésekhez, tükrözve egy szélesebb iparági mintát, ahol a technológiai óriások növelik a kormány biztonsági projektjeiben való részvételt. lemaradjon. Hochul kormányzó által 2024 januárjában bejelentett New York-i állami AI-politika iránymutatásokat nyújt, de nem formálisan köti össze az MTA -ot, amelyek csak az „erősen bátorítják”. Az olyan erőfeszítések, mint a G7 Hirosima folyamata és az EU AI törvény, valamint a USA NIST AI kockázatkezelési keretrendszer , Az alapelvek hiánya, de az alkalmazásokhoz hasonlóan az alkalmazásokhoz hasonló végrehajtás. Ez a szabályozási rés jelentős mérlegelési jogkörrel rendelkezik az MTA és technológiai partnerei számára. Az MTA hajlandó elfogadni az AI-t, és nemrégiben befejezte a sikeres pilótát a Google nyilvános szektorával az AI segítségével a nyomkövetési hibák észlelésére . Ahogy az ügynökség előrehalad az AI-vel a viselkedésfigyelés céljából, az adatok magánéletével kapcsolatos kérdések, az algoritmikus elfogultság, az átláthatóság és az általános hatékonyság a biztonság fokozása nélkül, a polgári szabadságjogok veszélyeztetése nélkül.

Categories: IT Info