A Meta csütörtökön megerősítette, hogy elbocsátja a kockázati és megfelelőségi osztályán dolgozó, nem titkolt számú alkalmazottat, és helyettük mesterséges intelligencia-vezérelt rendszert állít fel az adatvédelmi felülvizsgálatok kezelésére, amelyeket a Federal Trade Commission (FTC) mérföldkőnek számító egyezménye írt elő.
A vállalat a hatékonyságra való törekvésként megfogalmazott lépéssel komoly kérdéseket vet fel azzal kapcsolatban, hogy az automatizálás képes-e megfelelően helyettesíteni az emberi adatok összejátszását, illetve az emberi adatok esetleges védelmét.-val szabályozó hatóságokkal.
Az 5 milliárd dolláros bírságtól a mesterséges intelligencia felügyeletéig
Egy mérföldkőnek számító szabályozási egyezségből született, a feloszlatás alatt álló csapatot azért hozták létre, hogy kielégítse az FTC követeléseit a közbizalom kolosszális megsértése után.
2019-ben a Metát 5 milliárd dolláros történelmi bírsággal sújtották a Cambridge Analytica adatvédelmi botrányában játszott szerepéért, ahol 87 millió felhasználó adatait jogtalanul gyűjtötték be. reklámozás.
A megegyezés alapvető feltétele egy robusztus, ember által vezetett kockázati szervezet létrehozása volt, amelynek feladata minden új termék és funkció adatvédelmi kockázatainak felmérése és dokumentálása a bevezetés előtt.
Évekig ez a csoport belső őrzőként szolgált, az emberi felelősségre vonhatóság egy rétegeként, amelynek célja a múltbeli kudarcok megismétlődésének megakadályozása volt. Most ezt az emberközpontú folyamatot automatizálják.
Michel Protti, a Meta adatvédelmi és megfelelőségi tisztviselője szerdán bejelentette a belső elbocsátásokat, jelezve, hogy a vállalat hogyan viszonyul a legkritikusabb szabályozási kötelezettségeihez.
Ez az elmozdulás hatékonyan kiszervezi a jogilag kötelező emberi megítélést egy gépre.
E Drive orhficiy Gamble?
A Metában a hivatalos indoklás a sebességre és az érettségre összpontosít. A Meta azzal érvel, hogy megfelelőségi programja mára már elég kifinomult ahhoz, hogy automatizálja a rutinellenőrzéseket, felszabadítva a humán szakértőket, hogy összetettebb és újszerűbb kihívásokra összpontosíthassanak.
A vállalat szóvivője kijelentette: „Rutinszerűen végzünk szervezeti változtatásokat, és átszervezzük csapatunkat, hogy tükrözze programunk érettségét és gyorsabban tudjon újítani, miközben betartja a magas megfelelőségi szabványokat.”
Azzal érvelt, hogy az előre meghatározott szabályok automatizálással történő alkalmazása növeli a megbízhatóságot és csökkenti az emberi hiba lehetőségét a ratifikált döntéseknél.
Az ilyen gondos megfogalmazás azonban ütközik a korábbi jelentésekkel és a növekvő külső szkepticizmussal. 2025 májusában egy vizsgálat először felfedte a Meta azon tervét, hogy a mesterséges intelligencia a termékkockázat-értékelések akár 90%-át is kezelje, ami azonnali aggodalmat váltott ki az adatvédelmi védelmezők körében.
A kritikusok azzal érvelnek, hogy egy ilyen kritikus funkció automatizálása veszélyes szerencsejáték, különösen akkor, ha az árnyalt és gyakran előre nem látható kockázatokkal foglalkozik, amelyek megváltoztatnák az új technológiákhoz kapcsolódó elnevezést. elkerülhetetlenül gyengébb ellenőrzéshez és veszélyesebb eredményekhez vezet. „Amennyiben ez a folyamat funkcionálisan azt jelenti, hogy több dolog indul gyorsabban, kevésbé szigorú ellenőrzéssel és ellenállással, ez azt jelenti, hogy nagyobb kockázatot jelent.”
Ezt az érzést osztotta Zvika Krieger, a cég másik korábbi igazgatója is, aki arra figyelmeztetett, hogy „ha túl messzire tolja, akkor elkerülhetetlenül a felülvizsgálat minősége és az aggodalom következményei lesznek.” egy sebességre optimalizált automatizált rendszer figyelmen kívül hagyhatja azokat a kontextuális kockázatokat – mint például a kiszolgáltatott fiatalokat érintő vagy félretájékoztatást –, amelyek azonosítására az emberi felülvizsgálókat képezik, ami aláássa az FTC megbízatásának éppen a célját.
A szélesebb mesterségesintelligencia-megrázkódtatás része a technikákon
. ezek a legújabb lépések egy kaotikus, az egész vállalatra kiterjedő mesterségesintelligencia-átalakításban, amely feltárja, hogy a vezetői csapat küzd a stabil talaj megtalálásáért.
A megszorításokról szóló hír egy nappal azután érkezett, hogy a vállalat mintegy 600 alkalmazottat bocsátott el mesterséges intelligencia részlegéből, ez a döntés felerősítette a kibontakozó „belső polgárháborút” a vállalat titkos laboratóriumi stratégiája miatt.
labor, az a. elhelyezésére létrehozott Az orvvadász tehetségek „álomcsapata”, megosztó kétszintű rendszert hozott létre, és már korábban is tapasztaltak nagy horderejű lemondásokat.
Az ostorcsapást kiváltó átszervezés és belső viszályok arra utalnak, hogy a Meta egyik problémacsoportot a másikra cseréli, ami aláássa azt a stabilitást, amelyet a tehetségek és hardverek szabályozására irányuló pazar kiadások révén meg akart szerezni.
Szükségszerűség miatt a legutóbbi elbocsátások azt mutatják, hogy még a törvényileg előírt funkciók sem mentesek a vállalat viharos AI-first stratégiájával szemben.
A Szilícium-völgyben hasonló narratíva bontakozik ki, mivel a mesterséges intelligencia a munkaerő-csökkentés általános indokává válik. Más technológiai óriáscégek a mesterséges intelligencia által elért hatékonyságra mutatnak rá a munkaerő-felvétel leállításának és elbocsátásának magyarázatára.
Marc Benioff, a Salesforce vezérigazgatója például nemrégiben at{101} bejelentette, hogy a technológia növekvő képességei miatt 4000 ügyfélszolgálati szerepkör megszüntetését tervezi. „Láttuk, hogy az általunk kezelt támogatási ügyek száma csökken, és többé nincs szükségünk a támogatási mérnöki szerepkörök aktív betöltésére.”
A nagy pénzügyi cégek követik a példát. A JPMorgan Chase pénzügyi vezetője a közelmúltban megerősítette, hogy a menedzsereket arra utasították, hogy bizonyos területeken leállítsák a munkaerő-kölcsönzést, mivel a bank elindítja a bérbeadást. AI kezdeményezések, amelyek kifejezetten összekapcsolják a technológiát a létszámnövekedés lassításával.
Ez a tendencia az egész iparágban az MI-t nemcsak az innováció eszközeként, hanem a jelentős vállalati szerkezetátalakítás és költségcsökkentés eszközeként is pozícionálja.
A Meta számára az FTC által megbízott ellenőrző csapat mesterséges intelligenciára váltása nagy tétet jelent. A vállalat technológiára támaszkodik, hogy egyszerűsítse egyik legérzékenyebb jogi kötelezettségét.
Bár a lépés nagyobb hatékonysággal kecsegtet, azzal a kockázattal jár, hogy alááshatja a felhasználók bizalmát, és új ellenőrzést von maga után a szabályozók részéről, akik az emberi felügyeletet először is felhatalmazták.