Figyelemre méltó stratégiai fordulatban a Meta a WhatsApp közelgő mesterséges intelligencia funkcióinak adatvédelmi védelmét építve az Apple Private Cloud Comput (PCC) rendszerének közvetlenül elfogadásával. Bejelentették a jelentése szerint az Apple és a Meta TOMA közötti privátokról szóló tárgyalások, amelyek szerint az almai privátok, az almai privátok között, akkor az almai privátok között nem állított tárgyalások. szabványok. A Meta egyértelműen kijelentette a célját: „A magánfeldolgozás lehetővé teszi a felhasználók számára, hogy kiaknázzák az erőteljes AI szolgáltatásokat, miközben megőrzik a WhatsApp alapvető adatvédelmi ígéretét, biztosítva, hogy senki és az emberek, akikkel beszélsz, senkihez nem férhetnek hozzá, vagy megoszthatják a személyes üzeneteit, még a Meta vagy a Whatsapp sem.”A vállalat felvázolta a felhasználó felé néző funkciók alapelveit: opcionális, átláthatóság és felhasználói vezérlés.

A magánfeldolgozáson belül

Meta mérnökei részletezték a felhasználói adatok védelmére tervezett többlépcsős folyamatot. A rendszer bizalmas számítástechnikai hardvereket, kifejezetten megbízható végrehajtási környezeteket (pólókat) használ, amelyek bizalmas virtuális gépekként (CVM-k) futnak, valamint a bizalmas számítási mód GPU-kkal együtt. Amikor a WhatsApp felhasználó úgy dönt, hogy felhőfeldolgozást igényel, akkor a rendszer először anonim hitelesítő adatokat szerez be az ügyfél hitelességének igazolására, anélkül, hogy az identitást feltárná. Feldolgozásként a felhasználó eszköze biztonságos kapcsolatot létesít közvetlenül a TEE-vel a távoli tanúsítás és a szállítási rétegek biztonsága (RA-TLS) felhasználásával. A távoli tanúsítás lehetővé teszi az eszköz számára, hogy kriptográfiailag ellenőrizze, hogy a TEE a várt, elavult szoftvert futtatja-e, ellenőrzi annak méréseit egy harmadik fél főkönyvével, mielőtt az adatokat továbbítja. A CVM hontalan-az üzenetadatokat az AI feladat befejezése után nem tartják meg. Ez összhangban áll a Meta kijelentett belső követelményeivel, hogy a „hontalan feldolgozás és az előremenő biztonság” és a „nem célszerűsíthető”, biztosítva: „a támadónak nem szabad egy adott felhasználót kompromisszum céljából megcélozni anélkül, hogy megpróbálta veszélyeztetni a teljes privát feldolgozó rendszert.” Az Apple Intelligence a WWDC-n 2024 júniusában. Az Apple létrehozta a PCC-t, hogy kibővítse annak elsősorban az eszközön lévő AI képességeit a bonyolultabb feladatokhoz, egyéni Apple szilícium-kiszolgálókkal, amelyek biztonsági funkciókkal vannak felszerelve, mint például a biztonságos enklávé és egy speciális, edzett operációs rendszer futtatása. Az Apple az OHTTP-t is alkalmazza, és biztosítja, hogy a PCC-kiszolgálókon feldolgozott adatok efemeralizálódjanak és nem használják a modellképzéshez. A META vállalta, hogy a CVM Image Binary számára elérhetővé teszi a biztonsági kutatók számára, hogy megvizsgálják, és azt tervezik, hogy a forráskódot közzéteszik a kulcsfontosságú elemekhez, például a hitelesítés ellenőrzéséhez. A vállalat hivatalosan kibővíti Bug Bounty Program A privát feldolgozás fedezésére.

Ez visszatükrözi az Apple saját erőfeszítéseit; 2024 októberében az Apple virtuális kutatási környezetben nyitotta meg PCC-infrastruktúráját a kutatók számára, akár 1 millió dollár jutalmat kínálva a súlyos biztonsági hibák megtalálásáért, magas rudat állítva fel az átláthatósági ösztönzők számára. A Meta végrehajtása valószínűleg nagyban függ az ígért átláthatóságtól és a független biztonsági kutatók ellenőrzésétől. A vállalat célja, hogy a felhasználók számára opcionálisan és ellenőrzéssel biztosítsa a felhasználókat, ideértve az AI szolgáltatásokhoz való hozzáférés megakadályozásának lehetőségeit a különösen érzékeny csevegéseknél a WhatsApp fejlett chat-magánéletével funkció használatával. Az Apple magánélet-központú márkájához és a külső ellenőrzések iránti elkötelezettséghez kapcsolódó modell elfogadásával a Meta egyértelműen azon dolgozik, hogy biztosítsa a felhasználókat, hogy a WhatsApp AI-kényelme nem kerül a magánbeszélgetések költségén.

Categories: IT Info