Në një kthesë të dukshme strategjike, Meta po ndërton mbrojtje të intimitetit për tiparet e ardhshme të inteligjencës artificiale në WhatsApp duke adoptuar drejtpërdrejt parimet nga sistemi privat i Cloud Cloud (PCC) i Apple. Njoftoi përmes një meta inxhinieri në blog, whatsapp”përpunimi privat”synon të lejojë përdoruesit të përdorin AI për detyrat si përmbledhje të bisedave pa meta ose whatsapp, i detajuar për platformën e vet”Apple Intelligence”. Sfondi gjithashtu përfshin raportohet se bisedimet e mollës dhe meta rreth një partneriteti të mundshëm të AI në mesin e 2024, duke iu kushtuar për shkak të shqetësimeve të Apple-it mbi Mete, mbi Meta Cascy. Standardet. Meta deklaroi qartë qëllimin e tij:”Përpunimi privat do t’u lejojë përdoruesve të përdorin veçori të fuqishme të AI, duke ruajtur premtimin thelbësor të intimitetit të WhatsApp, duke siguruar që askush përveç juve dhe njerëzve me të cilët po flisni mund të qaseni ose të ndajnë mesazhet tuaja personale, madje as meta apo whatsapp.”Kompania përshkroi parimet thelbësore për veçoritë që përballen me përdoruesit: opsionaliteti, transparenca dhe kontrolli i përdoruesit. Sistemi përdor harduer konfidencial informatikë, mjedise të ekzekutimit të besuar posaçërisht (TEE) që funksionojnë si makina virtuale konfidenciale (CVM), së bashku me GPU-të konfidenciale të modalitetit të llogaritjes. Kur një përdorues i WhatsApp zgjedh të përdorë një veçori AI që kërkon përpunimin e cloud, sistemi së pari merr kredencialet anonime për të verifikuar origjinalitetin e klientit pa zbuluar identitetin.
Para përpunimit, pajisja e përdoruesit krijon një lidhje të sigurt direkt me TEE duke përdorur vërtetimin në distancë dhe sigurinë e shtresës së transportit (RA-TLS). Vërtetimi në distancë lejon që pajisja të verifikojë kriptografikisht që TEE po ekzekuton softuerin e pritshëm, të paharruar, duke kontrolluar matjet e tij kundër një libri të palëve të treta para se të transmetojë të dhëna. Brenda CVM është pa shtet-të dhënat e mesazhit nuk mbahen pasi të përfundojë detyra e AI. Kjo përputhet me kërkesat e brendshme të deklaruara të Meta për”përpunimin pa shtet dhe sigurinë përpara”dhe”jo-synueshmërinë”, duke siguruar që”një sulmues nuk duhet të jetë në gjendje të synojë një përdorues të veçantë për kompromis pa u përpjekur të komprometojë të gjithë sistemin privat të përpunimit.”Zbuluar si pjesë e Apple Intelligence në WWDC në qershor 2024. Apple krijoi PCC për të zgjatur aftësitë e tij kryesisht në pajisje AI për detyra më komplekse, duke përdorur serverë me porosi të silikonit Apple të pajisur me karakteristika sigurie si Secure Enclave dhe duke drejtuar një sistem operativ të specializuar, të ngurtësuar. Apple gjithashtu punëson OHTTP dhe siguron që të dhënat e përpunuara në serverët PCC janë të efektshme dhe nuk përdoren për trajnimin e modelit. Meta është zotuar të vërë në dispozicion binarin e saj të imazhit CVM për studiuesit e sigurisë për të inspektuar dhe planifikon të botojë kodin burimor për komponentët kryesorë, siç është verifikimi i vërtetimit. Kompania gjithashtu po zgjeron zyrtarisht Programi i Bounty bug Për të mbuluar përpunimin privat.
Kjo bën jehonë përpjekjet e veta të Apple; Në Tetor 2024, Apple hapi infrastrukturën e saj PCC për studiuesit përmes një mjedisi hulumtues virtual, duke ofruar shpërblime deri në 1 milion dollarë për të gjetur të meta serioze të sigurisë, duke vendosur një bar të lartë për stimuj transparence. Zbatimi i Meta ka të ngjarë të varet shumë nga transparenca e premtuar dhe kontrolli i studiuesve të pavarur të sigurisë. Kompania synon t’u sigurojë përdoruesve opsionalitetin dhe kontrollin, duke përfshirë mënyrat për të parandaluar hyrjen e mesazheve për veçoritë e AI në biseda veçanërisht të ndjeshme duke përdorur WhatsApp-i i përparuar i bisedës . Duke miratuar një model të lidhur me markën e përqendruar në intimitetin e Apple dhe duke angazhuar auditime të jashtme, Meta po punon qartë për të siguruar përdoruesit se komoditeti i AI në WhatsApp nuk do të vijë me koston e bisedave të tyre private.