A növekvő vita mellett, hogy a technológiai óriások hogyan betakarítják az AI felhasználói adatait, az AI (AI2) Allen Intézet bevezetett egy potenciális megoldást. Új modell-architektúrájuk, a Flexolmo, lehetővé teszi a szervezetek számára, hogy az AI-vel együttmûködjenek az AI-nál, az AI fejlõdéshez való hozzáféréshez való hozzáféréshez szükséges érzékeny nyers adatok megosztása nélkül. A megközelítés célja, hogy elősegítse a biztonságos adat-együttműködést olyan területeken, mint az Healthcare és a Finance, ahol a magánélet kiemelkedően fontos. A modell kód és Kutatási papír nyilvánosságra hozható. Építészet az együttműködési AI-hez kompromisszum nélkül
A Flexolmo mögött meghúzódó alapvető innováció a szakemberek keverékének (MOE) építészetének használata. Ez a keret nem egyetlen monolit entitásként, hanem szakemberek csapataként kezeli az AI-t. Ez lehetővé teszi egy új, elosztott megközelítést a modellképzéshez, amely elkerüli a központi adattár szükségességét. Ez a fagyasztott nyilvános modell stabil alapot nyújt, egy közös nyelvet, amelyhez az összes eltérő szakértői modul képzett az igazításhoz. Ez a koordináció kulcsfontosságú a sikeres összevonáshoz költséges közös edzés nélkül. Az adattulajdonosok kisebb, speciális „szakértői” modulokat képezhetnek a saját privát adatkészletükön helyben, amikor ez megfelel nekik. Ez a moduláris kialakítás példátlan szintű rugalmasságot biztosít a közreműködők számára. Ez finom szemcsés ellenőrzést ad nekik az adatok felhasználásának, a hagyományos modellekben hiányzó jellemzők. Az adatok hozzáférésének finom szemcsés vezérlése a következtetések során.”Ez a képesség közvetlenül ellentmond a szokásos AI-képzés állandó jellegével. Az AI2 proaktív módon foglalkozott azzal, hogy az adatkivonat-támadási szimulációkat egy képzett Flexolmo szakértői modulon végezte.
Az eredmények ígéretesek voltak. A kutatók alacsony extrahálási arányt találtak, mindössze 0,7%-ot, ami azt sugallja, hogy nehéz egy értelmes mennyiségű magáninformáció visszanyerése a hozzájárult szakértői modulból. Noha nem nulla, ez az alacsony arány arra utal, hogy a szó szerinti memorizáció jelentősen enyhül. A legmagasabb biztonsági követelményekkel rendelkező szervezetek számára az AI2 megjegyzi, hogy a keret kompatibilis a Differential Adativity (DP)-vel, egy olyan technikával, amely matematikai „zajt” ad hozzá, hogy lehetetlenné tegye az adatok visszakövetését az egyénhez. Ez a biztonsági lehetőségek spektrumát kínálja, az adatok érzékenységétől függően. Az értékes, elrontott adatkészletek számára lehetőséget kínál a szélesebb AI ökoszisztéma gazdagítására anélkül, hogy arra kényszerítené az adattulajdonosokat, hogy feladják az irányítást, potenciálisan kinyitva a biztonságos és átlátható AI együttműködés új korszakát. Az iparágnak az adatgyakorlatok iránti bizalmi válsággal kell szembenéznie. Úgy tűnik, hogy az új építészet közvetlen válasznak tűnik a nagy technológiai cégeket elítélt jogi és etikai kihívásokra. A lépés felháborodást váltott ki az adatvédelmi képviselőktől.
A Google szintén a forró ülésen volt. A cég nemrégiben egy Android frissítést nyújtott be, amely lehetővé teszi a Gemini AI számára, hogy alapértelmezés szerint elérje a harmadik féltől származó alkalmazásokat, felülbírálva néhány felhasználó korábbi adatvédelmi beállításait. Ez azt követelte, hogy a Gemini hozzájárulás nélkül belépett a Google Docs magán dokumentumaira. Az ír DPC nyomása után 2024-ben kénytelen volt ideiglenesen leállítani az AI-képzést az EU felhasználói adatairól. A NOYB alapítója, Max Schrems adatvédelmi csoport elmondta a helyzetről: „A Meta sajtóközleménye kissé úgy olvasható, mint a„ kollektív büntetés “. Ha valamelyik európai ragaszkodik a jogainak, az egész kontinens nem kapja meg a fényes új termékeinket.”Ott a Meta globális magánélet vezetője, Melinda Claybaugh megerősítette, hogy az ausztrál felhasználók számára „a nyilvános álláshelyeket valóban összegyűjtötték, kivéve, ha kifejezetten magánszemélyek”, mivel nem kínáltak olyan opt-out mechanizmust, mint az EU és az Egyesült Államok társaik. 2025 májusában kiderült, hogy egy AI-t 57 millió NHS betegnyilvántartással képzettek, és félelmet keltettek az újbóli azonosítással kapcsolatban. Ahogyan egy Oxford-kutató megjegyezte: „Az emberek általában meg akarják tartani az irányítást az adatuk felett, és tudni akarják, hova megy.”
Ugyanebben a hónapban aggodalmak merültek fel az Antropic Claude 4 AI-jével kapcsolatban. A kutatások azt mutatták, hogy kialakulhat egy kialakuló „visszaélési” képességet, és önállóan jelentheti a felhasználókat az észlelt „erkölcstelen” viselkedésről,