mes polemikave në rritje se si gjigantët e teknologjisë korren të dhënat e përdoruesit për AI, Instituti Allen për AI (AI2) ka prezantuar një zgjidhje të mundshme. Arkitektura e tyre e re e modelit, Flexolmo, lejon organizatat të trainojnë bashkëpunëtorët e AI-së pa ndarë të dhëna të ndjeshme të papërpunuara . Qasja synon të nxisë bashkëpunimin e sigurt të të dhënave në fusha si kujdesi shëndetësor dhe financat, ku intimiteti është parësor. Modeli Kodi dhe Letër hulumtimi janë të disponueshme publikisht. Arkitektura për AI bashkëpunuese pa kompromis

Inovacioni thelbësor pas Flexolmo është përdorimi i saj i një arkitekture të përzierjes së ekspertëve (MOE). Ky kornizë trajton AI jo si një entitet të vetëm monolit, por si një ekip specialistësh. Ai lejon një qasje të romanit, të shpërndarë në modelimin e trajnimit që anashkalon nevojën për një depo qendrore të të dhënave. Ky model publik i ngrirë ofron një themel të qëndrueshëm, një gjuhë e përbashkët me të cilën janë trajnuar të gjitha modulet e ekspertëve të ndryshëm për tu përafruar. Ky koordinim është thelbësor për bashkimin e tyre me sukses pa trajnime të kushtueshme të përbashkët. Pronarët e të dhënave mund të trajnojnë module më të vogla, të specializuara”eksperte”në të dhënat e tyre private në vend, sa herë që u përshtatet atyre. Ky dizajn modular siguron një nivel të paparë të fleksibilitetit për kontribuesit. Kjo u jep atyre kontroll të imët mbi mënyrën se si përdoren të dhënat e tyre, një veçori që mungon në modelet tradicionale.

Rezultatet ishin premtuese. Studiuesit gjetën një normë të ulët ekstraktimi prej vetëm 0.7%, duke sugjeruar që rikuperimi i një sasie domethënëse të informacionit privat nga një modul i ekspertit të kontribuar është i vështirë. Ndërsa nuk është zero, kjo normë e ulët sugjeron që memorizimi i verbimit zbutet ndjeshëm.

Kjo siguron një shtresë sigurie për bashkëpunëtorët e mundshëm. Për organizatat me kërkesat më të larta të sigurisë, AI2 vëren se korniza është në përputhje me intimitetin diferencial (DP), një teknikë që shton ‘zhurmë’ matematikore për ta bërë të pamundur gjurmimin e të dhënave përsëri tek një individ. Kjo ofron një spektër të opsioneve të sigurisë në varësi të ndjeshmërisë së të dhënave. Ajo ofron një mënyrë për të dhënat e vlefshme, të heshtura për të pasuruar ekosistemin më të gjerë të AI pa i detyruar pronarët e të dhënave të heqin dorë nga kontrolli, potencialisht duke zhbllokuar një epokë të re të bashkëpunimit të sigurt dhe transparent të AI. përballet me një krizë besimi mbi praktikat e saj të të dhënave. Arkitektura e re duket se është një përgjigje e drejtpërdrejtë ndaj sfidave ligjore dhe etike që përfshijnë firmat e mëdha të teknologjisë. Masa ndezi zemërim nga avokatët e intimitetit.

Google ka qenë gjithashtu në vendin e nxehtë. Kompania kohët e fundit shtyu një azhurnim Android që lejon Binjakët e saj AI të hynin në aplikacionet e palëve të treta si parazgjedhje, duke tejkaluar cilësimet e mëparshme të intimitetit të disa përdoruesve. Kjo pasoi pretendimet se Binjakët po hynin në dokumentet private të Google pa pëlqim.

Ndërkohë, Meta është përballur me kokë të konsiderueshme rregullatore. U detyrua të ndalonte përkohësisht trajnimin e AI në të dhënat e përdoruesit të BE-së në vitin 2024 pas presionit nga DPC irlandeze. Themeluesi i Grupit të Intimitetit Noyb Max Schrems tha për situatën,”Njoftimi për shtyp meta lexon pak si”dënim kolektiv”. Nëse ndonjë evropian insiston në të drejtat e tij ose të saj, i gjithë kontinenti nuk do të marrë produktet tona të reja me shkëlqim.”Atje, Shefi i Intimitetit Global të Meta, Melinda Claybaugh, konfirmoi se për përdoruesit australianë,”postimet publike u mblodhën me të vërtetë përveç nëse shënohen posaçërisht private”, pasi atyre nuk u ofrohej një mekanizëm opt-out si BE-ja e tyre dhe homologët e tyre. Në maj të vitit 2025, u zbulua se një AI u trajnua në 57 milion regjistrime të pacientëve në NHS, duke ngritur frikë për ri-identifikimin. Siç vuri në dukje një studiues i Oksfordit,”Njerëzit zakonisht duan të mbajnë kontrollin mbi të dhënat e tyre dhe ata duan të dinë se ku po shkon.”Hulumtimet treguan se mund të zhvillojë një aftësi emergjente”bilbiluese”, duke raportuar në mënyrë autonome përdoruesit për sjellje të perceptuar”imorale”,