Midt i økende kontrovers om hvordan teknologigiganter høster brukerdata for AI, har Allen Institute for AI (AI2) introdusert en potensiell løsning. Deres nye modellarkitektur, flexolmo, lar organisasjoner samarbeide å trene AI uten å dele sensitive rådata

Flexolmo tar opp en større data. Tilnærmingen tar sikte på å fremme sikkert datasamarbeid innen felt som Healthcare and Finance, der personvern er avgjørende. Modellens kode og

Ekspertmodulene, som inneholder spesialisert kunnskap, kan deretter bidra tilbake til den viktigste Flexolmo-modellen uten at rå data noen gang forlater eierens kontroll. Denne modulære designen gir et enestående nivå av fleksibilitet for bidragsytere.

Data-bidragsytere kan dynamisk legge til eller fjerne sin ekspertmodul når som helst, og effektivt å velge dataens innflytelse i eller ut av modellen på forespørsel. Dette gir dem finkornet kontroll over hvordan dataene deres brukes, en funksjon som er fraværende i tradisjonelle modeller.

i deres papir [innebygd innhold]

Setting av datakontroll på testen

En viktig bekymring for en hvilken som helst modelldelingsmetode er om de opprinnelige treningsdataene kan omvendes fra modellens vekter. AI2 adresserte dette proaktivt ved å gjennomføre simuleringer av datautvinningsangrep på en trent Flexolmo-ekspertmodul.

Resultatene var lovende. Forskerne fant en lav utvinningsgrad på bare 0,7%, noe som antyder at det er vanskelig å gjenopprette en meningsfull mengde privat informasjon fra en bidratt ekspertmodul. Selv om det ikke er null, antyder denne lave frekvensen ordrett memorering blir betydelig redusert.

Dette gir et lag med forsikring for potensielle samarbeidspartnere. For organisasjoner med de høyeste sikkerhetskravene, bemerker AI2 at rammen er kompatibel med differensial personvern (DP), en teknikk som tilfører matematisk ‘støy’ for å gjøre det umulig å spore data tilbake til en person.

Dataeiere kan velge å trene ekspertmodulene sine ved å bruke DP-metoder for å få disse formelle personene. Dette gir et spekter av sikkerhetsalternativer avhengig av dataens følsomhet.

Ved å avkoble modellforbedring fra rå datadeling, presenterer Flexolmo en levedyktig vei fremover. Det tilbyr en måte for verdifulle, stoppede datasett å berike det bredere AI-økosystemet uten å tvinge dataeiere til å gi fra Industrien står overfor en tillitskrise over sin datapraksis. Den nye arkitekturen ser ut til å være et direkte svar på de juridiske og etiske utfordringene som er inavende store tech-firmaer.

Bare forrige uke beordret en domstol Openai å bevare milliarder av chatgpt-samtaler, inkludert disse brukerne hadde slettet, for New York Times’copyright-søksmål. Flyttingen utløste forargelse fra talsmenn for personvern.

Google har også vært i det varme setet. Selskapet presset nylig en Android-oppdatering som lar Gemini AI få tilgang til tredjepartsapper som standard, og overstyre noen brukeres tidligere personverninnstillinger. Dette fulgte påstander om at Gemini fikk tilgang til private Google-dokumenter uten samtykke.

I mellomtiden har Meta møtt betydelige motvind. Det ble tvunget til å midlertidig stoppe AI-trening på EUs brukerdata i 2024 etter press fra den irske DPC. Personverngruppen Noybs grunnlegger Max Schrems sa om situasjonen, “Meta-pressemeldingen leser litt som‘ kollektiv straff ’. Hvis noen europeisk insisterer på hans eller hennes rettigheter, vil hele kontinentet ikke få våre skinnende nye produkter.”

Dette fulgte en opptak i september 2024 til en australsk senathenvendelse. Der bekreftet Metas sjef for globalt privatliv, Melinda Claybaugh at for australske brukere,”offentlige innlegg faktisk ble samlet med mindre spesifikt merket private,”ettersom de ikke ble tilbudt en opt-out-mekanisme som deres EU og amerikanske kolleger.

Problemet strekker seg utover Big Tech. I mai 2025 ble det avslørt at en AI ble opplært på 57 millioner NHS-pasientjournaler, og vekket frykt for omidentifisering. Som en Oxford-forsker bemerket,”Folk vil vanligvis beholde kontrollen over dataene sine, og de vil vite hvor det går.”

Den samme måneden oppstod bekymringene over Anthropics Claude 4 AI. Forskning viste at den kunne utvikle en fremvoksende”varsling”evne, og rapporterer autonome brukere for opplevd”umoralsk”oppførsel,