Meta står overfor et friskt tilbakeslag i personvernet over en ny AI-drevet Facebook-funksjon som analyserer brukernes hele telefonkameraer for å generere”personaliserte kreative ideer.”Verktøyet, som nå blir testet i USA og Canada, har vekket alarm, med mange brukere som hevder at det var aktivert uten deres eksplisitte samtykke.

Denne kontroversen, som dukket opp i slutten av august, fremhever Metas aggressive strategi for å høste enorme mengder personopplysninger for å gi drivstoff til AI-ambisjonene. Hendelsen er den siste i en streng med personvernskandaler og juridiske nederlag som har satt selskapets kjernedatainnsamlingspraksis under intens global granskning.

et spørsmål om samtykke: hvordan AI skanner dine private bilder

funksjonen, offisielt kalt”kamerarulling,”Brukerens enhet. Det uttalte formålet er å skanne etter datoer, objekter og folk for å foreslå delbart innhold som temaalbum og reisehøydepunkter.

Kjernen i kontroversen er en grunnleggende tvist om samtykke. Meta hevder offisielt at funksjonen er strengt tatt inn og ikke aktivert som standard. Selskapet hevder brukere blir presentert for en pop-up som krever at de blir enige før noen behandling begynner.

Imidlertid er denne påstanden direkte motsagt av en bølge av rapporter fra brukere. Mange individer har rapportert å oppdage funksjonen til funksjonen som allerede er aktivert i sine Facebook-appinnstillinger, til tross for at de ikke har noe minne om noen gang å gi tillatelse.

Dette avviket har gitt beskyldninger om at selskapet bruker et forvirrende eller misvisende grensesnitt for å sikre samtykke. Sikkerhetsekspert Rachel Tobac fremhevet faren for denne frakoblingen, og sa:”Hvis brukerens forventninger om hvordan et verktøy fungerer ikke samsvarer med virkeligheten, har du deg et stort brukeropplevelse og sikkerhetsproblem.”Situasjonen skaper en betydelig personvernrisiko for brukere som ikke er klar over hele fotobiblioteket blir behandlet.

Det fine print: hva Metas tjenestevilkår avslører

for brukere som gir tilgang, enten det er kjent eller ikke, er begrepene eksplisitte og vidtrekkende. Metas AI-vilkår for tjeneste, som ble oppdatert 1. juli 2025, gir selskapet en bred lisens til å analysere dypt personlig innhold. Politikken sier:”Når du er delt, samtykker du i at Meta vil analysere disse bildene, inkludert ansiktsfunksjoner, ved bruk av AI.”

Denne tillatelsen strekker seg utover enkel objektgjenkjenning til å omfatte analyse av ansiktsfunksjoner. Begrepene inneholder også en sterk advarsel som ser ut til å motsi selve funksjonen til funksjonen, og gi råd til brukere, “Ikke del informasjon som du ikke vil at du ikke vil bruke og beholder.”

En kjent spillbok: Del av et bredere mønster av aggressiv datainnsamling

Denne kamerarullskanningen er ikke en isolert hendelse, men passer til et veletablert mønster av aggressiv data samling. Den speiler utformingen av den frittstående Meta AI-appen, som ble lansert med en”minne”-funksjon som beholder chathistorier som standard for å tilpasse svar og trene modellene.

Det designvalget trakk øyeblikkelig og skarp kritikk fra personverneksperter. Ben Winters of Consumer Federation of America sa om AI-appens personverninnstillinger,”Avsløringene og forbrukervalgene rundt personverninnstillinger er latterlig dårlige.”Dette følelsen fanger opp den økende frustrasjonen med Metas tilnærming, som ofte legger byrden for personvernbeskyttelse helt på brukeren.

Selskapets strategi har gjentatte ganger ført til alvorlige og pinlige brudd på personvernet. I juni 2025 ble Meta AI-appens”Discover”-fôr funnet å være offentlig utsatt sensitive og private brukerchatter, tilsynelatende uten deres fulle bevissthet eller informert samtykke.

Dette mønsteret for å prioritere datainnsamling over regionale personvernnormer ble også sett i Australia. I september 2024 innrømmet Meta på en senatundersøkelse at den brukte offentlige data fra australske Facebook-brukere for AI-opplæring uten å tilby den valgte mekanismen som tilbys i Europa og USA.

Disse hendelsene demonstrerer en bedriftsstrategi som konsekvent prioriterer datainnsamling fremfor brukerens personvernforventninger. Denne tilnærmingen har også vist seg å være lovlig farlig for tech-giganten, og utsetter den for betydelige økonomiske og omdømme skade i retten.

I en landemerke-dom i begynnelsen av august 2025 fant en føderal jury Meta ansvarlig for ulovlig å samle inn sensitive helsedata fra brukere av den som er i ferd. Prøveadvokater sa:”Denne dommen sender en klar melding om beskyttelse av digitale helsedata og ansvaret til Big Tech.”Dommen satte en kraftig presedens, innrammet tredjeparts datainnsamlingsverktøy som en potensiell form for ulovlig digital avlytting.

Det juridiske nederlaget i USA fulgte en banebrytende kjennelse i Europa. En tysk domstol i juli beordret Meta til å betale en bruker € 5000 i erstatning for ulovlig datasporing, og slo fast at bare”tap av kontroll”over personopplysninger utgjør en kompensabel skade under GDPR.

sammen, disse hendelsene maler et bilde av et selskap hvis forretningsmodell er grunnleggende i strid med økende krav om brukernes personvern. Som Justin Brookman fra Consumer Reports hevdet, kan forholdet føles iboende motstanders:”Ideen med en agent er at det fungerer på mine vegne-ikke på å prøve å manipulere meg på andres vegne.”Kamerarullekontroversen er ganske enkelt den siste fronten i dette pågående slaget.