Meta står inför en ny bakreaktion av integritet över en ny AI-driven Facebook-funktion som analyserar användarnas hela telefonkamera rullar för att generera”personliga kreativa idéer.”Verktyget, som nu testas i USA och Kanada, har lett till larm, med många användare som hävdar att det var aktiverat utan deras uttryckliga samtycke.

Denna kontrovers, som dyker upp i slutet av augusti, belyser Metas aggressiva strategi för att skörda stora mängder personuppgifter för att driva sina AI-ambitioner. The incident is the latest in a string of privacy scandals and legal defeats that have put the company’s core data-gathering practices under intense global scrutiny.

A Question of Consent: How AI Scans Your Private Photos

The feature, officially called “camera roll sharing suggestions,”uses what Meta describes as “cloud processing”to upload and analyze photos and videos directly from a user’s enhet. Det uttalade syftet är att söka efter datum, objekt och människor som föreslår delbart innehåll som temalbum och reshöjdpunkter.

Men detta påstående motsägs direkt av en våg av rapporter från användare. Många individer har rapporterat att ha upptäckt funktionens växlar som redan är aktiverade inom sina Facebook-appinställningar, trots att de inte har något minne om att någonsin bevilja tillstånd.

Denna avvikelse har gett anklagelser om att företaget använder ett förvirrande eller vilseledande gränssnitt för att säkra samtycke. Säkerhetsexperten Rachel Tobac framhöll faran med denna koppling och säger:”Om en användares förväntningar om hur ett verktyg fungerar inte matchar verkligheten, har du dig själv en enorm användarupplevelse och säkerhetsproblem.”Situationen skapar en betydande integritetsrisk för användare som kanske inte är medvetna om att hela fotobiblioteket behandlas.

Det finstilta: Vad Metas användarvillkor avslöjar

för användare som beviljar åtkomst, oavsett om det är medvetet eller inte, villkoren är uttryckliga och långtgående. Metas AI-användarvillkor, som uppdaterades den 1 juli 2025, ger företaget en bred licens för att analysera djupt personligt innehåll. Policyn säger,”När du delats, håller du med om att Meta kommer att analysera dessa bilder, inklusive ansiktsdrag, med AI.”

Detta tillstånd sträcker sig utöver enkla objektigenkänningar för att inkludera analys av ansiktsdrag. The terms also contain a stark warning that seems to contradict the very nature of the feature, advising users, “do not share information that you don’t want the AIs to use and retain.”

According to a CNET report, the system primarily pulls from photos taken in the last 30 days. Om en användare senare hittar och inaktiverar funktionen raderas deras uppladdade foton efter en 30-dagarsperiod. Fortfarande är bristen på tydlig kontroll i förväg en viktig stridighetspunkt för integritetsförespråkare.

En bekant spelbok: en del av ett bredare mönster av aggressiv datainsamling

Denna kamerascanning är inte en isolerad incident men passar ett väl etablerat mönster av aggressiv data. Den speglar designen av den fristående Meta AI-appen, som lanserades med en”minne”-funktion som behåller chatthistorier som standard för att anpassa svar och utbilda sina modeller.

Det designvalet drog omedelbar och skarp kritik från integritetsexperter. Ben Winters från Consumer Federation of America sa om AI-appens sekretessinställningar,”Upplysningar och konsumentval kring sekretessinställningar är skrattande dåliga.”Denna känsla fångar den växande frustrationen över Metas strategi, som ofta lägger bördan för integritetsskydd helt på användaren.

Företagets strategi har upprepade gånger lett till allvarliga och pinsamma integritetsbrott. I juni 2025 visade sig Meta AI-appens”Discover”-flöde att avslöja känsliga och privata användarchatter, tydligen utan deras fulla medvetenhet eller informerade samtycke.

Detta mönster för att prioritera datainsamling framför regionala integritetsnormer sågs också i Australien. I september 2024 medgav Meta till en senatundersökning att den använde offentliga uppgifter från australiska Facebook-användare för AI-utbildning utan att tillhandahålla opt-out-mekanismen som erbjuds i Europa och USA.

Dessa incidenter visar en företagsstrategi som konsekvent prioriterar dataförvärv framför användarnas integritetsförväntningar. Detta tillvägagångssätt har också visat sig vara juridiskt farligt för den tekniska jätten och utsätta den för betydande ekonomiska och rena skador i domstol.

I en landmärke-dom i början av augusti 2025, en federal jury hittade meta-ansvarig för olagligt att samla in känsliga hälsouppgifter från användare av Flo-periodspårningsappen genom sin Embedded Software-utveckling (SDK). Advokater sa:”Denna dom skickar ett tydligt meddelande om skyddet av digital hälsodata och Big Techs ansvar.”Bedömningen satte ett kraftfullt prejudikat och inramade verktyg för insamling av data från tredje part som en potentiell form av olaglig digital avlyssning.

Det lagliga nederlaget i USA följde ett banbrytande beslut i Europa. En tysk domstol i juli beordrade Meta att betala en användare på 5 000 euro i skadestånd för olaglig dataspårning och fastställde att den bara “förlusten av kontroll” över personuppgifter utgör en kompenserbar skada under GDPR.

tillsammans, dessa händelser målar en bild av ett företag vars affärsmodell är i grunden i ojämnhet med växande krav för användarens privata. Som Justin Brookman från Consumer Reports hävdade kan förhållandet känna i sig motsatser:”Idén med en agent är att det fungerar för min räkning-inte för att försöka manipulera mig för andras räkning.”Kameran Roll-kontroversen är helt enkelt den senaste fronten i denna pågående strid.

Categories: IT Info