Å svare på intens tilbakeslag over tenåringssikkerhet og en rekke personvernskandaler, kunngjorde Meta i dag at det overhaling av AI-chatbot-reglene for unge brukere, og erkjenner at den tidligere tilnærmingen var en feil. Endringene følger en forbannende etterforskning som fikk en føderal sonde og en advarsel fra 44 statsadvokater general.
Policy-skiftet sammenfaller med en fersk ildstorm over en ny Facebook-funksjon som skanner brukerkameraer, ofte uten klart samtykke. Dette fremhever selskapets pågående kamp for å balansere aggressiv AI-utvikling med grunnleggende brukernes personvern.
En presserende respons på fordømmende sikkerhetsfeil
Metas policyendring var en presserende skadekontroll. Det kom bare ett døgn etter . Funnene fikk Child Safety Group til å kreve en øyeblikkelig suspensjon av tjenesten.
cimte-child-child-child-scety-1.jpg”> fordømmelse, som sier:”Meta AI er en fare for tenåringer, og det bør tas ned umiddelbart.”Rapporten skapte en PR-krise som nødvendiggjorde en umiddelbar og avgjørende respons fra den sosiale mediegiganten.
Meta sa at den ville trene AI-en til å slutte å engasjere seg på sensitive temaer som selvskading, selvmord og forstyrret spising. I stedet vil chatbot lede brukere til ekspertressurser. En talsperson for Meta, Stephanie Otway, bekreftet den nye tilnærmingen, og sa:”Når vi fortsetter å avgrense systemene våre, legger vi til flere rekkverk som en ekstra forsiktighet-inkludert å trene AI-ene våre ikke vil engasjere seg, vil en valg av en utvalg av en utvalg av en utvalg av en valgt. til mindreårige.
Dette trekket følger en nylig Reuters-undersøkelse av intern politikk som så ut til å tillate seksualiserte chatter med mindreårige. Den rapporten ledet senator josh Hawley til å starte en sonde og href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ blank”> en koalisjon av 44 statsadvokater general for å utstede en stern Warning .”Vi blir opprettet ensartet av denne tilsynelatende ignorering av barns emosjonelle velvære, og skremte over at AI-assistenter driver med oppførsel som ser ut til å være forbudt av våre respektive straffelov,”skrev koalisjonen, og uttrykte alarm> Potensial for ulovlig oppførsel.
en kjent playbook: Camera Roll Scaning og Privat P>
Meta insisterer på at verktøyet er strengt opt-in. Imidlertid rapporterte en bølge av brukere som rapporterte å finne funksjonene til funksjonen som allerede er aktivert i innstillingene sine, til tross for at de ikke hadde noe minne om å gi tillatelse. Dette avviket har drevet beskyldninger om at selskapet bruker forvirrende grensesnitt for å sikre samtykke.
Tellingly er funksjonen utilgjengelig i Illinois og Texas, et trekk sett på som en forholdsregel mot å krenke disse statenes strengere biometriske og personvernlover. Sikkerhetsekspert Rachel Tobac fremhevet faren for denne koblingen, og sa:”Hvis brukerens forventninger om hvordan et verktøy fungerer ikke samsvarer med virkeligheten, har du deg et stort brukeropplevelse og sikkerhetsproblem.”
Dette er en del av et veletablert mønster. I juni 2025 ble Meta AI-appens”Discover”-fôr funnet å være offentlig utsatt sensitive private chatter uten brukernes fulle bevissthet. Appens”Memory”-funksjon trakk også skarp kritikk for å beholde chathistorier som standard for å trene sine modeller.
Utformingen av disse systemene førte til at Ben Winters of Consumer Federation of America erklærer:”Opplysningene og forbrukervalgene rundt personverninnstillinger er latterlig dårlige.”Dette følelsen fanger opp den økende frustrasjonen med Metas tilnærming, som ofte legger byrden for personvernbeskyttelse helt på brukeren.
Et mønster av juridiske nederlag og forskriftsmessig tilbakeslag
Metas strategi for å prioritere datainnsamling fremfor brukerens personvern har vist seg lovlig og økonomisk feriesk. I begynnelsen av august 2025 fant en føderal jury selskapet ansvarlig for ulovlig å samle sensitive helsedata fra brukere av FLO-perioden-sporing-appen gjennom den innebygde programvaren.
Etter dommen, saksøkerne som ledende rettsadvokater sa:”Denne dommen sender det en klar melding om beskyttelsen til digital helse og responderet om Big Tech. Det juridiske nederlaget i USA fulgte en banebrytende kjennelse i Europa.
En tysk domstol i juli beordret Meta til å betale en bruker € 5.000 i erstatning for ulovlig datasporing. Kjennelsen slo fast at bare”tap av kontroll”over personopplysninger utgjør en kompensabel skade under GDPR, og setter en kraftig presedens.
Dette mønsteret strekker seg globalt. I september 2024 innrømmet Meta for en australsk senatundersøkelse at den brukte offentlige data fra Facebook-brukere for AI-opplæring uten å tilby bortfallsmekanismene som tilbys andre steder.
Disse hendelsene maler et bilde av et selskap hvis forretningsmodell er grunnleggende i strid med økende krav til brukerens personvern. Som Justin Brookman fra Consumer Reports hevdet, kan forholdet føles iboende motstanders:”Ideen med en agent er at det fungerer på mine vegne-ikke på å prøve å manipulere meg på andres vegne.”Kamerarullekontroversen og den presserende chatbot-overhalingen er ganske enkelt de siste frontene i dette pågående slaget.