Google oppdaterer sine Gemini AI-personverninnstillinger, og krever at brukere aktivt melder seg ut om de ikke vil at det opplastede innholdet deres brukes til å forbedre Googles tjenester. Filer, bilder og videoer som deles med AI vil bli prøvetatt for analyse som standard.
Denne endringen er en del av en bredere oppdatering som > care”care”Aktivitet”. Flyttingen tar sikte på å forbedre Geminis muligheter mens de gir brukerne tydeligere kontroll, selv om det legger byrden for å deaktivere datainnsamling på den enkelte.
Opplastinger vil snart trene Gemini, med mindre du velger å håndtere deres PROFASY-SPOLS-SPROS-SPROSY-SPROSY-STROPPER for å administrere deres. Fra og med 2. september 2025 vil Google automatisk bruke et utvalg av brukeropplastinger for å forbedre tjenestene sine. Dette inkluderer et bredt spekter av innhold, for eksempel filer, videoer, bilder og til og med screenshots du stiller spørsmål om . Endringen gir effektivt selskapet retten til å analysere dette innholdet med mindre brukere eksplisitt velger bort.
Denne dataen er Governed aS GureNed A Apps Reimi-Apps Apps Apps Apps Apply Apply Apply Apply Applycy Affity”.”Hold aktivitet.”For enhver bruker på 18 år er denne innstillingen aktivert som standard. Dette betyr at for å forhindre at dataene deres blir brukt til trening, må enkeltpersoner navigere til innstillingene sine og deaktivere dem manuelt. Google har imidlertid avklart at det vil respektere tidligere valg; Hvis en bruker allerede hadde slått av”Gemini Apps Activity”, vil den nye”Keep Activity”-innstillingen forbli deaktivert for kontoen sin.
Brukere kan administrere disse tillatelsene og se historien deres når som helst i deres dedikerte
Når en bruker velger å slette aktivitet, enten manuelt eller gjennom auto-delete-funksjonen, sier Google at den umiddelbart begynner prosessen med å fjerne dataene fra systemene. I følge støttedokumentasjonen er det første trinnet å fjerne det fra visningen i produktet. Dette blir fulgt av en egen, grundigere prosess designet for å”trygt og fullstendig slette dataene”fra lagringsinfrastrukturen, noe Tilbyr en flukthatch på personvern
Når en bruker velger å slette aktivitet, enten manuelt eller gjennom auto-delete-funksjonen, sier Google at den umiddelbart begynner prosessen med å fjerne dataene fra systemene. I følge støttedokumentasjonen er det første trinnet å fjerne det fra visningen i produktet. Dette blir fulgt av en egen, grundigere prosess designet for å”trygt og fullstendig slette dataene”fra lagringsinfrastrukturen, noe Tilbyr en flukthatch på personvern
For å motveie den opt-out karakteren av datainnsamlingen, introduserer Google “Midlertidige chatter”. Denne funksjonen fungerer som en inkognitomodus for Gemini, og sikrer at samtaler ikke lagres i brukerens aktivitetshistorikk eller brukt til personalisering.
Mens disse chatsene tilbyr mer privatliv, bemerker Google at samtaler fremdeles beholdes i opptil 72 timer. Selskapet uttaler at dette er til driftsformål og å behandle eventuelle tilbakemeldinger fra brukerne før dataene blir slettet permanent.
Denne doble tilnærmingen for å forbedre personalisering mens det å tilby personvernverktøy er strategisk. En talsperson for Google, Elijah Lawal, understreket selskapets forpliktelse til brukervalg, og sa:”Like viktig er å gi deg enkle kontroller for å velge opplevelsen som er best for deg, slik at du kan slå denne funksjonen på og av når som helst,”fremhever viktigheten av å få en mer System.
-tokturen for å få en mer system. Et bransjeomfattende press for mer intelligente, kontekstbevisste AI-assistenter. Innføringen av et vedvarende, automatisk minne utvides med en mer manuell versjon som ble lansert i februar 2025.
Denne oppdateringen plasserer Gemini i direkte konkurranse med rivaler som aggressivt har forfulgt lignende funksjonalitet. Michael Siliski, seniordirektør for Gemini, sa at målet er å sikre at”Gemini-appen nå kan referere til tidligere chatter for å lære dine preferanser, og levere mer personaliserte svar jo mer du bruker det,”få interaksjoner til å føle seg mer naturlig og kontekst. Det gjorde det mulig for funksjonen å tilpasse chatbots websøk-spørsmål, og opprette en omfattende brukerprofil.
Microsoft integrerte en minnefunksjon i Copilot-assistenten samme måned som en del av en massiv plattformoppgradering. Også i april rullet Elon Musks Xai ut en lignende evne for sin GROK-chatbot, og understreket brukerkontroll over hva AI husker.
Imidlertid tar ikke alle konkurrenter et”alltid-på”minne. Antropic’s Claude, for eksempel, tar en mer forsiktig tilnærming. Talsmann Ryan Donegan forklarte:”Det er foreløpig ikke en vedvarende minnefunksjon som Openais chatgpt. Claude vil bare hente og referere til tidligere chatter når du ber det til…”, plassere det som et mer bevisst, privatpresterende alternativ i et hukommelse
vedvarende hukommelse. introduserer betydelige sikkerhets-og etiske utfordringer. Evnen til å lagre og huske enorme mengder brukerdata skaper et verdifullt mål for ondsinnede aktører og reiser spørsmål om datahåndtering.
Cybersecurity-forskere har allerede utsatt sårbarheter i disse begynnende systemene. Forsker Johann Rehberger demonstrerte hvordan Geminis minne kunne manipuleres gjennom en teknikk som kalles”forsinket verktøykall”, som innebærer sovende kommandoer i dokumenter.
Han forklarte risikoen, og sa at når en bruker gir en programmert,”når brukeren senere sier \”x \”[for den programmede kommando-kommandoen,”potensielt ødelegger det langsiktige minnet med falsk informasjon. Dette fremhever en ny vektor for sofistikerte angrep på AI-systemer.
Lignende sårbarheter er funnet i Chatgpts minne, der hurtig injeksjonsangrep ble brukt til å eksfiltrere data fra AIs tilbakekalling. Disse hendelsene understreker en grunnleggende spenning i AI-utvikling: å balansere avansert funksjonalitet med robust sikkerhet.
Når AI blir mer integrert i dagliglivet, vil debatten om personvern og sikkerhet bare intensiveres. Å slå riktig balanse mellom innovasjon og brukerbeskyttelse vil være kritisk for å opprettholde tillit til en stadig mer intelligent og autonom digital verden.