Google werkt zijn Gemini AI-privacy-instellingen bij, waardoor gebruikers zich actief moeten afmelden als ze niet willen dat hun geüploade inhoud wordt gebruikt om de services van Google te verbeteren. Bestanden, foto’s en video’s die met de AI worden gedeeld, worden standaard geproefd voor analyse.
Deze wijziging maakt deel uit van een bredere update die Renames”Gemini Apps”Gemini Apps”Activiteit”. De verhuizing is bedoeld om de mogelijkheden van Gemini te verbeteren en tegelijkertijd gebruikers een duidelijkere controle te geven, hoewel het de last van het uitschakelen van gegevensverzameling op de persoon legt.
Uw uploads zullen binnenkort Gemini trainen, tenzij u zich afmeldt
Het nieuwe beleid markeert een belangrijke verschuiving in de manier waarop Google-gegevens worden geplaatst in de manier waarop u gebruikers in de handel in de usles-inhuidt. Vanaf 2 september 2025 gebruikt Google automatisch een voorbeeld van gebruikersuploads om de services te verbeteren. Dit omvat een breed scala aan inhoud, zoals bestanden, video’s, foto’s en zelfs screenshots die u stelt vragen over . De wijziging verleent het bedrijf effectief het recht om deze inhoud te analyseren, tenzij gebruikers zich expliciet afmelden.
Deze gegevens worden geregeld Activiteit.”Voor elke gebruiker van 18 jaar of ouder is deze instelling standaard ingeschakeld. Dit betekent dat om te voorkomen dat hun gegevens worden gebruikt voor training, individuen naar hun instellingen moeten navigeren en deze handmatig moeten uitschakelen. Google heeft echter verduidelijkt dat het eerdere keuzes zal respecteren; Als een gebruiker al”Gemini Apps Activity”had uitgeschakeld, blijven de nieuwe”Keep-activiteit”-instelling uitgeschakeld voor zijn account.
gebruikers kunnen deze machtigingen beheren en hun geschiedenis op elk gewenst moment bekijken in hun toegewijde Gemini Apps Activity Page . Afgezien van alleen het in-of uitschakelen van de functie, biedt Google meer gedetailleerde bedieningselementen over gegevensbehoud. Standaard wordt Gemini-activiteit ouder dan 18 maanden automatisch verwijderd. Gebruikers kunnen deze auto-delete periode veranderen in zo kort als 3 maanden of zo lang als 36 maanden. Als alternatief kunnen ze”geen automatische afvalactiviteit”selecteren om hun geschiedenis voor onbepaalde tijd te houden, waardoor een volledig spectrum van controle over de levenscyclus van hun gegevens wordt geboden.
Wanneer een gebruiker ervoor kiest om activiteit te verwijderen, hetzij handmatig of via de auto-delete-functie, stelt Google onmiddellijk dat het begint met het verwijderen van de gegevens van de systemen. Volgens de ondersteuningsdocumentatie is de eerste stap om het uit het weergave binnen het product te verwijderen. Dit wordt gevolgd door een afzonderlijk, grondiger proces dat is ontworpen om”de gegevens veilig en volledig te verwijderen”uit de opslaginfrastructuur, waardoor gebruikers meer granularecontrole”> granularecontrole”> granularecontrole”> granularcontrole . Escape Hatch
Om de opt-out aard van de gegevensverzameling te compenseren, introduceert Google”tijdelijke chats”. Deze functie functioneert zoals een incognito-modus voor Gemini, waardoor gesprekken niet worden opgeslagen in de activiteitsgeschiedenis van een gebruiker of worden gebruikt voor personalisatie.
Hoewel deze chats meer privacy bieden, merkt Google op dat gesprekken nog steeds tot 72 uur worden bewaard. Het bedrijf stelt dat dit voor operationele doeleinden is en om feedback van gebruikers te verwerken voordat de gegevens permanent worden verwijderd.
Deze dubbele benadering van het verbeteren van personalisatie terwijl het aanbieden van privacytools is strategisch. Een Google-woordvoerder, Elia Lawal, benadrukte de toewijding van het bedrijf voor gebruikerskeuze en verklaart:”Even cruciaal geeft u gemakkelijke controles om de ervaring te kiezen die het beste voor u is, zodat u deze functie op en uit kunt zetten op en uit”, het belang van autonomie in het nieuwe systeem. Een industriële drang naar meer intelligente, contextbewuste AI-assistenten. De introductie van een persistent, automatisch geheugen breidt zich uit op een meer handmatige versie die in februari 2025 is gelanceerd.
Deze update plaatst Gemini in directe concurrentie met rivalen die agressief vergelijkbare functionaliteit hebben nagestreefd. Michael Siliski, een senior directeur voor Gemini, zei dat het doel is om ervoor te zorgen dat “de Gemini-app nu naar je eerdere chats kan verwijzen om je voorkeuren te leren, meer gepersonaliseerde antwoorden levert, hoe meer je het gebruikt,”maken interacties meer natuurlijk en context-aware. geschiedenis. Het stelde zelfs de functie in om de webzoekquery’s van de chatbot te personaliseren, waardoor een uitgebreid gebruikersprofiel werd gecreëerd.
Microsoft heeft een geheugenfunctie diezelfde maand als onderdeel van een enorme platformupgrade geïntegreerd. Ook in april rolde de Xai van Elon Musk een soortgelijke mogelijkheid uit voor zijn Grok Chatbot, met de nadruk op gebruikersbeheersing over wat de AI zich herinnert.
Niet alle concurrenten nemen een”altijd-on”geheugen aan. Anthropic’s Claude heeft bijvoorbeeld een voorzichtiger aanpak. Woordvoerder Ryan Donegan legde uit:”Het is nog geen aanhoudende geheugenfunctie zoals Openai’s Chatgpt. Claude zal uw eerdere chats alleen ophalen en verwijzen wanneer u het vraagt om…,”Positioning het als een meer overgeleide, privacy-behoud alternatief in een drukke veld. introduceert belangrijke veiligheids-en ethische uitdagingen. De mogelijkheid om enorme hoeveelheden gebruikersgegevens op te slaan en op te roepen, creëert een waardevol doelwit voor kwaadaardige actoren en roept vragen op over gegevensverwerking.
Cybersecurity-onderzoekers hebben al kwetsbaarheden blootgelegd in deze ontluikende systemen. Onderzoeker Johann Rehberger heeft aangetoond hoe het geheugen van Gemini zou kunnen worden gemanipuleerd door een techniek genaamd”Vertraagde toolaanroep”, die slapende opdrachten in documenten insluit.
hij legde het risico uit, dat wanneer een gebruiker een geprogrammeerde opdracht geeft, de gebruiker de gebruiker is, de gebruiker de gebruiks de gebruiker de gebruiker de gebruiks de gebruiker de gebruiks de gebruiker de gebruiksinstelling, de programmeercommissie Tool,”mogelijk zijn langetermijngeheugen corrumperen met valse informatie. Dit benadrukt een nieuwe vector voor geavanceerde aanvallen op AI-systemen.
Vergelijkbare kwetsbaarheden zijn gevonden in het geheugen van Chatgpt, waarbij snelle injectieaanvallen met succes werden gebruikt om gegevens te exfiltreren uit de terugroeping van de AI. Deze incidenten onderstrepen een fundamentele spanning in AI-ontwikkeling: het balanceren van geavanceerde functionaliteit met robuuste beveiliging.
Naarmate AI meer geïntegreerd wordt in het dagelijkse leven, zal het debat over gegevensprivacy en beveiliging alleen intensiveren. De juiste balans tussen innovatie en gebruikersbescherming zal van cruciaal belang zijn voor het handhaven van vertrouwen in een steeds intellectievere en autonome digitale wereld.