Maanden na de introductie van door Gemini aangedreven samenvattende tools, wordt Google geconfronteerd met hernieuwd onderzoek naar de manier waarop Google deze AI-modellen voedt. Uit rapporten blijkt dat het bedrijf stilletjes’slimme functies’standaard heeft ingeschakeld voor gebruikers buiten Europa, waardoor toestemming wordt verleend om privé-e-mails en bijlagen te scannen om potentieel zijn generatieve AI-systemen te trainen.
Deze verschuiving dwingt tot een grimmige afweging: gebruikers moeten toestaan dat hun gegevens worden gebruikt voor modelverbetering of kernproductiviteitstools zoals agendasynchronisatie en pakkettracking volledig uitschakelen.
Terwijl de Europese regelgeving een strikt opt-in-beleid voorschrijft, worden Amerikaanse gebruikers automatisch ingeschreven in een ecosysteem voor het delen van gegevens dat ondersteunt de agressieve AI-uitbreiding van Google.
De’stille’opt-in en de utility-val
Tech YouTuber en blogger Dave Jones heeft een aanzienlijke verschuiving in de standaardinstellingen van Google voor niet-Europese gebruikers opgemerkt, wat een afwijking betekent van eerdere privacynormen.
Centraal in de controverse staat de instelling’Slimme functies en personalisatie’, die Google brede toegang geeft om privé-e-mailinhoud, chatlogboeken en bijlagen te scannen.
BELANGRIJK bericht voor iedereen die Gmail gebruikt.
Je bent automatisch AANGEMELD om Gmail toegang te geven tot al je privéberichten en bijlagen om AI-modellen te trainen.
Je moet slimme functies handmatig uitschakelen in het menu Instellingen op TWEE locaties.Retweet zodat iedereen op de hoogte is. pic.twitter.com/54FKcr4jO2
— Dave Jones (@eevblog) 19 november 2025
Als Pieter Arntz van Malwarebytes merkt op:”Google heeft onder de radar functies toegevoegd waarmee Gmail toegang heeft tot alle privéberichten en bijlagen om zijn AI-modellen te trainen”, wat het gebrek aan ophef benadrukt dat gepaard gaat met de verandering.
In tegenstelling tot eerdere versies van het datagebruiksbeleid, is deze toestemming expliciet gekoppeld aan het”verbeteren”van generatieve AI-modellen, wat aanleiding geeft tot bezorgdheid over de vraag of persoonlijke correspondentie wordt gebruikt om fundamentele modellen zoals Gemini te trainen.
De implementatie creëert wat critici een’verbetering’noemen. ‘Utility Trap’, waarbij het delen van gegevens onlosmakelijk is gekoppeld aan kernproductiviteitstools. Als u de instelling voor het delen van AI-gegevens uitschakelt, wordt een reeks kapotte functies geactiveerd, waaronder Smart Compose, het automatisch maken van agenda-items op basis van e-mails en het volgen van pakketten.
Gebruikers die hun gegevens proberen te beschermen, moeten een complex uit twee stappen bestaand afmeldingsproces doorlopen, waarbij zowel’Slimme functies in Gmail, Chat en Meet’als’Slimme functies in Google Workspace’worden uitgeschakeld om de datalink volledig te verbreken. Arntz merkt op:
“Om je volledig af te melden, moet je de’slimme functies’van Gmail op twee afzonderlijke locaties in je instellingen uitschakelen. Mis er geen, anders kan de AI-training doorgaan.”
Het ontwerp van de gebruikersinterface ontmoedigt actief het afmelden door een waarschuwingslijst te presenteren van functionaliteit die verloren gaat, waardoor een’privacy versus nut’-ultimatum ontstaat.
Deze aanpak staat in contrast met de gedetailleerde controles die vaak worden geëist door privacyvoorvechters, waardoor gebruikers moeten kiezen tussen een functionele inbox en een privé-inbox.
De datahonger: waarom Google uw inbox nodig heeft
De officiële ondersteuningsdocumentatie van Google schetst de juridische basis voor deze verwerking, waaronder het”ontwikkelen van nieuwe producten en functies.”
Het bedrijf verklaart dat”wanneer u slimme functies in Gmail, Chat en Meet inschakelt, u ermee instemt dat Gmail, Chat en Meet uw inhoud en activiteit in deze producten gebruiken om uw ervaring in die apps te personaliseren”, waarbij de gegevenstoegang wordt beschouwd als een noodzakelijk onderdeel van de serviceovereenkomst.
“Om onze services te verbeteren. Als u een van de instellingen voor slimme functies heeft ingeschakeld, kunnen we uw Workspace-inhoud en-activiteit ook verwerken om deze functies te verbeteren.”
“Het verwerken van informatie voor dit doel is noodzakelijk voor de legitieme belangen van Google en onze gebruikers bij: het leveren, onderhouden en verbeteren van services… Het ontwikkelen van nieuwe producten en functies… Het uitvoeren van onderzoek dat onze gebruikers en het publiek ten goede komt.”
De ambiguïteit van’personalisatie’, wat het’verfijnen’van lokale modellen (ten behoeve van de gebruiker) en het’trainen’van fundamentele modellen (ten behoeve van Google) kan omvatten, blijft een cruciaal twistpunt. Hoewel Google beweert dat gegevens worden gebruikt om functies te’verbeteren’, laat het ontbreken van een duidelijk onderscheid de mogelijkheid open dat gebruikersgegevens bijdragen aan de bredere intelligentie van het Gemini-ecosysteem.
Er is een’privacykloof’ontstaan op basis van geografie: Google bevestigt dat deze instellingen standaard zijn uitgeschakeld in de EER, het Verenigd Koninkrijk, Zwitserland en Japan vanwege strengere regelgeving zoals de AVG.
“Als u slimme functies in Google Workspace inschakelt, gaat u ermee akkoord dat Google Workspace gebruikt uw Workspace-inhoud en-activiteit om uw ervaring in Workspace te personaliseren.”
“Als u deze instelling uitschakelt, kunt u de hierboven genoemde ervaringen niet gebruiken in Google Workspace-producten. Als u deze ervaringen wilt blijven gebruiken, moet u de instelling weer inschakelen.”
Voor gebruikers in de Verenigde Staten die geen vergelijkbare federale bescherming hebben, is de standaardinstelling er een van opname in het ecosysteem voor het delen van gegevens. De ongelijkheid benadrukt hoe regeldruk, in plaats van welwillendheid van het bedrijfsleven, de standaard privacyhouding van Big Tech dicteert.
De historische context benadrukt de risico’s van het inzetten van deze modellen op privégegevens: de Google Gmail AI Translation Bug van juli 2025 dient als waarschuwend verhaal. Bij dat incident vertaalde Gemini Duitse e-mails verkeerd, waardoor een politieke ‘aas’ in ‘kont’ werd veranderd, wat aanzienlijke reputatieschade voor uitgevers veroorzaakte.
Ondanks deze risico’s suggereert het momentum in de sector dat het verzamelen van gegevens de standaard toegangsprijs voor gratis diensten aan het worden is.
Ron Richards van de podcast Android Faithful beschreef de bredere trend eerder dit jaar en zei: “Dat schip is vertrokken. En niet alleen van Google, maar in de hele sector… AI is hier… en het gaat niet verder om weg te gaan”, weerspiegelt een groeiende berusting onder tech-waarnemers dat AI-integratie onvermijdelijk is.
Privacy als luxeproduct
Er ontstaat een duidelijke marktsegmentatie waarbij privacy een premiumfunctie wordt in plaats van een standaardrecht. Concurrenten als Perplexity spelen hierop in door een’Max’-abonnement van $ 200 per maand aan te bieden dat expliciet belooft modellen niet te trainen op basis van gebruikersgegevens.
Dit staat in schril contrast met het gratis, door advertenties ondersteunde model van Google, dat afhankelijk is van het genereren van inkomsten met gebruikersgegevens via advertenties of modeltraining. Pieter Arntz betoogde dat “het gebrek aan expliciete toestemming voelt als een stap achteruit voor mensen die controle willen over de manier waarop hun persoonlijke gegevens worden gebruikt”, wijzend op de erosie van de gebruikersvrijheid als gevolg van standaardinstellingen.