Te midden van een virale reactie op beweringen dat Gmail stilletjes privé-e-mails verzamelde om zijn Gemini-modellen voor kunstmatige intelligentie (AI) te trainen, hebben Google en beveiligingsonderzoekers dringende correcties doorgevoerd.

Malwarebytes, een primaire bron voor het eerste alarm, trok zijn rapport eind vrijdag in. Ze verduidelijkten dat de controversiële instellingen voor’Slimme functies’eigenlijk verouderde besturingselementen uit 2020 zijn en geen nieuwe generatieve AI-gegevensverzameling.

Google bevestigde dat hoewel deze tools inhoud scannen op lokale toepassingen zoals spamfilters, Gmail-gegevens van consumenten strikt worden uitgesloten van het trainen van de basismodellen.

Anatomie van een virale paniek: hoe het misverstand zich verspreidde

De eerste brand eerder deze week werd aangewakkerd door een virale post op X door techblogger Dave Jones (EEVBlog), waarin gebruikers werden gewaarschuwd voor een waargenomen privacyschending. Jones beweerde dat Google een systeem had ingeschakeld waarbij gebruikers “automatisch werden AANGEGEVEN om Gmail toegang te geven tot al uw privéberichten en bijlagen om AI-modellen te trainen”, een verklaring die onmiddellijk aan populariteit won onder voorstanders van privacy.

Specifieke zorgen concentreerden zich op de instelling “Slimme functies en personalisatie”, die toestemming geeft aan Google om de inhoud van berichten te scannen.

Beveiligingsbedrijf Malwarebytes versterkte dit verhaal aanvankelijk en publiceerde een analyse die de beweringen leek te valideren. Hun rapport bood een handleiding voor het uitschakelen van de instellingen en stelde ze in als een vector voor het verzamelen van AI-gegevens.

Vrijdag was het verhaal echter dramatisch veranderd. Malwarebytes heeft een geüpdatete correctie uitgebracht, waarin wordt toegegeven dat ze”hadden bijgedragen aan een perfecte storm van misverstanden rond een recente wijziging in de formulering en plaatsing van de slimme features.”

Pieter Arntz, directeur Metadata van het bedrijf, merkte op dat de verwarring voortkwam uit een samensmelting van termen.

Google-woordvoerder Jenny Thomson reageerde snel op de groeiende belangstelling. In een verklaring aan The Verge bevestigde ze expliciet dat”Gmail-gegevens niet worden gebruikt om Gemini-basismodellen te trainen.”

De correctie benadrukt een opmerkelijk onderscheid dat vaak verloren gaat in het discours op sociale media en benadrukt het architecturale verschil tussen lokaal, op hulpprogramma’s gebaseerd machinaal leren (gebruikt voor het sorteren van tabbladen of het filteren van spam) en de data-hongerige training die nodig is voor generatieve AI-modellen zoals Gemini.

Ondanks de intrekking heeft het incident de kwetsbaarheid van het gebruikersvertrouwen blootgelegd, nog verergerd door eerdere incidenten zoals de AI-vertaalbug in Gmail.

Het eerste rapport over de verwarring, dat breed werd gedeeld voordat de correctie kon plaatsvinden, gaf veel gebruikers de indruk dat hun correspondentie werd ingevoerd in een mondiaal groottaalmodel (LLM).

Technisch Realiteit: Legacy ML onderscheiden van generatieve AI

Verre van een recente ontwikkeling zijn de instellingen voor’Slimme functies en personalisatie’deze maand niet stilletjes uitgerold. Ze werden oorspronkelijk eind 2020 geïntroduceerd.

De besturingselementen zijn voornamelijk ontworpen om te voldoen aan de AVG-vereisten en bieden gebruikers gedetailleerde controle over de vraag of Google gegevens voor specifieke inbox-hulpprogramma’s kan verwerken. De juridische tekst bij de instelling legt uit:

“Het verwerken van informatie voor dit doel is noodzakelijk voor de legitieme belangen van Google en onze gebruikers bij: het leveren, onderhouden en verbeteren van services… het ontwikkelen van nieuwe producten en functies… het uitvoeren van onderzoek waar onze gebruikers en het publiek profijt van hebben.”

In tegenstelling tot moderne generatieve AI, die enorm veel gebruikt datasets om nieuwe inhoud te creëren, vertrouwen deze verouderde functies op voorspellende modellen om specifieke taken uit te voeren in de inbox van de gebruiker.

Het uitschakelen van deze instellingen activeert wat critici een’Utility Trap’noemen. Als u de gegevensverwerking uitschakelt, worden essentiële integraties verbroken, zoals automatische agenda-afspraken uit vluchtbevestigingen, het volgen van pakketten en interactieve kaarten in e-mails.

Google’s Gemini Apps Privacy Hub verduidelijkt de grens verder. Het beleid vermeldt expliciet de grens en stelt:

“Uw persoonlijke inhoud die Gemini Apps krijgt van Google-services is: Wordt gebruikt om de Gemini Apps-service aan u te leveren… Niet gebruikt om generatieve machine learning-technologieën te verbeteren die Gemini Apps aandrijven”

Functies zoals door Gemini aangedreven samenvattingen, die vaak worden aangehaald als bewijs van AI-inbraak, werken op een gelokaliseerde, gebruikersspecifieke basis. Ze voeden geen gecentraliseerd ‘wereldmodel’ op de manier waarop openbare webscraping dat doet voor basismodeltraining.

Het vertrouwenstekort: waarom ‘slim’ nu ‘verdacht’ betekent

Het vergroten van de verwarring is een fundamenteel merkprobleem. In 2025 is het woord’Smart’onlosmakelijk verbonden met’Generatieve AI’in het consumentenlexicon, waardoor verouderde terminologie een probleem wordt.

Het besluit van Google om de 2020-nomenclatuur voor deze instellingen te behouden, creëerde een semantisch mijnenveld.’Slimme functies’worden nu gemakkelijk samengevoegd met’Gemini-integratie’, waardoor gebruikers van het slechtste uitgaan over datagebruik.

Arntz legde uit dat’de instellingen zelf niet nieuw zijn, maar de manier waarop Google ze onlangs herschreef en naar boven bracht, deed veel mensen… geloven dat Gmail-inhoud zou kunnen worden gebruikt om de AI-modellen van Google te trainen’, waarbij hij wees op het interface-ontwerp als een primaire katalysator voor de paniek.

Het navigeren door het opt-outproces blijft een complexe taak. De instellingen van Google maken onderscheid tussen’Slimme functies in Gmail’en’Slimme functies in andere Google-producten’, waardoor gebruikers meerdere schakelaars moeten omzetten om de gegevensverwerking volledig uit te schakelen.

Regionale verschillen spelen ook een rol. Voor gebruikers in de VS staat de standaard’aan’-status voor deze verouderde functies in schril contrast met de strikte opt-in-bescherming die wordt geboden aan gebruikers in de EER en het Verenigd Koninkrijk.

Als gevolg van een bredere verschuiving in de sector waarin privacy steeds meer als een luxe luxe wordt gezien, spelen concurrenten als Perplexity in op deze angst, door hun’geen training’-beleid op de markt te brengen als een betaalde functie die zich onderscheidt van door advertenties ondersteunde modellen.

Terwijl de technische realiteit Google vrijwaart van het specifieke “training”-aanklacht blijft de dubbelzinnigheid van de gebruikersinterface een terechte kritiek. Omdat de interface de grenzen van het datagebruik niet duidelijk communiceert, laten gebruikers de gaten met angst opvullen.

Categories: IT Info