In mezzo alla reazione virale sulle affermazioni secondo cui Gmail stava raccogliendo silenziosamente email private per addestrare i suoi modelli di intelligenza artificiale (AI) Gemini, Google e i ricercatori di sicurezza hanno emesso correzioni urgenti.
Malwarebytes, una delle fonti principali dell’allarme iniziale, ha ritirato il suo rapporto venerdì sera. Hanno chiarito che le controverse impostazioni delle”Funzioni intelligenti”sono in realtà controlli legacy del 2020 piuttosto che una nuova acquisizione di dati generativa di intelligenza artificiale.
Google ha confermato che mentre questi strumenti scansionano i contenuti per utilità locali come il filtro antispam, i dati di Gmail consumer sono rigorosamente esclusi dall’addestramento dei suoi modelli di base.
Anatomia di un panico virale: come si diffonde il malinteso
Ad alimentare il fuoco iniziale all’inizio di questa settimana è stato un post virale su X del blogger tecnologico Dave Jones (EEVBlog), che avvisava gli utenti di una percepita violazione della privacy. Jones ha affermato che Google aveva abilitato un sistema in cui gli utenti erano”OPZIONATI automaticamente per consentire a Gmail di accedere a tutti i tuoi messaggi privati e allegati per addestrare modelli di intelligenza artificiale”, un’affermazione che ha immediatamente guadagnato terreno tra i difensori della privacy.
Preoccupazioni specifiche erano incentrate sull’impostazione”Funzionalità intelligenti e personalizzazione”, che concede a Google il permesso di scansionare il contenuto dei messaggi.
La società di sicurezza Malwarebytes inizialmente ha amplificato questa narrazione, pubblicando un’analisi che sembrava convalidare le affermazioni. Il loro rapporto offriva una guida su come disabilitare le impostazioni, inquadrandole come un vettore per la raccolta dei dati dell’intelligenza artificiale.
Da venerdì, tuttavia, la narrativa era cambiata radicalmente. Malwarebytes ha pubblicato una correzione aggiornata, ammettendo di aver”contribuito a una tempesta perfetta di incomprensioni attorno a un recente cambiamento nella formulazione e nel posizionamento di Le funzionalità intelligenti di Gmail.”
Pieter Arntz, direttore dei metadati dell’azienda, ha notato che la confusione derivava da una fusione di termini.
La portavoce di Google, Jenny Thomson, ha risposto rapidamente al crescente fervore. In una dichiarazione a The Verge, ha confermato esplicitamente che”i dati di Gmail non vengono utilizzati per addestrare i modelli della fondazione Gemini.”
Evidenziando una notevole distinzione spesso persa nel discorso sui social media, la correzione enfatizza la differenza architetturale tra l’apprendimento automatico locale basato su utilità (utilizzato per l’ordinamento schede o filtraggio dello spam) e la formazione affamata di dati richiesta per modelli di intelligenza artificiale generativa come Gemini.
Nonostante la smentita, l’incidente ha messo in luce la fragilità della fiducia degli utenti, esacerbata da incidenti precedenti come il bug di traduzione dell’intelligenza artificiale di Gmail.
Condiviso ampiamente prima che la correzione potesse prendere piede, il rapporto iniziale sulla confusione ha lasciato molti utenti con l’impressione che la loro corrispondenza venisse inserita in un modello linguistico di grandi dimensioni globale (LLM).
Realtà tecnica: distinguere il Legacy ML dall’intelligenza artificiale generativa
Lungi dall’essere uno sviluppo recente, le impostazioni”Funzionalità intelligenti e personalizzazione”non sono state implementate in silenzio questo mese. Sono stati introdotti originariamente alla fine del 2020.
Progettati principalmente per conformarsi ai requisiti GDPR, i controlli offrivano agli utenti un controllo granulare sulla possibilità che Google elaborasse i dati per specifiche utilità di posta in arrivo. Il testo legale che accompagna l’impostazione spiega:
“Il trattamento delle informazioni per questo scopo è necessario per gli interessi legittimi di Google e dei nostri utenti in: Fornire, mantenere e migliorare i servizi… Sviluppare nuovi prodotti e funzionalità… Eseguire ricerche a vantaggio dei nostri utenti e del pubblico.”
A differenza della moderna intelligenza artificiale generativa, che assimila vasti set di dati per creare nuovi contenuti, queste funzionalità legacy si basano su modelli predittivi per eseguire attività specifiche nella casella di posta dell’utente.
La disabilitazione di queste impostazioni attiva quella che i critici chiamano una”trappola dell’utilità”. La disattivazione dell’elaborazione dei dati interrompe le integrazioni essenziali, come gli eventi del calendario automatico dalle conferme dei voli, il monitoraggio dei pacchi e le mappe interattive all’interno delle email.
Gemini Apps Privacy Hub di Google chiarisce ulteriormente il confine. Notando esplicitamente il limite, la politica afferma:
“I tuoi contenuti personali che Gemini Apps ottiene dai servizi Google sono: Utilizzati per fornirti il servizio Gemini Apps… Non utilizzati per migliorare le tecnologie di apprendimento automatico generativo che alimentano Gemini Apps”
Funzionalità come il riepilogo basato su Gemini, spesso citate come prova di intrusione dell’intelligenza artificiale, operano su base localizzata e specifica per l’utente. Non alimentano un”modello mondiale”centralizzato come fa il web scraping pubblico per la formazione del modello di base.
Il deficit di fiducia: perché”intelligente”ora significa”sospetto”
Aggravare la confusione è un problema fondamentale del branding. Nel 2025, la parola”Smart”è indissolubilmente legata a”AI generativa”nel lessico dei consumatori, rendendo la terminologia legacy un ostacolo.
La decisione di Google di mantenere la nomenclatura del 2020 per queste impostazioni ha creato un campo minato semantico. Le”funzionalità intelligenti”vengono ora facilmente confuse con l'”integrazione Gemini”, portando gli utenti a presumere il peggio sull’utilizzo dei dati.
Arntz ha spiegato che”le impostazioni in sé non sono nuove, ma il modo in cui Google le ha recentemente riscritte e rese visibili ha portato molte persone… a credere che i contenuti di Gmail potrebbero essere utilizzati per addestrare i modelli di intelligenza artificiale di Google”, indicando il design dell’interfaccia come principale catalizzatore del panico.
La navigazione nel processo di disattivazione rimane complessa. compito. Le impostazioni di Google distinguono tra”Funzionalità intelligenti in Gmail”e”Funzionalità intelligenti in altri prodotti Google”, costringendo gli utenti ad attivare più opzioni per disattivare completamente l’elaborazione dei dati.
Anche le disparità regionali giocano un ruolo. Per gli utenti negli Stati Uniti, lo stato”attivo”predefinito per queste funzionalità legacy è in netto contrasto con le rigorose protezioni di attivazione offerte agli utenti nello Spazio economico europeo e nel Regno Unito.
Riflettendo un cambiamento più ampio del settore in cui la privacy è sempre più vista come un lusso premium, concorrenti come Perplexity stanno capitalizzando questa ansia, pubblicizzando le loro politiche di”nessuna formazione”come una funzionalità a pagamento distinta dai modelli supportati da pubblicità.
Mentre la realtà tecnica esonera Google dallo specifico Addebitando l’accusa di”addestramento”, l’ambiguità dell’interfaccia utente rimane una critica valida. Non riuscendo a comunicare chiaramente i limiti di utilizzo dei dati, l’interfaccia lascia gli utenti a colmare le lacune con paura.