Meta sta affrontando un nuovo contraccolpo sulla privacy su una nuova funzione Facebook basata sull’intelligenza artificiale che analizza l’intera fotocamera del telefono degli utenti per generare”idee creative personalizzate”. Lo strumento, ora testato negli Stati Uniti e in Canada, ha suscitato allarme, con molti utenti che affermano che è stato abilitato senza il loro esplicito consenso.

Questa controversia, che è emersa alla fine di agosto, evidenzia la strategia aggressiva di Meta di raccogliere grandi quantità di dati personali per alimentare le sue ambizioni di intelligenza artificiale. L’incidente è l’ultimo di una serie di scandali sulla privacy e sconfitte legali che hanno messo le pratiche fondamentali di raccolta dei dati dell’azienda sotto intenso controllo globale.

dispositivo. Il suo scopo dichiarato è quello di scansionare date, oggetti e persone per suggerire contenuti condivisibili come album a tema e punti salienti di viaggio.

Attualmente il test e il test Canada. Dal punto di vista, non è disponibile in Illinois e in Texas, una mossa ampiamente vista come una precauzione contro la violazione delle leggi biometriche e della privacy più rigorose di quegli Stati. Questa stessa limitazione geografica suggerisce una consapevolezza dei rischi legali coinvolti.

Al centro della controversia è una disputa fondamentale sul consenso. Meta sostiene ufficialmente che la funzione è rigorosamente opt-in e non abilitata per impostazione predefinita. L’azienda afferma che gli utenti vengono presentati con un pop-up che richiede loro di essere d’accordo prima dell’inizio di qualsiasi elaborazione.

Tuttavia, questa affermazione è direttamente contraddetta da un’ondata di report degli utenti. Molte persone hanno riferito di aver scoperto le interruttori della funzionalità già abilitate nelle impostazioni delle loro app di Facebook, nonostante non abbiano alcuna memoria di concessione di autorizzazioni.

Questa discrepanza ha alimentato le accuse secondo cui la società sta usando un’interfaccia confusa o maltrattata per garantire il consenso. L’esperta di sicurezza Rachel Tobac ha messo in evidenza il pericolo di questa disconnessione, affermando:”Se le aspettative di un utente su come le funzioni dello strumento non corrispondono alla realtà, hai un’enorme esperienza dell’utente e un problema di sicurezza”. La situazione crea un rischio significativo per la privacy per gli utenti che potrebbero non essere a conoscenza della loro intera libreria di foto. I Termini di servizio AI di Meta, che sono stati aggiornati il ​​1 ° luglio 2025, danno alla società un’ampia licenza per analizzare contenuti profondamente personali. La politica afferma:”Una volta condiviso, l’utente concorda sul fatto che Meta analizzerà quelle immagini, comprese le caratteristiche facciali, usando l’IA.”

Questa autorizzazione si estende oltre il semplice riconoscimento degli oggetti per includere l’analisi delle caratteristiche facciali. I termini contengono anche un stark avvertimento che sembra contraddire la natura stessa della funzionalità, consigliando agli utenti, “non condividere le informazioni che non vuoi che l’Ais usasse e trattenga.”

Secondo un rapporto di sistema, le foto non condividi dalle foto dalle foto delle foto. Se un utente in seguito trova e disabilita la funzione, le loro foto caricate vengono eliminate dopo un periodo di 30 giorni. Tuttavia, la mancanza di un controllo chiaro e iniziale rimane un importante punto di contesa per i sostenitori della privacy.

Un playbook familiare: parte di un modello più ampio di raccolta di dati aggressiva

Questa scansione del roll della fotocamera non è un incidente isolato ma si adatta a un modello consolidato di raccolta di dati aggressivi. Rispecchia la progettazione dell’app standalone Meta AI, che ha lanciato con una funzione”Memory”che mantiene le storie di chat per impostazione predefinita per personalizzare le risposte e formare i suoi modelli.

che la scelta del design ha suscitato critiche immediate e acute da esperti di privacy. Ben Winters della Consumer Federation of America ha dichiarato delle impostazioni sulla privacy dell’app AI,”le informazioni di divulgazione e le scelte dei consumatori sulle impostazioni della privacy sono ridicolmente cattive”. Questo sentimento cattura la crescente frustrazione per l’approccio di Meta, che spesso pone l’onere della protezione della privacy interamente sull’utente.

La strategia dell’azienda ha portato ripetutamente a violazioni della privacy gravi e imbarazzanti. Nel giugno 2025, il feed”Discover”dell’app Meta AI è risultato esponendo pubblicamente chat utenti sensibili e privati, apparentemente senza la loro piena consapevolezza o il consenso informato.

Questo modello di priorità alla raccolta dei dati rispetto alle norme regionali sulla privacy è stato visto anche in Australia. Nel settembre 2024, Meta ha ammesso a un’indagine del Senato di aver utilizzato i dati pubblici degli utenti australiani di Facebook per la formazione AI senza fornire il meccanismo di rinuncia offerto in Europa e negli Stati Uniti. Questo approccio ha anche dimostrato di essere legalmente pericoloso per il gigante della tecnologia, esponendolo a significativi danni finanziari e reputazionali in tribunale.

In un verdetto di riferimento all’inizio di agosto 2025, una giuria federale trovata responsabile per la raccolta illegale dei dati sanitari del Plainteffs, le decisioni sanitarie del Plainteffs, le decisioni sanitarie Sensibili Gli avvocati hanno dichiarato:”Questo verdetto invia un chiaro messaggio sulla protezione dei dati sulla salute digitale e sulle responsabilità della grande tecnologia”. Il verdetto ha fissato un potente precedente, inquadrando strumenti di raccolta di dati di terze parti come potenziale forma di intercettazione digitale illegale.

che la sconfitta legale negli Stati Uniti ha seguito una sentenza innovativa in Europa. Un tribunale tedesco a luglio ha ordinato a Meta di pagare un utente € 5.000 in danni per il monitoraggio dei dati illegali, stabilendo che la semplice”perdita di controllo”sui dati personali costituisce un danno compensabile ai sensi del GDPR.

Insieme, questi eventi dipingono un quadro di un’azienda il cui modello di business è fondamentalmente in grado di crescere richieste per la privacy dell’utente. Come sosteneva Justin Brookman di Consumer Reports, la relazione può sembrare intrinsecamente contraddittoria:”L’idea di un agente è che sta lavorando per mio conto, non nel tentativo di manipolarmi per conto degli altri”. La controversia sulla fotocamera è semplicemente l’ultimo fronte in questa battaglia in corso.

Categories: IT Info