Meta sta espandendo le sue caratteristiche di sicurezza per proteggere meglio i bambini su Instagram. La società ha annunciato mercoledì che applicherà le sue impostazioni più severi ai conti che presentano bambini, anche se sono gestiti da adulti. Questa modifica segue la rimozione di oltre 635.000 conti per il comportamento predatorio.
La mossa arriva dopo anni di pressione di genitori, sostenitori e regolatori globali. Questi gruppi hanno a lungo richiesto l’azienda fare di più per proteggere i giovani utenti dallo sfruttamento e truffe online. Quest’ultimo aggiornamento sembra essere una risposta diretta a quella critica sostenuta.
Nuove protezioni per account focalizzati sui bambini e adolescenti
In un annuncio dettagliato, meta ha confermato che è estendendo le sue protezioni”account adolescenti”a account gestiti da adulti che sono principalmente caratterizzati dai bambini . Questi account”Influencer Child Influencer”saranno ora impostati predefiniti alle impostazioni del messaggio diretto più severi della piattaforma per prevenire il contatto indesiderato.
Per tutti gli utenti adolescenti, Meta sta lanciando nuovi strumenti all’interno dei messaggi diretti. Un’icona di”Suggerimenti di sicurezza”fornirà un rapido accesso a informazioni e controlli, tra cui una nuova opzione combinata di blocco e rapporto. Ciò semplifica il processo di segnalazione e arresto interazioni indesiderate.
I dati di Meta suggeriscono che questi istruzioni sono efficaci. La società ha dichiarato:”Solo giugno, hanno bloccato i conti 1 milione di volte e hanno riportato altri 1 milione dopo aver visto un avviso di sicurezza”, indicando che gli adolescenti stanno attivamente utilizzando gli strumenti. Inoltre, la sua caratteristica di protezione della nudità ha un tasso di adozione del 99% e ha impedito il 45% degli attaccanti a maggio.
Questa azione è sostenuta dall’applicazione aggressiva. Meta ha rivelato che recentemente ha rimosso quasi 135.000 account Instagram per aver lasciato commenti sessualizzati sui post con bambini. Altri 500.000 account Facebook e Instagram collegati sono stati rimossi anche come parte della sweep.
Una reazione al montaggio di regolamentazione e pressione pubblica
Questi aggiornamenti non si sono verificati nel vuoto. Seguono un periodo di intenso controllo pubblico e normativo. Nell’aprile 2025, le famiglie e i sostenitori in lutto hanno protestato al di fuori del quartier generale di New York, chiedendo la responsabilità per danni online che hanno portato a tragici risultati per i loro figli.
Anche la pressione è legislativa. In Europa, Meta deve affrontare un procedimento formale ai sensi del Power Digital Services Act (DSA). La Commissione europea sta indagando se le piattaforme dell’azienda hanno progetti di dipendenza e se i suoi strumenti di verifica dell’età sono abbastanza efficaci.
L’ex vicepresidente esecutivo della Commissione europea Margrethe Vestager era stata chiara sull’intento del DSA, affermando in quel momento,”con la legge sui servizi digitali, abbiamo stabilito regole che possono proteggere i minori quando interagiscono online”. Le violazioni potrebbero portare a multe sostanziali, creando un potente incentivo per la meta per dimostrare la conformità.
Negli Stati Uniti, il panorama legislativo è allo stesso modo irto. The Kids Online Safety Act (KOSA), a bipartisan bill Meta previously lobbied against, was reintroduced to Congress nel maggio 2025 dopo non essere passato alla fine dell’anno scorso . Gli analisti suggeriscono che questa spinta di sicurezza è programmata per placare i legislatori.
I sostenitori della sicurezza dei bambini, tuttavia, rimangono scettici. Gruppi come l’NSPCC e Fairplay sostengono che queste caratteristiche, sebbene benvenute, sono insufficienti.
La più ampia battaglia del settore sulla responsabilità
Meta si concentra sugli strumenti della propria piattaforma esiste insieme a un dibattito a livello industriale su dove la massima responsabilità per le bugie per la sicurezza dei bambini. Per mesi, Meta ha sostenuto la verifica dell’età a livello di Store e una”età di maggioranza digitale”paneuropea.
Questa posizione lo mette in conflitto diretto con rivali come Google. In seguito al passaggio di una legge sulla legge dello Utah che impone la verifica dell’App Store, Google ha accusato Meta di aver cercato di”… scaricare le proprie responsabilità… nuovi rischi per la privacy dei minori, senza realmente affrontare i danni che ispirano i legislatori ad agire”. Google sostiene che la centralizzazione dei dati sull’età crea nuovi rischi per la privacy per i minori.
Il capo della politica di Instagram, Tara Hopkins, ha difeso la posizione di Meta, sostenendo:”Penso che abbia molto più senso che ciò sia fatto nell’ecosistema, nell’app store, nel livello del sistema operativo”href=”https://www.rte.ie/news/2025/0704/1521746-meta-eu/”target=”_ blank”> inquadrandolo come una soluzione più efficiente, a livello ecosistema .
Questo dibattito mostra la sfida del complesso che fa il big tecnico. Mentre i genitori e i regolatori richiedono un’azione, le più grandi piattaforme del mondo non sono d’accordo sul miglior percorso. Il chirurgo generale degli Stati Uniti ha avvertito che”gli adolescenti che trascorrono più di tre ore al giorno sui social media affrontano il doppio del rischio di ansia e sintomi della depressione”, evidenziando l’urgente necessità di soluzioni efficaci.