Meta, la società madre di Facebook e Instagram, ha annunciato il suo supporto per una”età di maggioranza digitale”in tutta l’Unione europea. La proposta richiederebbe ai genitori di approvare i download di app per i loro adolescenti più giovani, creando uno standard coerente a livello di settore per la sicurezza online.

Questa mossa segue mesi di intensa pressione e non solo dall’interno dell’UE. I genitori hanno protestato a New York City per fallimenti per la sicurezza dei bambini e i regolatori stanno aumentando il loro controllo. Mentre Meta presenta il piano come soluzione, rivali come Google sostengono che sposta ingiustamente la responsabilità della verifica dell’età negli app store.

L’annuncio colloca Meta al centro di un dibattito globale su come proteggere meglio i bambini online. src=”https://winbuzzer.com/wp-content/uploads/2025/03/child-kid-smartphone-lock-child-rotection-child–safety-2.jpg”>

Meta Backs Pan-European Digital Age Regole

il backing da frence, da frence, da frence, da frence, da frence, da frence, da trasmettiti. La Grecia, stabilirebbe un’età unificata dell’età adulta digitale. Al di sotto di questa età, i minori dovrebbero esplicirsi espliciti per i palegoneria 75% dei genitori in un recente sondaggio Innanzitutto, campione l’approvazione dei genitori per i download di app. In secondo luogo, insiste sul fatto che queste regole si applicano ampiamente su tutti gli adolescenti dei servizi digitali, compresi i giochi e lo streaming, non solo le piattaforme di social media.

La società sostiene che concentrarsi solo sui social media perderebbe il quadro completo della vita digitale di un adolescente, che coinvolge una media di 40 app a settimana. Avverte che questo focus ristretto potrebbe inavvertitamente spingere i giovani utenti verso spazi online non regolamentati e potenzialmente meno sicuri.

Il terzo pilastro è una chiamata per una verifica solida per l’età della privacy. Meta sostiene che ciò è fondamentale per qualsiasi sistema”maggioranza digitale”per funzionare efficacemente e ha costantemente sostenuto che questo venga gestito a un livello più alto e centralizzato, una posizione dettagliata in .

Il dibattito sulla responsabilità: piattaforme rispetto ai negozi di app

Questa spinta per la verifica a livello di app-store colloca meta in conflitto diretto con rivali come Google. Il dibattito si è intensificato dopo che Utah ha superato il suo ACP Store Accountability Act A marzo, richiede i negozi di app per gestire la verifica dell’età, una mossa vocale vocale, una mossa vocale. ha criticato l’approccio, affermando:”Esistono una varietà di proposte legislative in rapido movimento che vengono spinte da meta e altre società nel tentativo di scaricare le proprie responsabilità per proteggere i bambini nei confronti degli app store”e hanno avvertito che centralizzare i dati sull’età potrebbe creare nuovi rischi per la privacy per i minori senza affrontare i danni core ispirando i legislatori”. Away Parental Authority, focalizzati su un tipo di servizio online tra i quasi due milioni di app disponibili per gli adolescenti e trascurano il modo in cui gli adolescenti usano i social media per connettersi con il mondo che li circonda, crescono e apprendono.”

La società ritiene che un sistema centralizzato sia più efficiente. Capo della politica di Instagram, TARA HOPKINS, ha dichiarato ,”Penso che abbia molto più senso questo è fatto a Ecosystem, Ecosystem di Ecosystem.

Uno sfondo di pressione normativa e nuove minacce tecnologiche

Il cambio di politica di Meta non si è verificato nel vuoto. Segue un intenso controllo pubblico e normativo. Ad aprile, le famiglie in lutto, unite dal principe Harry e Meghan, hanno protestato al di fuori del suo quartier generale di New York, chiedendo azioni su danni online.

La protesta, organizzata da gruppi come la Heat Initiative, ha accusato Meta di dare la priorità ai suoi $ 164 miliardi di entrate annuali sulla sicurezza degli utenti. I genitori hanno condiviso storie di vendite letali di fentanil e sestozione facilitate attraverso piattaforme di social media.

Questa pressione si basa su anni di avvertimenti, incluso il 2021″. Impatti sulla salute mentale sulle ragazze adolescenti. Il chirurgo generale degli Stati Uniti ha anche chiesto etichette di avvertimento sui social media.

La Commissione europea ha anche lanciato procedimenti formali contro Meta ai sensi del Power Digital Services Act (DSA). L’indagine sta esaminando potenziali progetti di dipendenza e l’efficacia degli strumenti di verifica dell’età della Meta.

Al lancio del DSA, Margrethe Vesager ufficiale dell’UE ha dichiarato:”Con la legge sui servizi digitali, abbiamo stabilito regole che possono proteggere i minori quando interagiscono online”, che hanno anche le minacce online. evolvendo con AI. A recent investigation uncovered a disturbing trend of AI-generated gore and fetish content featuring cartoon characters on YouTube, reminiscent of the “Elsagate”Scandalo .

Nel frattempo, gli esperti della privacy stanno facendo allarmi sulla raccolta dei dati da nuovi giocattoli alimentati dall’intelligenza artificiale, come l’imminente”AI Barbie”da Mattel e Openai, che potrebbero monitorare le espressioni dei bambini e le interazioni. Ora richiede l’approvazione dei genitori tramite il suo centro familiare prima che gli adolescenti sotto i 16 anni possano utilizzare Instagram Live. Ciò si basa sul suo framework”Account adolescente”, che applica le inadempienze restrittive che Meta afferma che il 94% dei genitori trovi utile.

Più assertivo, Meta sta testando un sistema di intelligenza artificiale proattivo negli Stati Uniti che identifica sospetti utenti minorenni in base ai segnali di attività, non all’analisi del viso. Quindi applica automaticamente le impostazioni restrittive per adolescenti, inclusi conti privati ​​e limiti DM, sebbene sia disponibile un processo di ricorso.

Queste azioni seguono il progresso b (Kosa) Negli Stati Uniti, che Meta aveva fatto pressioni contro prima che fallisse alla fine del 2024. Ciò ha spinto l’azione a livello statale, come il divieto della California su mangimi algoritmici per i minori.

Nonostante questi passaggi, i sostenitori della sicurezza dei bambini sostengono che sono insufficienti. Matthew Sowemimo del NSPCC del Regno Unito ha dichiarato:”Affinché queste modifiche siano veramente efficaci, devono essere combinate con misure proattive così pericolose che i contenuti non proliferano su Instagram, Facebook e Messenger in primo luogo”, sottolineando la necessità di fermare i contenuti dannosi sulla sua fonte piuttosto che gestire il suo impatto. In Irlanda, nuove regole della Commissione dei media, coimisiún na meán , entrerà in vigore il 21 luglio, imponendo una robusta verifica dell’età per le piattaforme che mostrano contenuti adulti.

Categories: IT Info