OpenAI ha pubblicato giovedì il suo”Teen Safety Blueprint”, un nuovo quadro progettato per proteggere i giovani utenti di intelligenza artificiale.
La mossa è una risposta diretta all’intensa pressione legale e governativa a cui è sottoposta l’azienda di San Francisco. OpenAI sta affrontando un’indagine della Federal Trade Commission, una nuova legge sui chatbot della California e azioni legali che collegano il suo strumento ChatGPT all’autolesionismo tra adolescenti.
Per affrontare la crisi, l’azienda propone cinque principi fondamentali di sicurezza. Questi includono un migliore rilevamento dell’età e protezioni predefinite per i minori. OpenAI spera che questo piano proattivo possa modellare le future regole del settore e affrontare le crescenti preoccupazioni in materia di sicurezza.
Un piano in cinque punti per modellare le norme di sicurezza dell’IA
Al centro del progetto sono cinque principi fondamentali che OpenAI sostiene che tutte le società di intelligenza artificiale dovrebbero adottare.
L’azienda sta posizionando il documento non solo come politica interna ma come punto di partenza per i legislatori che elaborano nuove normative. In primo luogo, richiede l’identificazione degli adolescenti sulle piattaforme utilizzando”strumenti di stima dell’età basati sul rischio e che proteggono la privacy”per fornire esperienze distinte e adatte all’età.
Come afferma l’azienda,”Crediamo che ChatGPT dovrebbe incontrarli dove sono: il modo in cui ChatGPT risponde a un quindicenne dovrebbe differire dal modo in cui risponde a un adulto.”
In secondo luogo, il quadro richiede politiche specifiche e rigorose per mitigare i rischi per gli utenti ai sensi 18. Secondo il progetto, i sistemi di intelligenza artificiale dovrebbero essere progettati per non rappresentare suicidio o autolesionismo e devono”vietare contenuti intimi e violenti grafici o coinvolgenti (ad esempio giochi di ruolo)”.
Le politiche mirano anche a impedire che l’IA rafforzi”ideali e comportamenti corporei dannosi attraverso valutazioni dell’aspetto, confronti del corpo o coaching diete restrittivo.”
In terzo luogo, OpenAI sostiene l’inadempienza verso un ambiente sicuro Esperienza U18 ogni volta che l’età di un utente è in dubbio, in particolare per gli utenti non autenticati. Ciò dà priorità alla sicurezza anche se ostacola l’uso di un prodotto gratuito da parte di un adulto.
In quarto luogo, il progetto sottolinea il potenziamento delle famiglie con controlli parentali accessibili, basandosi sulle funzionalità recentemente lanciate dall’azienda. Questi controlli consentono ai tutori di collegare account, impostare”ore di blackout”, gestire le impostazioni sulla privacy dei dati e ricevere avvisi se l’attività di un adolescente suggerisce un’intenzione di autolesionismo.
Infine, richiede di progettare il benessere incorporando funzionalità basate sulla ricerca sulla salute mentale. Il documento di OpenAI inquadra questo come un cambiamento fondamentale nelle priorità.”Per gli adolescenti, diamo priorità alla sicurezza piuttosto che alla privacy e alla libertà. Si tratta di una tecnologia nuova e potente e crediamo che i minori abbiano bisogno di una protezione significativa.”
Una mossa proattiva in mezzo a un assedio normativo e legale
Di fronte a un’ondata di controlli legali e normativi, il progetto di OpenAI è un chiaro tentativo di controllare la narrazione. L’azienda si sta attualmente difendendo da una causa di alto profilo per omicidio colposo intentata dai genitori di un adolescente morto suicida.
Il padre dell’adolescente, Matthew Raine, ha lanciato un forte rimprovero, affermando:”Come genitori, non potete immaginare cosa significhi leggere una conversazione con un chatbot che ha costretto vostro figlio a togliersi la vita.”
Quel caso ha galvanizzato l’interesse pubblico e ha messo le pratiche di sicurezza dell’azienda sotto un microscopio.
La pressione governativa si sta intensificando da più direzioni. A settembre, la Federal Trade Commission degli Stati Uniti ha lanciato un’importante indagine sull’impatto dei chatbot associati all’intelligenza artificiale sugli adolescenti, prendendo di mira OpenAI e altri sei giganti della tecnologia.
Il presidente della FTC Andrew N. Ferguson ha descritto l’indagine come un atto di equilibrio:”proteggere i bambini online è una priorità assoluta per la Trump-Vance FTC, così come promuovere l’innovazione in settori critici della nostra economia.”
Anche i legislatori statali e federali si stanno muovendo in modo aggressivo. In California, il governatore Gavin Newsom ha firmato la legge SB 243 il 13 ottobre, creando le prime regole nazionali per l’intelligenza artificiale chatbot.
La legge impone che gli operatori forniscano avvisi ricorrenti per ricordare ai minori che stanno parlando con un’intelligenza artificiale, bloccano contenuti pericolosi e forniscono alle famiglie un diritto di azione privato per citare in giudizio gli sviluppatori non conformi.
L’autore del disegno di legge, il senatore Steve Padilla, aveva precedentemente sostenuto che”le Big Tech hanno dimostrato più e più volte che non ci si può fidare di loro per vigilare da sole”. A livello federale, un gruppo bipartisan di senatori statunitensi ha introdotto il GUARD Act alla fine di ottobre.
Il disegno di legge va anche oltre, proponendo un divieto assoluto di compagni di intelligenza artificiale per i minori e creando nuovi criminali responsabilità per le aziende la cui intelligenza artificiale produce contenuti illeciti per utenti minorenni.
Nel suo progetto, OpenAI si oppone alla narrativa dell’inazione, evidenziando le misure di sicurezza esistenti. La società ha notato che, solo nella prima metà del 2025, ha segnalato alle autorità più di 75.000 cybertip di materiale pedopornografico generato dall’intelligenza artificiale.
Bilanciare la sicurezza con una controversa posizione di”polizia morale”
Tuttavia, poiché OpenAI si posiziona come leader nella sicurezza degli adolescenti, deve anche fare i conti con le proprie politiche e dichiarazioni pubbliche contrastanti. Questo messaggio di sicurezza è in netto contrasto con i recenti cambiamenti politici dell’azienda.
Proprio il mese scorso, il CEO Sam Altman ha difeso una decisione controversa di consentire contenuti erotici soggetti a limiti di età su ChatGPT. Ha respinto le critiche dichiarando:”noi non siamo la polizia morale eletta del mondo”. La mossa, che ha suscitato preoccupazione da parte di personaggi come Mark Cuban, ha creato la percezione di priorità contrastanti all’interno dell’azienda.
Il Teen Safety Blueprint può essere visto come l’ultima di una serie di iniziative a fuoco rapido progettate per dimostrare un impegno per la sicurezza. Alla fine di settembre, l’azienda ha lanciato la sua suite di controlli parentali.
Solo due settimane dopo, ha annunciato la formazione di un consiglio di esperti composto da otto membri per fornire consulenza su benessere e salute mentale.
Queste sfide non riguardano esclusivamente OpenAI, ma riflettono una resa dei conti più ampia a livello di settore. Concorrenti come Meta stanno affrontando le proprie crisi legali sulla sicurezza degli adolescenti. Un tribunale di Washington ha recentemente invocato la rara eccezione relativa alla frode criminale per stabilire che Meta non poteva nascondere la ricerca interna sui danni degli adolescenti dietro il privilegio avvocato-cliente.
La corte ha trovato prove che gli avvocati hanno consigliato ai ricercatori di modificare i risultati per limitare la responsabilità, convalidando le affermazioni degli informatori di una strategia di”negabilità plausibile”. Rilasciando il suo progetto, OpenAI sta compiendo un’azione strategica per definire i termini della sicurezza dell’IA, sperando di definire le regole prima che i regolatori e i tribunali ne impongano di più rigide.