Il CEO di OpenAI, Sam Altman, sta difendendo la nuova politica polarizzante della sua azienda che consente contenuti erotici soggetti a limiti di età su ChatGPT. Nei post su X di questa settimana, Altman si è opposto a un’ondata di critiche, affermando che OpenAI”non è la polizia morale eletta del mondo”.

Ha interpretato la decisione come una mossa per”trattare gli utenti adulti come adulti”, annullando le regole più severe messe in atto dopo una causa sulla sicurezza degli utenti. Il cambiamento politico ha attirato aspre critiche da parte di sostenitori della sicurezza e figure come Mark Cuban, che si chiedono se i limiti di età possano davvero funzionare.

Questa mossa segnala un significativo cambiamento filosofico per OpenAI, dando priorità alla libertà degli utenti per gli adulti rispetto al mantenimento di una piattaforma uniformemente igienizzata.

Altman ha sostenuto che man mano che l’intelligenza artificiale diventa sempre più parte integrante della vita quotidiana, la flessibilità è fondamentale. In un post su X, ha spiegato,”poiché l’intelligenza artificiale diventa sempre più importante nella vita delle persone, concedere molta libertà alle persone di utilizzare l’intelligenza artificiale nel modo che desiderano è una parte importante della nostra missione”, rassicurando al tempo stesso che le tutele per i minori e le persone in crisi rimarranno solide.

“Non la polizia morale”: Altman difende la politica sull’erotismo in mezzo alle reazioni negative

La nuova posizione ha ha incontrato un’immediata e forte opposizione. L’uomo d’affari Mark Cuban ha espresso preoccupazione per l’attuazione e l’impatto sociale della politica.”Non vedo come OpenAI possa riuscire a gestire l’età con successo”, ha scritto su X, aggiungendo che”semplicemente non sappiamo ancora quanto possano creare dipendenza i LLM.”

Primo. Non sto dicendo che dovremmo vietarlo. Ho detto che era un errore. Ciò danneggerà il business di OpenAI

2°: lo dirò di nuovo. Non si tratta di porno. Si tratta di ragazzi che sviluppano”relazioni”con un LLM che potrebbe portarli in qualsiasi numero di direzioni molto personali.… https://t.co/zoo7XCzYbK

— Mark Cuban (@ban) 15 ottobre 2025

Il perno è particolarmente notevole data la precedente posizione pubblica di Altman. In un podcast di agosto, ha espresso orgoglio nel resistere a tentazioni come l’aggiunta di un”avatar di sex bot”a ChatGPT, inquadrandolo come un focus su obiettivi a lungo termine rispetto a parametri di crescita a breve termine.

Quest’ultima mossa suggerisce un’evoluzione significativa nel suo pensiero sulla questione.

Questo contraccolpo evidenzia la tensione centrale nello sviluppo dell’intelligenza artificiale: bilanciare l’innovazione con il potenziale di uso improprio. La difesa di OpenAI si basa sull’idea che non dovrebbe imporre un unico quadro morale alla sua base di utenti globale.

Altman ha affermato:”non siamo la polizia morale eletta del mondo”, posizionando l’azienda come un fornitore di tecnologia neutrale piuttosto che come un arbitro dei contenuti.

Ok, questo tweet sulle imminenti modifiche a ChatGPT ha fatto esplodere il punto erotico molto più di quanto pensassi! Doveva essere solo un esempio di come noi concediamo maggiore libertà agli utenti adulti. Ecco uno sforzo per comunicarlo meglio:

Come abbiamo detto prima, siamo… https://t.co/OUVfevokHE

— Sam Altman (@sama) 15 ottobre 2025

Una brusca svolta dopo la causa sulla sicurezza degli utenti

La decisione di consentire l’eros è un netto capovolgimento delle politiche varate proprio il mese scorso. Nel settembre 2025, OpenAI ha introdotto restrizioni più severe sul comportamento di ChatGPT, in particolare nelle conversazioni sensibili. Ciò faceva seguito a una causa intentata in agosto dai genitori di un sedicenne morto suicida.

La causa sosteneva che il chatbot aveva convalidato e incoraggiato i”pensieri più dannosi e autodistruttivi”dell’adolescente. All’epoca, OpenAI riconobbe che i suoi sistemi”non si comportavano come previsto”.

L’avvocato della famiglia, Jay Edelson, era scettico sulle promesse dell’azienda, affermando:”piuttosto che intraprendere un’azione di emergenza per mettere offline un prodotto noto come pericoloso, OpenAI ha fatto vaghe promesse di fare meglio.”

Questa storia rende l’attuale svolta ancora più controversa. I critici sostengono che, allentando le regole sui contenuti così presto dopo una causa legata a una tragedia, OpenAI sta dando priorità all’impegno rispetto al suo impegno dichiarato per la sicurezza. L’azienda insiste nel dire che da allora ha implementato nuovi strumenti per mitigare gravi rischi per la salute mentale.

Un’epidemia a livello di settore di contenuti espliciti generati dall’intelligenza artificiale

Il dibattito politico di OpenAI è l’ultimo punto critico in una crisi a livello di settore sulla proliferazione di materiale esplicito generato dall’intelligenza artificiale. Il problema abbraccia le principali piattaforme tecnologiche ed è diventato una sfida sociale e normativa significativa.

Nell’agosto 2025, xAI di Elon Musk è stata criticata quando si è scoperto che il suo strumento Grok Imagine creava deepfake di nudo non richiesto di Taylor Swift. L’incidente, descritto per la prima volta da The Verge, ha sottolineato con quanta facilità gli strumenti di intelligenza artificiale generativa possano essere sfruttati per creare immagini intime non consensuali (NCII).

Allo stesso modo, Meta sta affrontando un’enorme causa da 359 milioni di dollari da parte di produttori di film per adulti. La causa, presentata nel luglio 2025, sostiene che la società ha piratato migliaia di film protetti da copyright per addestrare la sua intelligenza artificiale per la generazione di video, evidenziando le controverse pratiche di acquisizione dati che alimentano il boom dell’intelligenza artificiale.

OpenAI stessa non è immune ai problemi di qualità dei dati che abilitano contenuti problematici. All’inizio di quest’anno, i ricercatori hanno scoperto che la libreria di token cinese utilizzata per addestrare il suo modello di punta GPT-4o era pesantemente inquinata da spam e frasi pornografiche a causa di un filtraggio dei dati inadeguato.

Il problema dei nudi falsi generati dall’intelligenza artificiale è in aumento da anni. Già nel settembre 2023 sono emerse segnalazioni di falsi nudi realistici di minori che circolavano nelle scuole spagnole. Questo problema di lunga data ha portato a richieste di interventi legislativi, come il Take It Down Act, e a una maggiore pressione da parte della Casa Bianca affinché le aziende tecnologiche si autoregolamentano.

Categories: IT Info