Microsoft sta tracciando una linea dura nei confronti dei contenuti per adulti generati dall’intelligenza artificiale. Il capo dell’intelligenza artificiale dell’azienda, Mustafa Suleyman, ha dichiarato giovedì che l’azienda non costruirà servizi per”simulati erotica.”
Parlando al Paley International Council Summit a Menlo Park, in California, i suoi commenti segnano una chiara divisione dal partner chiave OpenAI, che la scorsa settimana ha annunciato che avrebbe consentito tali contenuti per adulti verificati su ChatGPT.
La posizione di Microsoft segnala un approccio più cauto alla sicurezza dell’IA e allinea il colosso della tecnologia con le nuove leggi statali che regolano i bot associati all’IA, evidenziando un divario crescente nel settore su come gestire gli usi sensibili dell’IA.
Microsoft traccia una linea dura sull’erotismo dell’IA, dividendosi con OpenAI
In una mossa segnalando un’importante divergenza politica rispetto al suo partner AI più vicino, Microsoft si è impegnata pubblicamente a evitare lo sviluppo di chatbot erotici.
Al Paley International Council Summit a Menlo Park, il CEO di Microsoft AI Mustafa Suleyman è stato inequivocabile riguardo alla direzione dell’azienda.
“Questo non è semplicemente un servizio che forniremo”, ha affermato Suleyman, aggiungendo:”Altre società lo costruirà.”Ha definito la creazione di tale intelligenza artificiale come un rischio significativo, sottolineando la necessità di una deliberata moderazione.”Questo è molto pericoloso e penso che dovremmo prendere decisioni consapevoli per evitare questo tipo di cose.”
Le osservazioni di Suleyman sono in netto contrasto con la posizione recentemente articolata da OpenAI. Poco più di una settimana fa, il CEO di OpenAI Sam Altman ha annunciato un cambiamento di politica per consentire contenuti erotici soggetti a limiti di età su ChatGPT.
Altman ha difeso la mossa posizionando la sua azienda come fornitore di piattaforme neutrali, affermando notoriamente:”non siamo la polizia morale eletta del mondo”. La sua logica si concentrava sull’autonomia degli utenti adulti man mano che l’intelligenza artificiale diventa sempre più integrata nella vita quotidiana.
Una spaccatura filosofica sempre più ampia tra i partner
Dietro questo disaccordo pubblico si nasconde una partnership complessa che mostra segni di tensione. Microsoft, un importante investitore e fornitore di servizi cloud per OpenAI, si sta concentrando sempre più sui propri servizi di intelligenza artificiale, in particolare sul suo assistente Copilot.
La posizione dell’azienda nei confronti dell’erotismo è in linea con una strategia più ampia per costruire quella che chiama”AI incentrata sull’uomo”.
Questa strategia è stata mostrata all’inizio di questa settimana con l’annuncio delle nuove funzionalità di Copilot, incluso un compagno animato chiamato Mico.
È L’obiettivo, secondo Microsoft, è quello di creare un’intelligenza artificiale che approfondisca la connessione umana e guadagni fiducia, una visione che apparentemente è in conflitto con lo sviluppo dell’intelligenza artificiale per le relazioni intime.
Suleyman stesso si è espresso in precedenza contro la creazione di servizi”apparentemente consapevoli”, una categoria che ora suggerisce include la tendenza verso l’erotismo dell’IA.
Gli analisti vedono questo come prova di una crescente spaccatura filosofica e strategica. Mentre OpenAI allarga i confini dell’intelligenza artificiale rivolta ai consumatori, anche in aree controverse, Microsoft sembra rafforzare il proprio marchio come fornitore di tecnologia responsabile e focalizzato sull’impresa.
Questi approcci diversi suggeriscono un futuro in cui le due società, pur essendo ancora partner, competono più direttamente per diversi segmenti del mercato dell’intelligenza artificiale.
L’industria è alle prese con la sicurezza e la regolamentazione in mezzo ai contenuti dell’intelligenza artificiale. Crisi
Il chiarimento di Suleyman arriva mentre l’intero settore tecnologico si trova ad affrontare una crisi a causa della proliferazione di materiale esplicito generato dall’intelligenza artificiale e le autorità di regolamentazione stanno iniziando a prenderne atto.
Una nuova legge della California, SB 243, ora regola direttamente i”chatbot associati”, imponendo rigidi limiti di età e vietando contenuti sessualmente espliciti per i minori. La politica di Microsoft si allinea perfettamente con questo quadro giuridico emergente.
Il problema dei contenuti espliciti generati dall’intelligenza artificiale è diffuso. Meta sta attualmente affrontando una massiccia causa da 359 milioni di dollari per aver piratato film per adulti protetti da copyright per addestrare la sua intelligenza artificiale per la generazione di video.
Nel frattempo, xAI di Elon Musk ha dovuto affrontare critiche per il suo chatbot Grok che genera deepfake non consensuali.
Il perno di OpenAI è particolarmente controverso data la sua storia recente. L’azienda ha implementato controlli di sicurezza più severi solo a settembre, dopo che i genitori di un adolescente morto per suicidio avevano intentato una causa.
L’avvocato della famiglia, Jay Edelson, è stato critico nei confronti della risposta dell’azienda alla tempo, affermando:”piuttosto che intraprendere azioni di emergenza per mettere offline un prodotto noto come pericoloso, OpenAI ha fatto vaghe promesse di fare meglio.”
Considerando questa storia, il perno ha attirato aspre critiche da parte di sostenitori della sicurezza e leader aziendali come Mark Cuban, che ha messo in dubbio la fattibilità di un’efficace verifica dell’età.”Non vedo come OpenAI possa riuscire a controllare l’invecchiamento con sufficiente successo”, ha commentato Cuban, esprimendo preoccupazione per il potenziale di dipendenza delle relazioni IA.
Primo. Non sto dicendo che dovremmo vietarlo. Ho detto che era un errore. Ciò danneggerà il business di OpenAI
2°: lo dirò di nuovo. Non si tratta di porno. Si tratta di ragazzi che sviluppano”relazioni”con un LLM che potrebbe portarli in qualsiasi numero di direzioni molto personali.… https://t.co/zoo7XCzYbK
— Mark Cuban (@ban) 15 ottobre 2025
Per Microsoft, evitare questa controversia sembra essere una decisione aziendale calcolata, che dà priorità alla sicurezza e conformità normativa rispetto al potenziale di coinvolgimento in un mercato ad alto rischio.