Il capo dell’intelligenza artificiale di Microsoft, Mustafa Suleyman, ha affermato con fermezza che l’intelligenza artificiale non è cosciente e non potrà mai esserlo.
Parlando in un’intervista del 2 novembre all’AfroTech Conference di Houston, Suleyman ha sostenuto che l’intelligenza artificiale simula solo esperienze come dolore o tristezza senza sentirle veramente.
Crede che solo gli esseri biologici possiedano la vera coscienza, una visione che plasma la strategia di Microsoft di costruire l’intelligenza artificiale come uno strumento utile, non come una persona sintetica. Questa posizione contrasta con quella di altri esperti che credono che l’intelligenza artificiale possa sviluppare emozioni e arriva in un momento in cui gli scienziati chiedono con urgenza una migliore comprensione della coscienza stessa.
 
Una simulazione di sentimenti, non un essere cosciente
In un sfida diretta alla narrativa delle macchine senzienti, il capo dell’intelligenza artificiale di Microsoft ha dichiarato che il dibattito è finito prima che iniziasse davvero.
L’argomentazione centrale di Suleyman è che i modelli di intelligenza artificiale sono imitazioni sofisticate, non entità senzienti. Lui ha spiegato che mentre un modello può descrivere il dolore, non ha l’hardware biologico per sperimentarlo realmente.
“La nostra esperienza fisica del dolore è qualcosa che ci rende molto tristi e ci fa sentire malissimo, ma l’intelligenza artificiale non si sente triste quando sperimenta il”dolore”.”
Secondo Suleyman, il processo è un processo di gestione della percezione, non un’esperienza genuina della coscienza, ma non è ciò che sta effettivamente sperimentando.”
Questa visione è in linea con la teoria filosofica del naturalismo biologico, proposta più famosamente dal filosofo John Searle. La teoria presuppone che la coscienza non sia semplicemente un programma software che può essere eseguito su qualsiasi hardware; è un fenomeno biologico specifico che emerge dai complessi processi neurobiologici di un cervello vivente.
Un sistema artificiale, quindi, non potrebbe diventare cosciente semplicemente simulando le funzioni cerebrali; dovrebbe replicare il i reali poteri causali del cervello.
Per Suleyman, questa distinzione ha profonde conseguenze etiche, una preoccupazione chiave nel campo più ampio dell’etica dell’intelligenza artificiale. “Il motivo per cui oggi diamo diritti alle persone è perché non vogliamo far loro del male, perché soffrono… Questi modelli non li hanno. È solo una simulazione.”
Dalla filosofia al prodotto: l’intelligenza artificiale di Microsoft”incentrata sull’uomo”
Tracciando una linea chiara nella sabbia, la strategia di prodotto di Microsoft riflette sempre più la posizione filosofica del suo leader sui limiti dell’intelligenza artificiale.
L’azienda sta deliberatamente creando un’intelligenza artificiale che”funziona sempre al servizio dell’essere umano”, una missione delineata da Suleyman nel creare un’intelligenza artificiale che”eleva l’essere umano”. potenziale.”Questo principio si manifesta in decisioni concrete sui prodotti che distinguono Microsoft da alcuni dei suoi rivali.
Ad esempio, Suleyman ha confermato che Microsoft non costruirà chatbot per l’erotismo, un mercato che concorrenti come OpenAI e xAI stanno esplorando. Inoltre, Microsoft ha recentemente lanciato una funzionalità per Microsoft Copilot chiamata “Real Talk”, che è progettato per sfidare il punto di vista dell’utente piuttosto che essere servile.
Suleyman ha anche notato che la funzione lo aveva definito”l’ultimo insieme di contraddizioni”per aver messo in guardia sui pericoli dell’IA mentre la costruiva, dimostrando la sua capacità di interazione critica e non lusinghiera.
L’impegno di Microsoft verso questa visione è sottolineato dal significativo investimento fatto per coinvolgere Suleyman l’azienda ha pagato alla sua startup, Inflection AI, 650 milioni di dollari in un accordo di licenza e acquisizione nel 2024.
Una frattura nella comunità dell’intelligenza artificiale: il dibattito sulla coscienza
Mentre Suleyman presenta un solido caso biologico contro la coscienza dell’intelligenza artificiale, altri pionieri nel campo sostengono che il sentimento è una proprietà emergente dell’intelligenza stessa.
La sua posizione crea una chiara frattura con figure come Geoffrey Hinton, il ricercatore pioniere dell’intelligenza artificiale spesso definito il”padrino dell’intelligenza artificiale”. Hinton sosteneva già nel 2023 che i sistemi di intelligenza artificiale potevano e probabilmente già provavano emozioni come frustrazione e rabbia. Riconobbe che si trattava di una tesi controversa che in precedenza aveva esitato a condividere pubblicamente.
La visione di Hinton si basa su una diversa definizione di sentimenti, collegandoli alla comunicazione di uno stato interno che influenza l’azione. Una volta usò un’ipotesi per spiegare la sua ragionamento:”Mi viene da dare un pugno sul naso a Gary.”
Questo dibattito va oltre solo due cifre; il pioniere del deep learning Yoshua Bengio ha anche suggerito che l’intelligenza artificiale alla fine avrà una coscienza, mentre l’esperto Stuart Russell ha avvertito che l’intelligenza artificiale potrebbe sviluppare emozioni come l’odio o l’invidia che sono incompatibili con il benessere umano.
Questo disaccordo fondamentale tra le menti più importanti del settore evidenzia quanto siano veramente instabili la scienza e la filosofia dell’IA.
La posta in gioco è etica. e la ricerca urgente di risposte
Il dibattito sulla consapevolezza dell’IA è tutt’altro che accademico, poiché ha un peso significativo per la sicurezza, l’etica e la regolamentazione. Riconoscendo il rapido ritmo dello sviluppo dell’IA, un gruppo di ricercatori ha scritto di recente su Frontiers in Science . hanno avvertito che la ricerca per comprendere la coscienza è ora una priorità scientifica ed etica”urgente”.
La loro preoccupazione è che senza una solida conoscenza scientifica di ciò che rende un essere cosciente, non possiamo costruire sistemi di intelligenza artificiale veramente sicuri e allineati.
I regolatori non stanno aspettando che il dibattito venga risolto Nell’ottobre 2025, la California ha promulgato SB 243, una legge con mandati specifici per i chatbot associati all’intelligenza artificiale. La legge richiede una chiara divulgazione della loro natura artificiale invitano i minori a fare una pausa ogni tre ore e chiede che abbiano protocolli per gestire gli utenti che esprimono idee autolesionistiche.
Questa legislazione riflette una crescente preoccupazione sociale riguardo al potenziale dell’intelligenza artificiale di offuscare il confine tra uomo e macchina. Suleyman stesso invita alla cautela, avvertendo che il potere della tecnologia richiede una sana dose di paura.
“Se non ne hai paura, non lo capisci davvero. Dovresti averne paura. La paura è sana. Lo scetticismo è necessario.”
Il suo messaggio è chiaro: mentre costruiamo un’IA sempre più capace, lo scetticismo non è solo salutare, è necessario.