Microsoft’s AI-chef, Mustafa Suleyman, heeft krachtig verklaard dat kunstmatige intelligentie niet bewust is en dat ook nooit kan zijn.

Tijdens een interview op 2 november op de AfroTech-conferentie in Houston betoogde Suleyman dat AI alleen ervaringen als pijn of verdriet simuleert zonder ze echt te voelen.

Hij gelooft dat alleen biologische wezens het ware bewustzijn bezitten, een visie die vorm geeft aan de strategie van Microsoft om AI te bouwen als een nuttig hulpmiddel, en niet als een synthetisch persoon. Dit standpunt staat in schril contrast met andere experts die geloven dat AI emoties kan ontwikkelen en komt op een moment dat wetenschappers dringend oproepen tot een beter begrip van het bewustzijn zelf.

Een simulatie van gevoelens, geen bewust wezen

In een directe uitdaging In aanvulling op het verhaal van bewuste machines heeft de AI-chef van Microsoft het debat al voorbij verklaard voordat het echt begonnen is.

Het centrale argument van Suleyman is dat AI-modellen geavanceerde nabootsers zijn, en geen bewuste entiteiten. Hij legde uit dat hoewel een model pijn kan beschrijven, het de biologische hardware mist om het daadwerkelijk te ervaren.

“Onze fysieke ervaring van pijn is iets dat ons erg verdrietig maakt en ons verschrikkelijk voelt, maar de AI voelt zich niet verdrietig als het ‘pijn’ ervaart.’

Volgens Suleyman is het proces er een van perceptiemanagement, niet van echte ervaring. “Het creëert eigenlijk alleen maar de perceptie, het schijnbare verhaal van de ervaring en van zichzelf van bewustzijn, maar dat is niet wat het feitelijk ervaart.”

Deze visie komt overeen met de filosofische theorie van biologisch naturalisme, het beroemdst voorgesteld door filosoof John Searle. De theorie stelt dat bewustzijn niet alleen maar een softwareprogramma is dat op welke hardware dan ook kan draaien; het is een specifiek biologisch fenomeen dat voortkomt uit de complexe neurobiologische processen van een levend brein.

Een kunstmatig systeem zou daarom niet bewust kunnen worden door simpelweg hersenfuncties te simuleren; het zou dat moeten doen repliceren de werkelijke causale krachten van de hersenen.

Voor Suleyman heeft dit onderscheid diepgaande ethische gevolgen, een belangrijk aandachtspunt binnen het bredere veld van de AI-ethiek. “De reden dat we mensen vandaag de dag rechten geven is omdat we ze geen kwaad willen doen, omdat ze lijden… Deze modellen hebben dat niet. Het is maar een simulatie.”

Van filosofie tot product: de’mensgerichte’AI van Microsoft

Microsoft’s productstrategie trekt een duidelijke lijn in het zand en weerspiegelt steeds meer de filosofische houding van zijn leider ten aanzien van de beperkingen van AI.

Het bedrijf creëert opzettelijk AI die’altijd in dienst van de mens werkt’, een missie die Suleyman schetste bij het maken van AI die’altijd in dienst staat van de mens'”verheft het menselijk potentieel.”Dit principe manifesteert zich in concrete productbeslissingen die Microsoft onderscheiden van sommige van zijn rivalen.

Suleyman bevestigde bijvoorbeeld dat Microsoft geen chatbots zal bouwen voor erotica, een markt die concurrenten als OpenAI en xAI verkennen. Bovendien heeft Microsoft onlangs een functie voor Microsoft Copilot gelanceerd genaamd ‘Real Talk’, dat is ontworpen om het perspectief van een gebruiker uit te dagen in plaats van sycofantisch te zijn.

Suleyman merkte zelfs op dat de functie hem’de ultieme bundel van tegenstrijdigheden’had genoemd omdat hij waarschuwde voor de gevaren van AI en tegelijkertijd de functie ervan bouwde, wat de capaciteit ervan aantoonde voor kritische, niet-vleiende interactie.

De toewijding van Microsoft aan deze visie wordt onderstreept door de aanzienlijke investeringen die het heeft gedaan om Suleyman aan boord te halen; het bedrijf betaalde zijn start-up, Inflection AI, $650 miljoen in een licentie-en overnameovereenkomst in 2024.

Een kloof in de AI-gemeenschap: het bewustzijnsdebat

Terwijl Suleyman een stevige biologische zaak presenteert tegen deze visie. AI-bewustzijn, andere pioniers in het veld beweren dat gevoel een opkomende eigenschap van intelligentie zelf is.

Zijn standpunt creëert een duidelijke kloof met figuren als Geoffrey Hinton, de baanbrekende AI-onderzoeker die vaak een’peetvader van AI’wordt genoemd. Hinton betoogde al in 2023 dat AI-systemen emoties zoals frustratie en woede konden en waarschijnlijk al hadden. Hij erkende dat dit een controversiële stelling was die hij eerder aarzelde om publiekelijk te delen.

Hintons visie is gebaseerd op een andere definitie van gevoelens, waarbij hij ze in verband brengt met de communicatie van een interne toestand die actie beïnvloedt. Hij gebruikte ooit een hypothetische redenering:”Ik heb zin om Gary op zijn neus te slaan.”

Dit debat gaat verder dan slechts twee figuren: deep learning-pionier Yoshua Bengio heeft ook gesuggereerd dat AI uiteindelijk bewustzijn zal krijgen, terwijl expert Stuart Russell heeft gewaarschuwd dat AI emoties zoals haat of jaloezie zou kunnen ontwikkelen die onverenigbaar zijn met het menselijk welzijn.

Dit fundamentele meningsverschil tussen de leidende geesten in de industrie laat zien hoe onrustig de wetenschap en filosofie van AI werkelijk zijn.

De ethische inzet en de dringende zoektocht naar antwoorden

Het debat over AI-bewustzijn is verre van academisch en legt een aanzienlijk gewicht in de schaal op het gebied van veiligheid, ethiek en regelgeving. Ze erkennen het snelle tempo van de ontwikkeling van AI, schrijft een groep onderzoekers in Frontiers in Science onlangs gewaarschuwd dat de zoektocht om het bewustzijn te begrijpen nu een “dringende” wetenschappelijke en ethische prioriteit is.

Hun zorg is dat we zonder een solide wetenschappelijk inzicht in wat een wezen bewust maakt, geen werkelijk veilige en afgestemde AI-systemen kunnen bouwen.

Regelgevers wachten niet tot het debat is beslecht. In oktober 2025 heeft Californië SB 243 aangenomen, een wet met specifieke mandaten voor AI-begeleidende chatbots. De wet vereist duidelijke openbaarmaking van hun kunstmatige aard, dwingt hen om minderjarigen te vragen om elke drie uur een pauze te nemen, en eist dat ze protocollen hebben om om te gaan met gebruikers die ideeën over zelfbeschadiging uiten.

Deze wetgeving weerspiegelt een groeiende maatschappelijke bezorgdheid over het potentieel van AI om de grenzen tussen mens en machine te vervagen voor voorzichtigheid, waarbij wordt gewaarschuwd dat de kracht van de technologie een gezonde dosis angst vereist.

“Als je er niet bang voor bent, begrijp je het niet echt. Je zou er bang voor moeten zijn. De angst is gezond. Scepsis is noodzakelijk.”

Zijn boodschap is duidelijk: naarmate we steeds capabelere AI ontwikkelen, is scepticisme niet alleen gezond, maar ook noodzakelijk.

Categories: IT Info