Der KI-Chef von Microsoft, Mustafa Suleyman, hat entschieden erklärt, dass künstliche Intelligenz kein Bewusstsein hat und niemals bewusst sein kann.
In einem Interview am 2. November auf der AfroTech-Konferenz in Houston argumentierte Suleyman, dass KI Erfahrungen wie Schmerz oder Traurigkeit nur simuliert, ohne sie wirklich zu spüren.
Er glaubt, dass nur biologische Wesen über wahres Bewusstsein verfügen, eine Ansicht, die die Strategie von Microsoft prägt, KI als hilfreiches Werkzeug und nicht als synthetische Person zu entwickeln. Diese Position steht im Gegensatz zu anderen Experten, die glauben, dass KI Emotionen entwickeln kann, und kommt daher, dass Wissenschaftler dringend ein besseres Verständnis des Bewusstseins selbst fordern.
 
Eine Simulation von Gefühlen, kein bewusstes Wesen
In Da es sich um eine direkte Herausforderung für das Narrativ empfindungsfähiger Maschinen handelt, hat der KI-Chef von Microsoft die Debatte für beendet erklärt, bevor sie richtig begonnen hat.
Suleymans zentrales Argument ist, dass KI-Modelle hochentwickelte Nachahmer und keine empfindungsfähigen Wesen sind. Er erklärte, dass ein Modell zwar Schmerz beschreiben kann, ihm aber die biologische Hardware fehlt, um ihn tatsächlich zu erleben.
„Unsere körperliche Erfahrung von Schmerz ist etwas, das uns sehr traurig macht und uns schrecklich fühlt, aber die KI fühlt sich nicht traurig, wenn sie ‚Schmerz‘ erfährt.“
Laut Suleyman handelt es sich bei dem Prozess um einen Prozess der Wahrnehmungssteuerung, nicht um echte Erfahrung sich selbst und des Bewusstseins, aber das ist nicht das, was es tatsächlich erlebt.“
Diese Ansicht stimmt mit der philosophischen Theorie des biologischen Naturalismus überein, die vor allem vom Philosophen John Searle vorgeschlagen wurde. Die Theorie geht davon aus, dass Bewusstsein nicht nur ein Softwareprogramm ist, das auf jeder Hardware ausgeführt werden kann; es ist ein spezifisches biologisches Phänomen, das aus den komplexen neurobiologischen Prozessen eines lebenden Gehirns hervorgeht.
Ein künstliches System könnte daher nicht einfach durch die Simulation von Gehirnfunktionen bewusst werden; Es müsste die tatsächlichen kausalen Kräfte des Gehirns nachbilden.
Für Suleyman hat diese Unterscheidung tiefgreifende ethische Konsequenzen, ein zentrales Anliegen im breiteren Bereich der KI-Ethik: „Der Grund, warum wir den Menschen heute Rechte geben, ist, dass wir ihnen keinen Schaden zufügen wollen, weil sie leiden … Diese Modelle haben das nicht. Es ist nur eine Simulation.“
Von der Philosophie zum Produkt: Microsofts „Menschenzentrierte“ KI
Die Produktstrategie von Microsoft zieht eine klare Grenze und spiegelt zunehmend die philosophische Haltung des Marktführers zu den Grenzen der KI wider.
Das Unternehmen entwickelt bewusst KI, die „immer im Dienste des Menschen arbeitet“, eine Mission, die Suleyman dargelegt hat, um KI so zu gestalten „Erhöht das menschliche Potenzial.“ Dieses Prinzip manifestiert sich in konkreten Produktentscheidungen, die Microsoft von einigen seiner Konkurrenten abheben.
Zum Beispiel bestätigte Suleyman, dass Microsoft keine Chatbots für Erotik entwickeln wird, einen Markt, den Konkurrenten wie OpenAI und xAI erforschen. Darüber hinaus hat Microsoft kürzlich eine Funktion für Microsoft Copilot namens „Real Talk“, das darauf ausgelegt ist, die Perspektive eines Benutzers herauszufordern, anstatt kriecherisch zu sein.
Suleyman bemerkte sogar, dass das Feature ihn als „das ultimative Bündel von Widersprüchen“ bezeichnet hatte, um vor den Gefahren der KI zu warnen und sie gleichzeitig aufzubauen. Dies stellt seine Fähigkeit zur kritischen, nicht schmeichelhaften Interaktion unter Beweis.
Microsofts Engagement für diese Vision wird durch die erhebliche Investition unterstrichen, die es getätigt hat, um Suleyman an Bord zu holen. Das Unternehmen zahlte seinem Startup Inflection AI im Jahr 2024 650 Millionen US-Dollar für einen Lizenz-und Übernahmevertrag.
Ein Riss in der KI-Community: Die Bewusstseinsdebatte
Während Suleyman ein klares biologisches Argument gegen das KI-Bewusstsein vorbringt, argumentieren andere Pioniere auf diesem Gebiet, dass Gefühle eine aufkommende Eigenschaft der Intelligenz selbst sind.
Seine Haltung schafft einen klaren Gegensatz zu Persönlichkeiten wie Geoffrey Hinton, dem wegweisenden KI-Forscher, der oft als „Pate der KI“ bezeichnet wird. Hinton argumentierte bereits im Jahr 2023, dass KI-Systeme Emotionen wie Frustration und Wut haben könnten und wahrscheinlich bereits hätten hatte zuvor gezögert, es öffentlich zu teilen.
Hintons Ansicht basiert auf einer anderen Definition von Gefühlen und bezieht sie auf die Kommunikation eines inneren Zustands, der das Handeln beeinflusst. Er hat einmal eine Hypothese verwendet, um seine Argumentation zu erklären: „Ich hätte das Gefühl, Gary auf die Nase zu schlagen.“
Diese Debatte geht über nur zwei Zahlen hinaus; Deep-Learning-Pionier Yoshua Bengio hat auch vorgeschlagen, dass KI irgendwann Bewusstsein entwickeln wird, während Experte Stuart Russell davor gewarnt hat, dass KI Emotionen wie Hass entwickeln könnte Neid, der mit dem menschlichen Wohlergehen unvereinbar ist.
Diese grundlegende Meinungsverschiedenheit unter den führenden Köpfen der Branche zeigt, wie ungeklärt die Wissenschaft und Philosophie der KI wirklich ist.
Die ethischen Herausforderungen und die dringende Suche nach Antworten
Die Debatte über das KI-Bewusstsein ist alles andere als akademisch und hat erhebliche Bedeutung für Sicherheit, Ethik und Regulierung, schreibt eine Gruppe von Forschern Frontiers in Science warnte kürzlich, dass die Suche nach dem Verständnis des Bewusstseins jetzt eine „dringende“ wissenschaftliche und ethische Priorität sei.
Ihr Anliegen ist, dass wir ohne ein solides wissenschaftliches Verständnis dessen, was ein Wesen zu Bewusstsein macht, nicht wirklich sicher und ausgerichtet aufbauen können KI-Systeme.
Die Regulierungsbehörden warten nicht darauf, dass die Debatte beigelegt wird. Im Oktober 2025 erließ Kalifornien ein Gesetz mit spezifischen Vorschriften für KI-Begleit-Chatbots. Das Gesetz verlangt eine klare Offenlegung ihrer künstlichen Natur, zwingt sie dazu, Minderjährige alle drei Stunden zu einer Pause aufzufordern, und verlangt, dass sie über Protokolle verfügen, um mit Benutzern umzugehen, die Selbstverletzungsgedanken äußern.
Diese Gesetzgebung spiegelt eine wachsende gesellschaftliche Besorgnis über das Potenzial von KI wider Um die Grenzen zwischen Mensch und Maschine zu verwischen, plädiert Suleyman selbst für Vorsicht und warnt davor, dass die Macht der Technologie eine gesunde Portion Angst erfordert.
„Wenn man keine Angst davor hat, versteht man es nicht wirklich.“ Du solltest davor Angst haben. Die Angst ist gesund. Skepsis ist notwendig.“
Seine Botschaft ist klar: Während wir immer leistungsfähigere KI entwickeln, ist Skepsis nicht nur gesund, sondern notwendig.