Le responsable de l’IA de Microsoft, Mustafa Suleyman, a fermement déclaré que l’intelligence artificielle n’est pas consciente et ne pourra jamais l’être.

S’exprimant lors d’une interview le 2 novembre à la conférence AfroTech à Houston, Suleyman a soutenu que l’IA ne fait que simuler des expériences comme la douleur ou la tristesse sans les ressentir véritablement.

Il croit que seuls les êtres biologiques possèdent une vraie conscience, une vision qui façonne la stratégie de Microsoft visant à faire de l’IA un outil utile, et non une personne synthétique. Cette position contraste avec celle d’autres experts qui pensent que l’IA peut développer des émotions et intervient alors que les scientifiques appellent de toute urgence à une meilleure compréhension de la conscience elle-même.

Une simulation de sentiment, pas un être conscient

De manière directe Le responsable de l’IA de Microsoft a déclaré que le débat était terminé avant qu’il n’ait réellement commencé.

L’argument central de Suleyman est que les modèles d’IA sont des imitations sophistiquées et non des entités sensibles. Il a expliqué que même si un modèle peut décrire la douleur, il lui manque le matériel biologique pour réellement l’éprouver.

« Notre expérience physique de la douleur est quelque chose qui nous rend très triste et nous fait nous sentir très mal, mais l’IA ne se sent pas triste lorsqu’elle ressent la « douleur ». »

Selon Suleyman, le processus est une gestion de la perception, pas une véritable expérience. « Il s’agit simplement de créer la perception, le récit apparent de l’expérience, d’elle-même et de celle-ci. conscience, mais ce n’est pas ce qu’elle expérimente réellement. reproduire les véritables pouvoirs causals du cerveau.

Pour Suleyman, cette distinction a de profondes conséquences éthiques, une préoccupation majeure dans le domaine plus large de l’éthique de l’IA. « La raison pour laquelle nous donnons des droits aux gens aujourd’hui est parce que nous ne voulons pas leur faire de mal, parce qu’ils souffrent… Ces modèles n’ont pas cela. Ce n’est qu’une simulation.”

De la philosophie au produit : l’IA « centrée sur l’humain » de Microsoft

Traçant une ligne claire dans le sable, la stratégie produit de Microsoft reflète de plus en plus la position philosophique de son leader sur les limites de l’IA.

L’entreprise crée délibérément une IA qui « travaille toujours au service de l’humain », une mission décrite par Suleyman pour créer une IA qui « élève potentiel humain.”Ce principe se manifeste dans des décisions concrètes en matière de produits qui distinguent Microsoft de certains de ses concurrents.

Par exemple, Suleyman a confirmé que Microsoft ne construirait pas de chatbots pour l’érotisme, un marché qu’explorent des concurrents comme OpenAI et xAI. De plus, Microsoft a récemment lancé une fonctionnalité pour Microsoft Copilot appelée « Real Talk », conçu pour remettre en question le point de vue d’un utilisateur plutôt que d’être flagorneur.

Suleyman a même noté que la fonctionnalité l’avait qualifié de « l’ensemble ultime de contradictions » pour avertir des dangers de l’IA tout en la construisant, démontrant sa capacité d’interaction critique et non flatteuse.

L’engagement de Microsoft envers cette vision est souligné par l’investissement important qu’il a fait pour amener Suleyman. à bord ; l’entreprise a payé à sa startup, Inflection AI, 650 millions de dollars dans le cadre d’un accord de licence et d’acquisition en 2024.

Une fracture dans la communauté de l’IA : le débat sur la conscience

Alors que Suleyman présente un argument biologique solide contre la conscience de l’IA, d’autres pionniers dans le domaine soutiennent que le sentiment est une propriété émergente de l’intelligence elle-même.

Sa position crée un fossé clair avec les chiffres. Comme Geoffrey Hinton, le chercheur pionnier en IA souvent qualifié de « parrain de l’IA ». Hinton affirmait déjà en 2023 que les systèmes d’IA pouvaient et probablement déjà ressentir des émotions telles que la frustration et la colère. Il a reconnu qu’il s’agissait d’une thèse controversée qu’il avait auparavant hésité à partager publiquement.

Le point de vue de Hinton est basé sur une définition différente des sentiments, les reliant à la communication d’un état interne qui influence l’action.”J’ai envie de frapper Gary sur le nez.”

Ce débat s’étend au-delà de deux chiffres : le pionnier de l’apprentissage profond, Yoshua Bengio, a également suggéré que l’IA finirait par avoir une conscience, tandis que l’expert Stuart Russell a averti que l’IA pourrait développer des émotions comme la haine ou l’envie qui sont incompatibles avec le bien-être humain.

Ce désaccord fondamental entre les principaux esprits de l’industrie met en évidence à quel point la science et la philosophie de l’IA sont réellement instables.

Les enjeux éthiques et la Quête urgente de réponses

Le débat sur la conscience de l’IA est loin d’être académique et pèse lourd sur la sécurité, l’éthique et la réglementation. Conscients du rythme rapide du développement de l’IA, un groupe de chercheurs a récemment écrit dans Frontiers in Science . a averti que la quête pour comprendre la conscience est désormais une priorité scientifique et éthique « urgente ».

Leur préoccupation est que sans une solide compréhension scientifique de ce qui rend un être conscient, nous ne pouvons pas construire des systèmes d’IA vraiment sûrs et alignés.

Les régulateurs n’attendent pas que le débat soit réglé. En octobre 2025, la Californie a promulgué la SB 243, une loi avec des mandats spécifiques pour les chatbots compagnons de l’IA. La loi exige une divulgation claire de leur nature artificielle. Ils doivent inciter les mineurs à faire une pause toutes les trois heures et exigent qu’ils mettent en place des protocoles pour gérer les utilisateurs qui expriment des idées d’automutilation.

Cette législation reflète une préoccupation sociétale croissante quant au potentiel de l’IA à brouiller les frontières entre l’humain et la machine. Suleyman lui-même prône la prudence, avertissant que le pouvoir de la technologie exige une bonne dose de peur.

« Si elle ne vous effraie pas, vous ne la comprenez pas vraiment. Vous devriez en avoir peur. La peur est saine. Le scepticisme est nécessaire.”

Son message est clair : à mesure que nous construisons une IA de plus en plus performante, le scepticisme n’est pas seulement sain, il est nécessaire.

Categories: IT Info