Une coalition diversifiée de plus de 800 personnalités publiques, dont des lauréats du prix Nobel, des membres de la royauté britannique et les « parrains » de l’IA moderne, a signé une déclaration mercredi appelant à un arrêt mondial du développement de la « superintelligence ».
Citant allant de l’obsolescence humaine à l’extinction pure et simple, les signataires exigent l’interdiction de créer une IA dépassant les capacités cognitives humaines jusqu’à ce qu’elle puisse être prouvée sûre, contrôlable et bénéficier d’un large soutien du public.
Cet effort, organisé par le Future of Life Institute (FLI), se déroule au milieu d’une course technologique qui s’intensifie. Il oppose un nombre croissant d’experts concernés à l’immense élan financier et politique qui stimule le développement de l’IA.
Une large coalition tire la sonnette d’alarme
Les organisateurs de la déclaration soulignent un décalage marqué entre les ambitions de l’industrie technologique et la volonté du public.
Une récente enquête nationale du FLI auprès de 2 000 Américains. Les adultes ont constaté que 73 % souhaitent une réglementation stricte sur l’IA avancée. De plus, 64 % pensent que l’IA surhumaine ne devrait pas être développée tant qu’elle n’a pas été prouvée sûre, ou ne devrait jamais être créée du tout.
Seulement 5 % des Américains soutiennent le statu quo actuel d’un développement rapide et non réglementé.
Anthony Aguirre, directeur exécutif de FLI, l’a dit sans détour dans une interview avec NBC News :”Ce n’est pas ce que veut le public. Ils ne veulent pas être dans une course pour”
Ce sentiment est repris par le pionnier de l’IA Yoshua Bengio, qui a signé la déclaration et a ajouté:”Nous devons également nous assurer que le public a son mot à dire beaucoup plus fort dans les décisions qui façonneront notre avenir collectif.”
La liste des signataires se distingue par son ampleur, comblant de profondes divisions politiques et culturelles.
Steve, co-fondateur d’Apple Wozniak, Richard Branson du groupe Virgin et l’ancien président des chefs d’état-major Mike Mullen ont signé, tout comme les personnalités médiatiques conservatrices Glenn Beck et Steve Bannon.
Ils sont rejoints par le prince Harry et Meghan Markle, l’acteur Joseph Gordon-Levitt et l’ancienne présidente irlandaise Mary Robinson. Peut-être plus important encore, la liste comprend les lauréats du prix Turing, Geoffrey Hinton et Yoshua Bengio, dont les travaux fondamentaux ont permis le boom actuel de l’IA.
Leur participation confère une crédibilité scientifique substantielle à l’avertissement. L’auteur Yuval Noah Harari, un autre signataire, a averti: « La superintelligence briserait probablement le système d’exploitation même de la civilisation humaine – et est complètement inutile. »
Opinion publique contre ambition de l’industrie
Alors que les géants de la technologie investissent des milliards dans la course à la suprématie de l’IA, la déclaration affirme que l’objectif ultime est une frontière trop loin.
L’acteur et écrivain Sir Stephen Fry a commenté: « Par définition, cela donnerait lieu à un pouvoir que nous ne pourrions ni comprendre ni contrôler. »
Cette préoccupation concernant le contrôle est au cœur du débat, faisant écho aux craintes précédemment exprimées par d’anciens initiés d’OpenAI qui mettaient en garde contre un rythme de développement terriblement rapide.
Ironiquement, même les dirigeants des entreprises qui construisent ces systèmes ont exprimé des craintes similaires. Un article de blog de 2015 du PDG d’OpenAI, Sam Altman, bien avant le lancement de ChatGPT, déclarait :”Le développement de l’intelligence artificielle surhumaine (SMI) est probablement la plus grande menace pour l’existence continue de l’humanité.”
De même, Le PDG d’Anthropic, Dario Amodei, a publiquement estimé :”Je pense qu’il y a 25 % de chances que les choses se passent vraiment, très mal.”
Le PDG d’Anthropic, Dario Amodei, affirme maintenant que son P(Doom) est de 25 %.https://t.co/lAinvcaYUh
— Calum Chace (@cccalum) 19 septembre 2025
Mustafa Suleyman, PDG de Microsoft AI, a également déclaré :”Tant que nous ne pouvons pas prouver sans équivoque que c’est [sûr], nous ne devrions pas l’inventer.”
La course imparable à la suprématie de l’IA
Malgré ces problèmes internes avertissements, la course des entreprises et des pays vers la superintelligence se poursuit sans relâche.
Meta a explicitement nommé sa nouvelle division « Meta Superintelligence Labs », signalant son objectif d’entreprise. Cette poussée est alimentée par des investissements financiers stupéfiants.
Selon les prévisions du Gartner, les dépenses des entreprises en matière d’IA devraient atteindre 1 500 milliards de dollars en 2025.
OpenAI généré à lui seul 4,3 milliards de dollars de revenus au premier semestre 2025, démontrant l’afflux massif de capitaux dans le secteur.
Cette dynamique est renforcée par la politique nationale. Le plan d’action sur l’IA de l’administration Trump, dévoilé en juillet, donne la priorité à la suppression des obstacles réglementaires pour accélérer le développement et maintenir un avantage stratégique sur la Chine.
Une frontière trop loin ? Le débat sur le risque existentiel
Tous les experts en IA ne sont pas d’accord avec ces terribles avertissements. Le scientifique en chef de l’IA de Meta, Yann LeCun, a été un critique virulent de ce qu’il considère comme alarmiste. scénarios « catastrophiques ».
Il rejette l’idée d’une prise de contrôle incontrôlable de l’IA, envisageant plutôt un avenir d’« intelligence amplifiée » dans lequel les systèmes d’IA augmentent les capacités humaines plutôt que de les remplacer.
Cette perspective suggère que les risques sont gérables et que les avantages d’une IA puissante, de la guérison des maladies à la résolution du changement climatique, sont trop importants pour être abandonnés. peur.
Le point de vue de LeCun représente un fossé philosophique important au sein de la communauté de l’IA, encadrant le débat comme un débat entre une gestion prudente et une innovation ambitieuse et sans entrave.
En fin de compte, la déclaration impose un débat public sur l’avenir de l’humanité à une époque de machines de plus en plus puissantes. Ses organisateurs affirment que la décision de créer une espèce potentielle successeure ne devrait pas être laissée à une poignée de cadres technologiques et de chercheurs.
Le professeur et signataire de Berkeley, Stuart Russell, a présenté la proposition non pas comme une interdiction luddite mais comme une mesure de sécurité de bon sens.
“Ce n’est pas une interdiction ni même un moratoire au sens habituel du terme. C’est simplement une proposition visant à exiger des mesures de sécurité adéquates pour une technologie qui… a une chance significative de provoquer l’extinction de l’humanité.