Un groupe de plus de 70 scientifiques a publiquement réprimandé la présidente de la Commission européenne, Ursula von der Leyen, lui demandant de retirer une déclaration selon laquelle l’IA à l’échelle humaine pourrait arriver « l’année prochaine ».
Dans une lettre ouverte envoyée lundi depuis Bruxelles, les experts, y compris des conseillers de l’ONU, ont qualifié cette affirmation de non scientifique et de dangereuse. Ils affirment que cela fait écho au battage publicitaire des PDG américains du secteur technologique plutôt qu’à des preuves empiriques.
La lettre indique qu’amplifier de telles affirmations mine la crédibilité de l’Europe et contribue à une bulle spéculative. Le commentaire original de Von der Leyen, fait en mai, était basé sur les déclarations des dirigeants d’OpenAI, d’Anthropic et de Nvidia, selon une divulgation de la Commission.
La présidente de l’UE von der Leyen sous le feu
Lors d’une conférence sur le budget de l’UE en mai, la présidente von der Leyen a fait une prédiction frappante :”Nous pensions que l’IA ne s’approcherait du raisonnement humain que vers 2050. Nous nous attendons maintenant à ce que cela se produise dès l’année prochaine.”
Son commentaire a signalé une accélération spectaculaire des délais de l’IA, captivante. l’attention des technologues et des décideurs politiques. Cependant, la communauté scientifique a maintenant formellement contesté le fondement de cette affirmation.
Citant une demande d’accès à l’information qui révélait la source de sa revendication, la lettre ouverte pointe directement vers les déclarations de dirigeants technologiques comme Sam Altman d’OpenAI et Dario Amodei d’Anthropic.
Les signataires, parmi lesquels d’éminents chercheurs en IA et conseillers de l’ONU Abeba Birhane et Virginia Dignum, soutiennent que ces affirmations ne sont pas fondées sur une science rigoureuse.
En réponse à cette lettre, la Commission européenne a cherché à reformuler les propos du président. Un porte-parole a déclaré à Euractiv que cette déclaration n’était pas une prédiction formelle.
“Il s’agit de se préparer, pas de déclarer une date. Une planification responsable ne consiste pas à deviner l’avenir, mais à se préparer à différents scénarios.”
Cette clarification, Cependant, cela n’a pas fait grand-chose pour apaiser les principales critiques de la communauté scientifique.
Marketing contre méthode : les scientifiques dénoncent le battage médiatique axé sur le profit
Dans leur lettre, les scientifiques affirment que von der Leyen répète des récits marketing sans fondement.”Il s’agit de déclarations marketing motivées par le profit et l’idéologie plutôt que par des preuves empiriques et formelles.”
Les signataires affirment que de telles affirmations sont conçues pour alimenter la spéculation financière et sont manifestement liées aux impératifs financiers des entreprises technologiques, et non à une validation scientifique.
Lettre des scientifiques de l’ICCE au président de l’UE à propos du battage médiatique sur l’IA
Pour les observateurs du marché, l’avertissement des scientifiques concernant une « bulle spéculative » est particulièrement opportun. Le secteur de l’IA est au milieu d’un boom des dépenses d’investissement approchant les 400 milliards de dollars par an, une frénésie de dépenses qui établit des parallèles alarmants avec les bulles technologiques passées.
Dans ce contexte de forte hausse des investissements et de faux pas publics, la lettre des universitaires pèse lourd.
Le mois dernier, l’industrie de l’IA a été témoin d’un exemple très médiatisé de battage médiatique entrant en collision avec la réalité lorsqu’OpenAI a annoncé prématurément que son modèle GPT-5 avait résolu problèmes mathématiques célèbres et difficiles.
Les mathématiciens ont rapidement démystifié cette affirmation, clarifiant que le modèle avait simplement effectué une recherche documentaire avancée. Ce revirement public a été très embarrassant, incitant Demis Hassabis, PDG de Google DeepMind, à commenter simplement: « C’est embarrassant. »
De tels événements alimentent un débat plus large et plus urgent sur la course incontrôlée vers la superintelligence. Les inquiétudes croissantes concernant le risque existentiel ont récemment incité plus de 800 dirigeants mondiaux, du co-fondateur d’Apple Steve Wozniak au pionnier de l’IA Yoshua Bengio, à signer une déclaration exigeant l’arrêt du développement de la superintelligence jusqu’à ce qu’elle puisse être prouvée sûre.
C’est un sentiment reflétant une profonde anxiété du public que la lettre des scientifiques exploite.
Certaines entreprises réagissent déjà à ce changement d’opinion du public. Mustafa Suleyman, PDG de Microsoft AI, a récemment annoncé la création d’une nouvelle équipe de « superintelligence humaniste », encadrant explicitement la mission autour de la sécurité et en déclarant: « Nous ne pouvons pas simplement accélérer à tout prix. Ce serait simplement une folle mission suicide. » D’un point de vue stratégique, cette décision peut être considérée comme une tentative directe de construire une marque de confiance pour la prudence dans un domaine de plus en plus défini par le risque.
En fin de compte, la réticence de la communauté scientifique met en évidence une tension profondément enracinée. Alors que les progrès légitimes et évalués par les pairs en matière d’IA se poursuivent, comme le montrent les récents travaux de Google DeepMind avec le mathématicien Terence Tao, le discours public est souvent dominé par des affirmations sensationnelles.
La demande des scientifiques est un appel à la diligence, exhortant les décideurs politiques à faire la distinction entre les véritables progrès scientifiques et les puissants moteurs de marketing à l’origine de la ruée vers l’or de l’IA.