Een groep van ruim zeventig wetenschappers heeft Ursula von der Leyen, voorzitter van de Europese Commissie, publiekelijk berispt en geëist dat ze een verklaring intrekt dat AI op menselijk niveau “volgend jaar” zou kunnen verschijnen.
In een open brief die maandag vanuit Brussel werd verzonden, noemden de experts, waaronder VN-adviseurs, haar bewering onwetenschappelijk en gevaarlijk. Ze beweren dat het eerder een echo is van de marketinghype van Amerikaanse tech-CEO’s dan van empirisch bewijs.
In de brief staat dat het versterken van dergelijke beweringen de geloofwaardigheid van Europa ondermijnt en bijdraagt aan een speculatieve zeepbel. De oorspronkelijke opmerking van Von der Leyen, gemaakt in mei, was gebaseerd op verklaringen van de leiders van OpenAI, Anthropic en Nvidia, volgens een openbaarmaking van de Commissie.
EU-president von der Leyen onder vuur
In een EU in mei deed voorzitter Von der Leyen een opvallende voorspelling:”We dachten dat AI pas rond 2050 het menselijk redeneren zou benaderen. Nu verwachten we dat dit al volgend jaar zal gebeuren.”
Haar commentaar signaleerde een dramatische versnelling van de AI-tijdlijnen en trok de aandacht van beide technologen en beleidsmakers. De wetenschappelijke gemeenschap heeft de basis van deze bewering nu echter formeel betwist.
Onder verwijzing naar een verzoek om vrijheid van informatie dat de bron van haar bewering openbaarde, verwijst de open brief rechtstreeks naar verklaringen van technologiemanagers zoals Sam Altman van OpenAI en Dario Amodei van Anthropic.
Ondertekenaars, waaronder prominente AI-onderzoekers en VN-adviseurs Abeba Birhane en Virginia Dignum, beweren dat deze beweringen niet gebaseerd zijn op rigoureuze wetenschap.
In reactie op de brief probeerde de Europese Commissie de woorden van de president te herformuleren. Een woordvoerder vertelde Euractiv dat de verklaring geen formele voorspelling was.
“Dit gaat over voorbereid zijn, niet over het afkondigen van een datum. Verantwoord plannen is niet het raden van de toekomst, het is het voorbereiden op verschillende scenario’s.”
Deze verduidelijking heeft echter weinig opgeleverd. om de kernkritiek van de wetenschappelijke gemeenschap te onderdrukken.
Marketing versus methode: wetenschappers hekelen winstgedreven hype
In hun brief beweren de wetenschappers dat Von der Leyen ongefundeerde marketingverhalen herhaalt. “Dit zijn marketinguitspraken die worden gedreven door winstmotief en ideologie in plaats van empirisch bewijs en formeel bewijs.”
De ondertekenaars beweren dat dergelijke beweringen zijn bedoeld om financiële speculatie aan te wakkeren en duidelijk verband houden met de financiële imperatieven van de technologiebedrijven, en niet met wetenschappelijke validatie.
ICCE-wetenschappers-brief-aan-EU-president-over-AI-Hype
Voor marktwaarnemers is de waarschuwing van de wetenschappers over een “speculatieve zeepbel” bijzonder tijdig. De AI-sector bevindt zich midden in een hausse aan kapitaaluitgaven van bijna 400 miljard dollar per jaar, een uitgavenrazernij die alarmerende parallellen trekt met technologiezeepbellen uit het verleden.
Tegen deze achtergrond van stijgende investeringen en publieke misstappen krijgt de brief van academici een aanzienlijk gewicht.
Vorige maand was de AI-industrie getuige van een spraakmakend voorbeeld van een hype die in botsing kwam met de werkelijkheid toen OpenAI voortijdig aankondigde dat zijn GPT-5-model een beroemd moeilijk probleem had opgelost wiskundige problemen.
Wiskundigen ontkrachtten deze bewering snel en verduidelijkten dat het model eenvoudigweg een geavanceerd literatuuronderzoek had uitgevoerd. De publieke omkering was een aanzienlijke schande, wat Google DeepMind CEO Demis Hassabis ertoe aanzette simpelweg te zeggen: “Dit is beschamend.”
Dergelijke gebeurtenissen voeden een breder, urgenter debat over de ongecontroleerde race naar superintelligentie. De groeiende bezorgdheid over existentiële risico’s heeft onlangs meer dan 800 wereldleiders, van mede-oprichter van Apple Steve Wozniak tot AI-pionier Yoshua Bengio, ertoe aangezet een verklaring te ondertekenen waarin wordt geëist dat de ontwikkeling van superintelligentie wordt stopgezet totdat bewezen kan worden dat deze veilig is.
Het is een sentiment dat de diepe publieke bezorgdheid weerspiegelt waar de brief van de wetenschappers op inspeelt.
Sommige bedrijven reageren al op deze verschuiving in het publieke sentiment. Microsoft AI-CEO Mustafa Suleyman heeft onlangs een nieuw ‘Humanist Superintelligence’-team aangekondigd, waarbij de missie expliciet rond veiligheid wordt geformuleerd en wordt verklaard:”We kunnen niet zomaar ten koste van alles versnellen. Dat zou gewoon een krankzinnige zelfmoordmissie zijn.”Strategisch gezien kan deze stap worden gezien als een directe poging om een merk op te bouwen dat vertrouwd wordt op voorzichtigheid in een veld dat steeds meer wordt bepaald door risico’s.
Uiteindelijk benadrukt de tegenslag van de wetenschappelijke gemeenschap een diepgewortelde spanning. Hoewel de legitieme, door vakgenoten beoordeelde vooruitgang op het gebied van AI voortduurt, zoals blijkt uit het recente werk van Google DeepMind met wiskundige Terence Tao, wordt het publieke verhaal vaak gedomineerd door sensationele beweringen.
De eis van de wetenschappers is een roep om toewijding, waarbij beleidsmakers worden aangespoord onderscheid te maken tussen echte wetenschappelijke vooruitgang en de krachtige marketingmotoren die de AI-goudkoorts aandrijven.