Een diverse coalitie van meer dan 800 publieke figuren, waaronder Nobelprijswinnaars, Britse royalty’s en de’godfathers’van de moderne AI, ondertekende woensdag een verklaring waarin werd opgeroepen tot een wereldwijde stopzetting van de ontwikkeling van’superintelligentie’.
Hierbij wordt verwezen naar risico’s De ondertekenaars eisen een verbod op het creëren van AI die de menselijke cognitieve vermogens overtreft, variërend van menselijke veroudering tot regelrechte uitsterving, totdat bewezen kan worden dat het veilig en beheersbaar is en brede publieke steun heeft.
De inspanning, georganiseerd door het Future of Life Institute (FLI), komt terecht in een steeds heviger wordende technologierace. Een groeiend koor van bezorgde experts staat tegenover het immense financiële en politieke momentum dat de ontwikkeling van AI vooruit stuwt.
Een brede coalitie klinkt als de beste Alarm
De organisatoren van de verklaring wijzen op een sterke kloof tussen de ambities van de technologie-industrie en de wil van het publiek.
Een recente FLI-onderdaan Uit een enquête onder 2000 Amerikaanse volwassenen bleek dat 73% robuuste regelgeving op het gebied van geavanceerde AI wil. Bovendien is 64% van mening dat bovenmenselijke AI pas ontwikkeld mag worden als bewezen is dat het veilig is, of helemaal nooit mag worden gemaakt.
Slechts 5% van de Amerikanen steunt de huidige status quo van snelle, ongereguleerde ontwikkeling.
Anthony Aguirre, uitvoerend directeur bij FLI, zei het ronduit in een interview met NBC News:”Dit is niet wat het publiek wil. Ze willen hier niet voor strijden.”
Dit sentiment wordt weerspiegeld door AI-pionier Yoshua Bengio, die de verklaring ondertekende en eraan toevoegde:”We moeten er ook voor zorgen dat het publiek een veel sterkere stem heeft in beslissingen die onze gezamenlijke toekomst vorm zullen geven.”
De lijst met ondertekenaars valt op door zijn breedte, waardoor diepe politieke en culturele verschillen worden overbrugd.
Mede-oprichter van Apple Steve Wozniak, Richard van de Virgin Group. Branson en voormalig voorzitter van de Joint Chiefs of Staff Mike Mullen tekenden, net als conservatieve mediafiguren Glenn Beck en Steve Bannon.
Ze worden vergezeld door Prins Harry en Meghan Markle, acteur Joseph Gordon-Levitt en de voormalige Ierse president Mary Robinson. Misschien wel het belangrijkste is dat de lijst Turing Award-winnaars Geoffrey Hinton en Yoshua Bengio bevat, wier fundamentele werk de huidige AI-hausse mogelijk heeft gemaakt.
Hun deelname verleent substantiële wetenschappelijke geloofwaardigheid aan de waarschuwing. Auteur Yuval Noah Harari, een andere ondertekenaar, waarschuwde: “Superintelligentie zou waarschijnlijk het besturingssysteem van de menselijke beschaving kapot maken – en is volkomen onnodig.”
Publieke opinie versus ambitie van de industrie
Terwijl technologiegiganten miljarden in de race om AI-suprematie steken, stelt de verklaring dat het uiteindelijke doel een grens te ver is.
Acteur en schrijver Sir Stephen Fry merkte op:”Per definitie zou dit resulteren in een macht die we niet kunnen begrijpen of controleren.”
Deze bezorgdheid over controle staat centraal in het debat en weerspiegelt de angst die eerder werd geuit door voormalige OpenAI-insiders die waarschuwden voor een angstaanjagend snel tempo van ontwikkeling.
Ironisch genoeg hebben zelfs de leiders van de bedrijven die deze systemen bouwen soortgelijke angsten geuit. Een blogpost uit 2015 van Sam Altman, CEO van OpenAI, lang vóór de lancering van ChatGPT, stelde:”De ontwikkeling van bovenmenselijke machine-intelligentie (SMI) is waarschijnlijk de grootste bedreiging voor het voortbestaan van de mensheid.”
Op dezelfde manier is Antropisch CEO Dario Amodei heeft publiekelijk geschat:”Ik denk dat er een kans van 25% is dat het echt heel slecht gaat.”
Antropische CEO Dario Amodei zegt nu dat zijn P(Doom) 25% is.https://t.co/lAinvcaYUh
— Calum Chace (@cccalum) 19 september 2025
Mustafa Suleyman, CEO van Microsoft AI, heeft ook gezegd:”Totdat we ondubbelzinnig kunnen bewijzen dat het [veilig] is, moeten we het niet uitvinden.”
De onstuitbare race om AI-suprematie
Ondanks deze interne problemen waarschuwingen gaat de bedrijfs-en nationale race naar superintelligentie onverminderd door.
Meta noemde zijn nieuwe divisie expliciet’Meta Superintelligence Labs’, wat de bedrijfsdoelstelling aangeeft. Deze impuls wordt gevoed door duizelingwekkende financiële investeringen.
Volgens een voorspelling van Gartner zullen de bedrijfsuitgaven aan AI in 2025 naar verwachting $1,5 biljoen bedragen.
OpenAI alleen al genereerde in de eerste helft van 2025 4,3 miljard dollar aan inkomsten, wat aantoont hoe enorm veel kapitaal de sector binnenstroomt.
Dit momentum wordt versterkt door nationaal beleid. Het AI-actieplan van de regering-Trump, dat in juli werd onthuld, geeft prioriteit aan het wegnemen van hindernissen op regelgevingsgebied om de ontwikkeling te versnellen en een strategisch voordeel ten opzichte van China te behouden.
Een grens te ver? Het debat over existentiële risico’s
Niet alle AI-experts zijn het eens met de ernstige waarschuwingen. Meta’s hoofd AI-wetenschapper, Yann LeCun, is een uitgesproken criticus van wat hij beschouwt als een alarmistische’doomer’scenario’s.
Hij verwerpt het idee van een oncontroleerbare AI-overname, maar stelt zich in plaats daarvan een toekomst voor van “versterker-intelligentie” waarin AI-systemen de menselijke capaciteiten vergroten in plaats van ze te vervangen.
Dit perspectief suggereert dat de risico’s beheersbaar zijn en dat de voordelen van krachtige AI, van het genezen van ziekten tot het oplossen van klimaatverandering, te groot zijn om uit angst te laten varen.
De visie van LeCun vertegenwoordigt een belangrijke filosofische kloof binnen de AI-gemeenschap, waarbij het debat wordt geframed als een debat tussen voorzichtig rentmeesterschap en ambitieuze, onbelemmerde innovatie.
Uiteindelijk dwingt de verklaring een publiek gesprek af over de toekomst van de mensheid in een tijdperk van steeds krachtigere machines. De organisatoren beweren dat de beslissing om een potentiële opvolgersoort te creëren niet mag worden overgelaten aan een handjevol technologiemanagers en onderzoekers.
Berkeley-professor en ondertekenaar Stuart Russell heeft het voorstel niet als een Luddite-verbod geformuleerd, maar als een op gezond verstand gebaseerde veiligheidsmaatregel.
“Dit is geen verbod of zelfs maar een moratorium in de gebruikelijke zin. Het is eenvoudigweg een voorstel om adequate veiligheidsmaatregelen te eisen voor een technologie die… een aanzienlijke kans heeft om het uitsterven van de mensheid te veroorzaken.”
Terwijl de technologie voorwaarts galoppeert, blijft de centrale vraag of de mensheid lang genoeg op de rem kan trappen om ervoor te zorgen dat zij aan het stuur blijft.