En gruppe på over 70 forskere har offentlig irettesatt EU-kommisjonens president Ursula von der Leyen og krevd at hun trekker tilbake en uttalelse om at AI på menneskelig nivå kan komme «neste år».
I et åpent brev sendt mandag fra Brussel, kalte ekspertene, inkludert FN-rådgivere, påstanden hennes for uvitenskapelig og farlig. De hevder at det gjenspeiler markedsføringshype fra amerikanske teknologisjefer i stedet for empiriske bevis.
Brevet sier at å forsterke slike påstander undergraver Europas troverdighet og bidrar til en spekulativ boble. Von der Leyens opprinnelige kommentar, laget i mai, var basert på uttalelser fra lederne av OpenAI, Anthropic og Nvidia, ifølge en avsløring fra Kommisjonen.
EU President von Ley. Brann
På en EU-budsjettkonferanse i mai kom president von der Leyen med en slående spådom: «Vi trodde at AI først ville nærme oss menneskelig resonnement rundt 2050.»
Nå signaliserte vi en kommentar til neste år. dramatisk akselerasjon av AI-tidslinjer, som fanger oppmerksomheten til både teknologer og politikere. Imidlertid har det vitenskapelige miljøet nå formelt utfordret grunnlaget for denne påstanden.
Med henvisning til en forespørsel om informasjonsfrihet som avslørte kilden til påstanden hennes, peker det åpne brevet direkte til uttalelser fra tekniske ledere som OpenAIs Sam Altman og Anthropics Dario Amodei.
Underskrivere og fremtredende forskere, inkludert DigbaUNAI, Virginia, Advisors argumenterer for at disse påstandene ikke er forankret i streng vitenskap.
Som svar på brevet forsøkte EU-kommisjonen å omformulere presidentens ord. En talsperson fortalte til Euractiv at uttalelsen ikke var en formell spådom.
“Dette handler om å være forberedt, ikke å erklære en dato. Ansvarlig planlegging,
det er ikke å gjette på scenariet.”
Avklaring har imidlertid gjort lite for å dempe kjernekritikken fra det vitenskapelige miljøet.
Markedsføring vs. Metode: Scientists Decry Profit-Driven Hype
I brevet deres argumenterer forskerne at von der Leyen gjentar udokumenterte markedsføringsfortellinger.”Dette er markedsføringsuttalelser drevet av profittmotiv og ideologi snarere enn empiriske bevis og formelle bevis.”
Underskriverne hevder at slike påstander er utformet for å drive finansiell spekulasjon og er åpenbart knyttet til teknologiselskapenes økonomiske imperativer, ikke vitenskapelig validering.
ICCE Scientists-EU-brev-AI-President
For markedsobservatører er forskernes advarsel om en”spekulativ boble”spesielt betimelig. AI-sektoren er midt i en kapitalutgiftsboom som nærmer seg 400 milliarder dollar årlig, et forbruksvanvidd som trekker alarmerende paralleller til tidligere teknologibobler.
På dette bakteppet av skyhøye investeringer og offentlige feiltrinn, lander brevet fra akademikere med betydelig vekt.
Siste måned ble vitne til et høyprofilert virkelighetseksempel med AI-industrien i forrige måned. OpenAI kunngjorde for tidlig at GPT-5-modellen deres hadde løst kjente vanskelige matematiske problemer.
Matematikere avkreftet raskt påstanden og presiserte at modellen ganske enkelt hadde utført et avansert litteratursøk. Den offentlige reverseringen var en betydelig forlegenhet, og fikk Google DeepMind-sjef Demis Hassabis til å kommentere ganske enkelt:”dette er pinlig.”
Slike hendelser fører til en bredere, mer presserende debatt om det ukontrollerte kappløpet mot superintelligens. Økende bekymring for eksistensiell risiko fikk nylig over 800 globale ledere, fra Apple-grunnlegger Steve Wozniak til AI-pioneren Yoshua Bengio, til å signere en uttalelse som krevde en stans i utviklingen av superintelligens inntil det kan bevises trygt.
Det er en følelse som reflekterer dyp offentlig angst for at selskapenes brev allerede er i kontakt med
s. reagerer på denne endringen i offentlighet. Microsoft AI-sjef Mustafa Suleyman kunngjorde nylig et nytt’Humanist Superintelligence’-team, som eksplisitt setter oppdraget rundt sikkerhet og sa:”Vi kan ikke bare akselerere for enhver pris. Det ville bare være et vanvittig selvmordsoppdrag.”Strategisk sett kan flyttingen sees på som et direkte forsøk på å bygge en merkevare som er pålitelig for forsiktighet i et felt som i økende grad blir definert av risiko.
Til syvende og sist fremhever tilbakeslaget fra det vitenskapelige miljøet en dyptliggende spenning. Mens legitime, fagfellevurderte fremskritt innen AI fortsetter, som man ser i Google DeepMinds nylige arbeid med matematikeren Terence Tao, domineres den offentlige fortellingen ofte av oppsiktsvekkende påstander.
Forskernes krav er en oppfordring til flid, og oppfordrer beslutningstakere til å skille mellom den kraftige markedsføringsmotoren og den kraftige AI-motoren. haste.