Një koalicion i larmishëm prej mbi 800 figurash publike, duke përfshirë laureatët e Nobelit, mbretërit britanikë dhe”kumbarët”e AI moderne, nënshkruan një deklaratë të mërkurën duke bërë thirrje për ndalimin e zhvillimit të rrezikut global të

performimit të”superitetit”. nga vjetërimi njerëzor deri në zhdukjen e plotë, nënshkruesit kërkojnë një ndalim të krijimit të AI që tejkalon aftësitë njohëse njerëzore derisa të provohet e sigurt, e kontrollueshme dhe të ketë mbështetje të gjerë publike.

Përpjekja, e organizuar nga Instituti Future of Life (FLI), zbret mes një gare teknologjike në rritje. Ai vendos një kor në rritje ekspertësh të shqetësuar kundër momentit të jashtëzakonshëm financiar dhe politik që çon përpara zhvillimin e AI.

Organizatorët e deklaratës tregojnë për një shkëputje të thellë midis ambicieve të industrisë së teknologjisë dhe vullnetit të publikut.

Facebook. sondazhi i 2000 të rriturve amerikanë zbuloi se 73% duan rregullim të fortë për AI të avancuar. Për më tepër, 64% besojnë se AI mbinjerëzore nuk duhet të zhvillohet derisa të provohet se është e sigurt ose nuk duhet të krijohet fare.

Vetëm 5% e amerikanëve mbështesin status quo-në aktuale të zhvillimit të shpejtë dhe të parregulluar.

Anthony Aguirre, Drejtor Ekzekutiv në FLI, e shpreh troç në një intervistë me NBC News:”Kjo nuk është ajo që publiku dëshiron të jetë i pakëndshëm. kjo.”

Ky mendim i bën jehonë pionieri i AI Yoshua Bengio, i cili nënshkroi deklaratën dhe shtoi:”Ne gjithashtu duhet të sigurohemi që publiku të ketë një fjalë shumë më të fortë në vendimet që do të formësojnë të ardhmen tonë kolektive.”

Lista e nënshkruesve është e dukshme për gjerësinë e saj, duke kapërcyer ndarjet e thella politike dhe kulturore

Wozniak, Richard Branson i Virgin Group dhe ish-Kryetari i Shefit të Shtabit të Përbashkët, Mike Mullen, nënshkruan, ashtu si edhe figurat konservatore të medias Glenn Beck dhe Steve Bannon.

Atyre u bashkohen Princi Harry dhe Meghan Markle, aktori Joseph Gordon-Levitt dhe ish-presidentja irlandeze Mary Robinson. Ndoshta më e rëndësishmja, lista përfshin fituesit e çmimit Turing, Geoffrey Hinton dhe Yoshua Bengio, puna themelore e të cilëve mundësoi bumin aktual të AI.

Pjesëmarrja e tyre i jep besueshmëri të konsiderueshme shkencore paralajmërimit. Autori Yuval Noah Harari, një nënshkrues tjetër, paralajmëroi:”Superinteligjenca ka të ngjarë të thyejë vetë sistemin operativ të qytetërimit njerëzor-dhe është krejtësisht e panevojshme.”

Opinion Publik kundër Ambicieve të Industrisë

Ndërsa gjigantët e teknologjisë paraqesin miliarda dollarë në garën për AI. kufiri shumë larg.

Aktori dhe shkrimtari Sir Stephen Fry komentoi:”Sipas definicionit, kjo do të rezultonte në një fuqi që ne as nuk mund ta kuptonim dhe as ta kontrollonim.”

Ky shqetësim për kontrollin është qendror në debat, duke i bërë jehonë frikës së shprehur më parë nga ish të brendshëm të OpenAI, të cilët paralajmëruan për një ritëm tmerrësisht të shpejtë zhvillimi.

Një postim në blog i vitit 2015 nga CEO i OpenAI, Sam Altman, shumë kohë përpara nisjes së ChatGPT, deklaroi,”Zhvillimi i inteligjencës së makinave mbinjerëzore (SMI) është ndoshta kërcënimi më i madh për ekzistencën e vazhdueshme njerëzore.” CEO Dario Amodei ka vlerësuar publikisht,”Unë mendoj se ka një shans 25% që gjërat të shkojnë vërtet, shumë keq.”

CEO i Anthropic Dario Amodei tani thotë se P(Doom) i tij është 25%.https://t.co/lAinvcaYUh

— Calum Chace (@cccalum) 19 shtator 2025

CEO i Microsoft AI Mustafa Suleyman ka thënë gjithashtu,”Derisa të mund të provojmë pa mëdyshje se është [i sigurt], ne nuk duhet ta shpikim atë.”

Ramecy për Unstoppable.

Megjithë këto të brendshme paralajmërime, gara e korporatave dhe kombëtare drejt superinteligjencës vazhdon e pandërprerë.

Meta e quajti në mënyrë eksplicite ndarjen e saj të re”Meta Superintelligence Labs”, duke sinjalizuar objektivin e saj të korporatës. Kjo shtytje ushqehet nga investimet marramendëse financiare.

Sipas një parashikimi Gartner, shpenzimet e korporatave për AI parashikohen të arrijnë në 5 trilionë në 1,5 tri dollarë të AI. gjeneroi 4.3 miliardë dollarë të ardhura në gjysmën e parë të 2025, duke demonstruar kapitalin masiv që rrjedh në sektor.

Ky moment përforcohet nga politika kombëtare. Plani i Veprimit i UA i administratës Trump, i prezantuar në korrik, i jep përparësi heqjes së pengesave rregullatore për të përshpejtuar zhvillimin dhe për të ruajtur një avantazh strategjik ndaj Kinës.

Një kufi shumë larg? Debati mbi rrezikun ekzistencial

Jo të gjithë ekspertët e AI pajtohen me paralajmërimet e tmerrshme. Shefi i Meta’s AI Scientist, Yann LeCun, heas-black konsiderohet si kritike=”sha_. alarmues Skenarët e”shkatërruesit”.

Ai hedh poshtë idenë e një kontrolli të pakontrollueshëm të AI, në vend të kësaj parashikon një të ardhme të”inteligjencës së amplifikatorit”ku sistemet e AI shtojnë aftësitë njerëzore në vend që t’i zëvendësojnë ato.

Kjo perspektivë sugjeron se rreziqet janë të menaxhueshme dhe se përfitimet e një brezi të fuqishëm të klimës janë duke u larguar nga një ndryshim i rëndësishëm i AI-së, nga zgjidhja e një ndryshimi të rëndësishëm ndaj AI-së, duke eleminuar shumë ndryshimet e klimës së fuqishme në drejtim të AI-së. frikë.

Pikëpamja e LeCun përfaqëson një ndarje të rëndësishme filozofike brenda komunitetit të AI, duke e inkuadruar debatin si një debat midis kujdestarisë së kujdesshme dhe inovacionit ambicioz e të papenguar.

Përfundimisht, deklarata detyron një bisedë publike për të ardhmen e njerëzimit në një epokë makinash gjithnjë e më të fuqishme. Organizatorët e tij argumentojnë se vendimi për të krijuar një specie pasardhëse të mundshme nuk duhet t’i lihet një grushti drejtuesish dhe studiuesish të teknologjisë.

Profesori dhe nënshkruesi i Berkeley, Stuart Russell e përcaktoi propozimin jo si një ndalim të Luddite, por si një masë sigurie me sens të përbashkët.

“Ky nuk është një ndalim apo edhe një propozim thjesht për një masë sigurie në kuptimin e zakonshëm të teknologjisë. që… ka një shans të konsiderueshëm për të shkaktuar zhdukjen e njerëzve.”

Ndërsa teknologjia galopon përpara, pyetja kryesore mbetet nëse njerëzimi mund të frenojë aq gjatë sa të sigurohet që të mbetet në sediljen e shoferit.