Una coalizione diversificata di oltre 800 personaggi pubblici, tra cui premi Nobel, reali britannici e i”padrini”dell’intelligenza artificiale moderna, ha firmato mercoledì una dichiarazione chiedendo un arresto globale allo sviluppo della”superintelligenza”.

Citando i rischi che vanno dall’obsolescenza umana all’estinzione totale, i firmatari chiedono il divieto di creare un’intelligenza artificiale che superi le capacità cognitive umane fino a quando non sarà dimostrata sicura, controllabile e avrà un ampio sostegno pubblico.

L’iniziativa, organizzata dal Future of Life Institute (FLI), si colloca in un contesto di crescente corsa tecnologica. Mette un coro crescente di esperti preoccupati contro l’immenso slancio finanziario e politico che spinge avanti lo sviluppo dell’IA.

Un’ampia coalizione suona il Allarme

Gli organizzatori della dichiarazione sottolineano una netta disconnessione tra le ambizioni del settore tecnologico e la volontà del pubblico.

Un recente Un sondaggio nazionale FLI condotto su 2.000 adulti statunitensi ha rilevato che il 73% desidera una regolamentazione solida sull’intelligenza artificiale avanzata. Inoltre, il 64% ritiene che l’intelligenza artificiale sovrumana non dovrebbe essere sviluppata fino a quando non sarà dimostrata sicura o non dovrebbe mai essere creata.

Solo il 5% degli americani sostiene l’attuale status quo di uno sviluppo rapido e non regolamentato.

Anthony Aguirre, direttore esecutivo di FLI, lo ha detto senza mezzi termini in un’intervista con NBC News:”Questo non è ciò che il pubblico vuole. Non vogliono essere in una corsa per questo.”

Questo sentimento trova eco nel pioniere dell’intelligenza artificiale Yoshua Bengio, che ha firmato la dichiarazione e ha aggiunto:”Dobbiamo anche assicurarci che il pubblico abbia una voce molto più forte nelle decisioni che daranno forma al nostro futuro collettivo.”

L’elenco dei firmatari è notevole per la sua ampiezza, colmando profonde divisioni politiche e culturali.

Co-fondatore di Apple Steve Wozniak, Richard Branson di Virgin Group e l’ex presidente dei capi di stato maggiore congiunti Mike Mullen hanno firmato, così come figure mediatiche conservatrici Glenn Beck e Steve Bannon.

A loro si uniscono il principe Harry e Meghan Markle, l’attore Joseph Gordon-Levitt e l’ex presidente irlandese Mary Robinson. Forse la cosa più significativa è che l’elenco include i vincitori del Premio Turing Geoffrey Hinton e Yoshua Bengio, il cui lavoro fondamentale ha consentito l’attuale boom dell’intelligenza artificiale.

La loro partecipazione conferisce una sostanziale credibilità scientifica all’avvertimento. L’autore Yuval Noah Harari, un altro firmatario, ha avvertito:”La superintelligenza probabilmente distruggerebbe il sistema operativo stesso della civiltà umana – ed è completamente inutile.”

Opinione pubblica contro ambizione dell’industria

Mentre i giganti della tecnologia investono miliardi nella corsa per la supremazia dell’IA, la dichiarazione sostiene che l’obiettivo finale è una frontiera troppo lontana.

L’attore e scrittore Sir Stephen Fry ha commentato:”Per definizione, ciò si tradurrebbe in un potere che non potremmo né comprendere né controllare.”

Questa preoccupazione per il controllo è centrale nel dibattito, facendo eco ai timori precedentemente espressi da ex addetti ai lavori di OpenAI che mettevano in guardia da un ritmo di sviluppo terribilmente rapido.

Ironicamente, anche i leader delle aziende che costruiscono questi sistemi hanno espresso paure simili. Un post sul blog del 2015 del CEO di OpenAI Sam Altman, molto prima del lancio di ChatGPT, affermava:”Lo sviluppo dell’intelligenza artificiale sovrumana (SMI) è probabilmente la più grande minaccia alla continua esistenza dell’umanità.”

Allo stesso modo, Anthropic Il CEO Dario Amodei ha pubblicamente stimato:”Penso che ci sia il 25% di possibilità che le cose vadano davvero, davvero male.”

Il CEO di Anthropic Dario Amodei ora afferma che il suo P(Doom) è del 25%.https://t.co/lAinvcaYUh

— Calum Chace (@cccalum) 19 settembre 2025

Il CEO di Microsoft AI, Mustafa Suleyman, ha anche affermato:”Fino a quando non saremo in grado di dimostrare inequivocabilmente che è [sicuro], non dovremmo inventarlo.”

La corsa inarrestabile per la supremazia dell’IA

Nonostante questi problemi interni avvertimenti, la corsa aziendale e nazionale verso la superintelligenza continua senza sosta.

Meta ha chiamato esplicitamente la sua nuova divisione”Meta Superintelligence Labs”, segnalando il suo obiettivo aziendale. Questa spinta è alimentata da sbalorditivi investimenti finanziari.

Secondo una previsione di Gartner, si prevede che la spesa aziendale per l’intelligenza artificiale raggiungerà i 1,5 trilioni di dollari nel 2025.

Solo OpenAI ha generato 4,3 miliardi di dollari di entrate nella prima metà del 2025, a dimostrazione dell’enorme afflusso di capitali nel settore.

Questo slancio è rafforzato dalla politica nazionale. Il piano d’azione sull’intelligenza artificiale dell’amministrazione Trump, presentato a luglio, dà priorità alla rimozione degli ostacoli normativi per accelerare lo sviluppo e mantenere un vantaggio strategico rispetto alla Cina.

Una frontiera troppo lontana? Il dibattito sul rischio esistenziale

Non tutti gli esperti di intelligenza artificiale sono d’accordo con questi terribili avvertimenti. Il capo scienziato dell’intelligenza artificiale di Meta, Yann LeCun, è stato un critico vocale di ciò che considera scenari allarmistici”doomer”.

Rifiuta l’idea di un’acquisizione incontrollabile dell’intelligenza artificiale, immaginando invece un futuro di”intelligenza amplificatrice”in cui i sistemi di intelligenza artificiale aumentano le capacità umane anziché sostituirle.

Questa prospettiva suggerisce che i rischi sono gestibili e che i benefici di una potente intelligenza artificiale, dalla cura delle malattie alla risoluzione dei cambiamenti climatici, sono troppo significativi per essere abbandonati. paura.

Il punto di vista di LeCun rappresenta un significativo divario filosofico all’interno della comunità dell’intelligenza artificiale, inquadrando il dibattito come uno tra una gestione cauta e un’innovazione ambiziosa e senza ostacoli.

In definitiva, la dichiarazione forza una conversazione pubblica sul futuro dell’umanità in un’era di macchine sempre più potenti. I suoi organizzatori sostengono che la decisione di creare una specie potenziale successore non dovrebbe essere lasciata a una manciata di dirigenti e ricercatori del settore tecnologico.

Il professore di Berkeley e firmatario Stuart Russell ha definito la proposta non come un divieto luddista ma come una misura di sicurezza basata sul buon senso.

“Questo non è un divieto e nemmeno una moratoria nel senso comune del termine. È semplicemente una proposta per richiedere adeguate misure di sicurezza per una tecnologia che… ha una significativa possibilità di causare l’estinzione umana.”

Mentre la tecnologia galoppa in avanti, la domanda centrale rimane se l’umanità sarà in grado di frenare abbastanza a lungo da assicurarsi di rimanere al posto di guida.

Categories: IT Info