Uma coalizão diversificada de mais de 800 figuras públicas, incluindo ganhadores do Prêmio Nobel, a realeza britânica e os “padrinhos” da IA moderna, assinou uma declaração na quarta-feira pedindo a suspensão global do desenvolvimento da “superinteligência”.
Citando riscos variando da obsolescência humana à extinção total, os signatários exigem a proibição da criação de IA que supere as capacidades cognitivas humanas até que possa ser comprovadamente segura, controlável e tenha amplo apoio público.
O esforço, organizado pelo Future of Life Institute (FLI), aterra no meio de uma corrida tecnológica cada vez mais intensa. Isso coloca um coro crescente de especialistas preocupados contra o imenso impulso financeiro e político que impulsiona o desenvolvimento da IA. Alarme
Os organizadores da declaração apontam para uma forte desconexão entre as ambições da indústria de tecnologia e a vontade do público.
Um cidadão recente da FLI uma pesquisa com 2.000 adultos nos EUA descobriu que 73% desejam uma regulamentação robusta sobre IA avançada. Além disso, 64% acreditam que a IA sobre-humana não deve ser desenvolvida até que seja comprovadamente segura ou nunca deveria ser criada.
Apenas 5% dos americanos apoiam o atual status quo de desenvolvimento rápido e não regulamentado.
Anthony Aguirre, Diretor Executivo da FLI, foi direto em entrevista à NBC News: “Isso não é o que o público quer. Eles não querem estar em uma corrida por isso.”
Esse sentimento é ecoado pelo pioneiro da IA, Yoshua Bengio, que assinou a declaração e acrescentou: “Também precisamos garantir que o público tenha uma voz muito mais forte nas decisões que moldarão nosso futuro coletivo.”
A lista de signatários é notável por sua amplitude, superando profundas divisões políticas e culturais.
Steve, cofundador da Apple Wozniak, Richard Branson, do Virgin Group, e o ex-presidente do Estado-Maior Conjunto, Mike Mullen, assinaram o contrato, assim como figuras conservadoras da mídia Glenn Beck e Steve Bannon.
Eles se juntam ao príncipe Harry e Meghan Markle, ao ator Joseph Gordon-Levitt e à ex-presidente irlandesa Mary Robinson. Talvez o mais significativo seja o facto de a lista incluir os vencedores do Prémio Turing, Geoffrey Hinton e Yoshua Bengio, cujo trabalho fundamental permitiu o actual boom da IA.
A sua participação confere credibilidade científica substancial ao alerta. O autor Yuval Noah Harari, outro signatário, alertou: “A superinteligência provavelmente quebraria o próprio sistema operacional da civilização humana – e é completamente desnecessária.”
Opinião pública vs.
O ator e escritor Sir Stephen Fry comentou: “Por definição, isso resultaria em um poder que não poderíamos compreender nem controlar.”
Essa preocupação com o controle é central no debate, ecoando temores anteriormente expressos por ex-membros da OpenAI que alertaram sobre um ritmo de desenvolvimento terrivelmente rápido.
Ironicamente, até mesmo os líderes das empresas que constroem esses sistemas expressaram temores semelhantes. Uma postagem no blog de 2015 do CEO da OpenAI, Sam Altman, muito antes do lançamento do ChatGPT, afirmou: “O desenvolvimento da inteligência de máquina sobre-humana (SMI) é provavelmente a maior ameaça à existência continuada da humanidade.”
Da mesma forma, o CEO da Anthropic Dario Amodei estimou publicamente: “Acho que há 25% de chance de que as coisas corram muito, muito mal.”
O CEO da Anthropic, Dario Amodei, agora diz que seu P(Doom) é de 25%. target=”_blank”>https://t.co/lAinvcaYUh
— Calum Chace (@cccalum) 19 de setembro de 2025
O CEO da Microsoft AI, Mustafa Suleyman, também disse: “Até que possamos provar inequivocamente que é [seguro], não deveríamos inventá-lo.”
A corrida imparável pela supremacia da IA
Apesar dessas ameaças internas avisos, a corrida corporativa e nacional em direção à superinteligência continua inabalável.
A Meta nomeou explicitamente sua nova divisão como “Meta Superinteligência Labs”, sinalizando seu objetivo corporativo. Esse impulso é alimentado por investimentos financeiros impressionantes.
De acordo com uma previsão do Gartner, os gastos corporativos com IA deverão atingir US$ 1,5 trilhão em 2025.
Só a OpenAI foi gerada 4,3 mil milhões de dólares em receitas no primeiro semestre de 2025, demonstrando o enorme fluxo de capital para o setor.
Este impulso é reforçado pela política nacional. O Plano de Ação para IA da administração Trump, revelado em julho, prioriza a remoção de obstáculos regulatórios para acelerar o desenvolvimento e manter uma vantagem estratégica sobre a China.
Uma fronteira longe demais? O debate sobre o risco existencial
Nem todos os especialistas em IA concordam com os terríveis avisos. Cientista-chefe de IA da Meta, Yann LeCun, tem sido um crítico vocal do que ele considera alarmista Cenários “condenadores”.
Ele rejeita a ideia de uma aquisição incontrolável da IA, em vez disso, prevê um futuro de “inteligência amplificadora”, onde os sistemas de IA aumentam as capacidades humanas em vez de substituí-las.
Essa perspectiva sugere que os riscos são administráveis e que os benefícios da IA poderosa, desde a cura de doenças até a solução das mudanças climáticas, são significativos demais para serem abandonados por medo.
A visão de LeCun representa uma divisão filosófica significativa dentro da comunidade de IA, enquadrando o debate entre uma administração cautelosa e uma inovação ambiciosa e irrestrita.
Em última análise, a declaração força um debate público sobre o futuro da humanidade numa era de máquinas cada vez mais poderosas. Seus organizadores argumentam que a decisão de criar uma espécie sucessora em potencial não deve ser deixada para um punhado de executivos e pesquisadores de tecnologia.
O professor e signatário de Berkeley, Stuart Russell, enquadrou a proposta não como uma proibição ludita, mas como uma medida de segurança de bom senso.
“Esta não é uma proibição ou mesmo uma moratória no sentido usual. É simplesmente uma proposta para exigir medidas de segurança adequadas para uma tecnologia que… tem uma chance significativa de causar a extinção humana.”
À medida que a tecnologia avança, a questão central permanece se a humanidade conseguirá pisar no freio por tempo suficiente para garantir que permaneça no comando.
O CEO da Anthropic, Dario Amodei, agora diz que seu P(Doom) é de 25%. target=”_blank”>https://t.co/lAinvcaYUh
— Calum Chace (@cccalum) 19 de setembro de 2025