Um grupo de mais de 70 cientistas repreendeu publicamente a presidente da Comissão Europeia, Ursula von der Leyen, exigindo que ela retirasse a declaração de que a IA de nível humano poderia chegar “no próximo ano”.
Numa carta aberta enviada segunda-feira de Bruxelas, os especialistas, incluindo conselheiros da ONU, consideraram a sua afirmação não científica e perigosa. Argumentam que isso reflecte o entusiasmo de marketing dos CEO do sector tecnológico dos EUA, em vez de provas empíricas.
A carta afirma que a amplificação de tais afirmações mina a credibilidade da Europa e contribui para uma bolha especulativa. O comentário original de Von der Leyen, feito em maio, baseou-se em declarações dos líderes da OpenAI, Anthropic e Nvidia, de acordo com uma divulgação da Comissão.
Em maio, em uma conferência sobre o orçamento da UE, a presidente Ursula von der Leyen fez uma previsão surpreendente: “Pensamos que a IA só abordaria o raciocínio humano por volta de 2050. Agora esperamos que isso aconteça já no próximo ano.”
O comentário dela sinalizou uma aceleração dramática da IA. cronogramas, chamando a atenção de tecnólogos e formuladores de políticas. No entanto, a comunidade científica já contestou formalmente a base desta afirmação.
Citando um pedido de liberdade de informação que revelou a fonte de sua reivindicação, a carta aberta aponta diretamente para declarações de executivos de tecnologia como Sam Altman da OpenAI e Dario Amodei da Anthropic.
Os signatários, incluindo proeminentes pesquisadores de IA e conselheiros da ONU Abeba Birhane e Virginia Dignum, argumentam que essas alegações não são baseadas em ciência rigorosa.
Em resposta à carta, a Comissão Europeia procurou reformular as palavras do Presidente. Um porta-voz disse à Euractiv que a declaração não era uma previsão formal.
“Trata-se de estar preparado, não de declarar uma data. O planejamento responsável não é adivinhar o futuro, é se preparar para diferentes cenários.”
Este esclarecimento, no entanto, pouco fez para reprimir as principais críticas da comunidade científica.
Marketing vs. Método: Cientistas denunciam a campanha publicitária orientada para o lucro
Na sua carta, os cientistas argumentam que von der Leyen está a repetir narrativas de marketing infundadas.”Estas são declarações de marketing motivadas por fins lucrativos e ideologia, em vez de evidências empíricas e provas formais.”
Os signatários afirmam que tais afirmações são projetadas para alimentar a especulação financeira e estão manifestamente vinculadas aos imperativos financeiros das empresas de tecnologia, não à validação científica. O setor de IA está no meio de um boom de gastos de capital que se aproxima de US$ 400 bilhões anualmente, um frenesi de gastos que traça paralelos alarmantes com bolhas tecnológicas passadas.
Neste cenário de investimentos crescentes e erros públicos, a carta de acadêmicos tem peso significativo.
No mês passado, a indústria de IA testemunhou um exemplo de alto perfil de hype colidindo com a realidade quando a OpenAI anunciou prematuramente que seu modelo GPT-5 havia resolvido problemas notoriamente difíceis. problemas matemáticos.
Os matemáticos rapidamente desmentiram a afirmação, esclarecendo que o modelo simplesmente realizou uma pesquisa bibliográfica avançada. A reversão pública foi um constrangimento significativo, levando o CEO do Google DeepMind, Demis Hassabis, a comentar simplesmente: “isto é embaraçoso”.
Tais eventos alimentam um debate mais amplo e urgente sobre a corrida desenfreada em direção à superinteligência. As crescentes preocupações com o risco existencial levaram recentemente mais de 800 líderes globais, desde o cofundador da Apple, Steve Wozniak, ao pioneiro da IA, Yoshua Bengio, a assinar uma declaração exigindo a suspensão do desenvolvimento da superinteligência até que esta possa ser comprovadamente segura.
É um sentimento que reflete a profunda ansiedade pública que a carta dos cientistas aborda.
Algumas empresas já estão a responder a esta mudança no sentimento público. O CEO da Microsoft AI, Mustafa Suleyman, anunciou recentemente uma nova equipe de ‘Superinteligência Humanista’, enquadrando explicitamente a missão em torno da segurança e afirmando:”Não podemos simplesmente acelerar a todo custo. Isso seria apenas uma missão suicida maluca”. Estrategicamente, a medida pode ser vista como uma tentativa direta de construir uma marca confiável pela cautela num campo cada vez mais definido pelo risco.
Em última análise, a resistência da comunidade científica destaca uma tensão profunda. Embora o progresso legítimo e revisado por pares na IA continue, como visto no trabalho recente do Google DeepMind com o matemático Terence Tao, a narrativa pública é muitas vezes dominada por afirmações sensacionais.
A demanda dos cientistas é um apelo à diligência, instando os legisladores a distinguir entre o avanço científico genuíno e os poderosos motores de marketing que impulsionam a corrida do ouro da IA.