Pesquisadores da OpenAI provocaram uma reação negativa nas redes sociais no fim de semana passado, após celebrarem prematuramente um grande avanço matemático para o GPT-5. Numa série de publicações agora eliminadas sobre o X, vários investigadores afirmaram que o modelo avançado tinha resolvido problemas de Erdős notoriamente difíceis.
No entanto, a volta da vitória foi interrompida quando os matemáticos corrigiram publicamente o registo. Eles esclareceram que o GPT-5 não produziu soluções inovadoras, mas, em vez disso, encontrou artigos acadêmicos existentes dos quais os pesquisadores desconheciam. A reversão embaraçosa atraiu duras críticas dos rivais da indústria.
O caso destaca a imensa pressão dentro do setor de IA para mostrar progressos inovadores. Também serve como um poderoso conto de advertência sobre o hype desenfreado em um campo onde bilhões de dólares estão em jogo.
Falso avanço encontra uma rápida correção
A emoção começou em 18 de outubro, quando o vice-presidente da OpenAI, Kevin Weil, e outros postaram no X que o GPT-5 havia resolvido 10 problemas “anteriormente não resolvidos” apresentados pelo renomado matemático Paul Erdős.
Isso teria marcado um salto monumental para as habilidades de raciocínio da IA generativa.
Paul Erdős (1913–1996) foi um matemático húngaro celebrado como uma das figuras mais prolíficas e influentes da matemática do século XX. Ele publicou mais de 1.500 artigos de pesquisa em diversos campos, como teoria dos números, combinatória, teoria dos grafos, teoria das probabilidades e teoria dos conjuntos, muitas vezes em colaboração com mais de 500 coautores.
As reivindicações foram desvendadas quase imediatamente. O matemático Thomas Bloom, que dirige o site Erdos Problems, refutou publicamente o anúncio, chamando-o de “uma interpretação errônea dramática”. Ele explicou que os problemas só foram listados como “abertos” em seu site porque ele pessoalmente não tinha conhecimento das soluções existentes.
Bloom esclareceu que a verdadeira conquista do GPT-5 foi realizar uma sofisticada pesquisa bibliográfica. Ele observou: “O GPT-5 encontrou referências que resolveram esses problemas, dos quais eu pessoalmente não tinha conhecimento”. O modelo atuou como um assistente de pesquisa, não como um matemático inovador. As afirmações sensacionais iniciais foram rapidamente excluídas ou alteradas.
Olá, como proprietário/mantenedor de https://t.co/69gOJM7Ci7, esta é uma deturpação dramática. O GPT-5 encontrou referências que resolveram esses problemas, que eu pessoalmente desconhecia.
O status ‘aberto’ significa apenas que pessoalmente não tenho conhecimento de um artigo que resolva o problema.
— Thomas Bloom (@thomasfbloom) 17 de outubro de 2025
Rivais atacam erro público ‘embaraçoso’
O erro público forneceu ampla munição para os concorrentes da OpenAI. As repreensões públicas e rápidas dos rivais não são surpreendentes em um cenário de IA ferozmente competitivo.
Google, Meta e OpenAI estão travando uma batalha por talentos, clientes corporativos e percepção pública.
Demis Hassabis, CEO do Google DeepMind, fez uma avaliação contundente sobre X, afirmando simplesmente: “isso é constrangedor”.
isso é constrangedor
— Demis Hassabis (@demishassabis) 18 de outubro, 2025
Sua empresa recentemente combinou a OpenAI com uma conquista matemática legítima própria.
O cientista-chefe de IA da Meta, Yann LeCun, foi ainda mais contundente em sua crítica. Ele sugeriu que a OpenAI foi vítima de seu próprio marketing, brincando que a empresa era “Içada por seus próprios GPTards.” O incidente alimenta a narrativa de uma organização sob pressão e propensa ao descuido.
Em resposta ao reação, os pesquisadores da OpenAI, incluindo Sebastien Bubeck, excluíram ou recuaram suas postagens comemorativas iniciais.
Eu excluí a postagem, obviamente não tive a intenção de enganar ninguém, achei que a frase era clara, desculpe por isso. Só foram encontradas soluções na literatura, e é isso, e acho isso muito acelerado porque sei como é difícil pesquisar na literatura.
— Sebastien Bubeck (@SebastienBubeck) 18 de outubro de 2025
Enquanto Bubeck defendeu o modelo dizendo: “Eu sei como é difícil pesquisar o literatura”, o estrago estava feito. O tom triunfante foi substituído por um tom defensivo.
Exagero versus realidade: o verdadeiro papel da IA na matemática
Este episódio é um exemplo clássico do ciclo de entusiasmo da IA, onde a promessa da tecnologia pode superar suas capacidades atuais.
Os analistas há muito alertam que o campo da IA generativa é aproximando-se de um”vale de desilusão”à medida que promessas grandiosas atendem às limitações do mundo real.
Essa pressão não ocorre no vácuo. Durante meses, a OpenAI tem navegado num período de turbulência interna, que tem visto a empresa lutar para manter a sua narrativa pública de liderança inabalável. A empresa precisa projetar uma imagem de inovação incansável para manter sua posição.
Ironicamente, esse erro é contrastado com o sucesso recente e genuíno da OpenAI em matemática. Em julho, a empresa anunciou que um modelo experimental alcançou a medalha de ouro na Olimpíada Internacional de Matemática, um feito que exige provas criativas e rigorosas.
Essa conquista demonstrou um verdadeiro salto no raciocínio da IA, o que torna o erro não forçado subsequente sobre os problemas de Erdős ainda mais intrigante. Parece que a pressão para anunciar a próxima grande novidade levou a uma falha na verificação básica.
Apesar do exagero embaraçoso, o evento destacou a utilidade prática do GPT-5. Como observou o renomado matemático Terence Tao, o potencial mais imediato da IA não é resolver os problemas abertos mais difíceis.
Em vez disso, ele acredita que “a IA generativa poderia ajudar a ‘industrializar’ a matemática e acelerar o progresso na área”. Ao encontrar com eficiência documentos obscuros, o GPT-5 provou esse ponto perfeitamente.
Ver no Mastodon
O evento serve, em última análise, como um lembrete crítico para toda a indústria. À medida que os modelos de IA se tornam mais poderosos, a necessidade de validação científica rigorosa torna-se mais importante do que nunca. Na corrida de alto risco para a AGI, acertar os fatos é tão crucial quanto construir a própria tecnologia.