Após o lançamento turbulento do seu modelo GPT-5, o OpenAI está testando um novo recurso de”esforço de pensamento”para o ChatGPT, que oferece aos usuários um controle mais granular sobre o desempenho da IA. Moldada no final de agosto, a configuração experimental permite que os usuários escolham entre quatro níveis de intensidade computacional. Ao permitir que os usuários equilibrem a velocidade de resposta contra a profundidade analítica, o OpenAI visa abordar preocupações de confiabilidade e melhorar a experiência do usuário. O objetivo era eliminar o que o CEO Sam Altman havia chamado de”bagunça confusa”de diferentes modelos. No entanto, a estratégia ambiciosa se desenrolou rapidamente. O modelo inventou nomes de estados fictícios como”Onegon”, falhou na matemática básica e produziu saídas sem sentido, levando a uma reação generalizada. A recepção pública foi tão negativa que a empresa foi forçada a uma rara postura defensiva.
Até 8 de agosto, Altman emitiu um pedido de desculpas público. Ele admitiu que”um”automático”com defeito entre os modos internos do modelo fez por mais tempo”parecer muito mais burro”do que o pretendido”, culpando uma falha técnica pelo mau desempenho. Esse tropeço forneceu munição para os críticos e criou uma abertura para os rivais, que foram rápidos em capitalizar a situação. Ele restaurou o GPT-4O por pagar assinantes e introduziu os modos manuais para o GPT-5:”Auto”,”Fast”e”Thinking”. Esse pivô sinalizou uma grande lição para o líder da IA sobre equilibrar a inovação com as expectativas do usuário. Altman himself hinted at this shift, stating, “one learning for us from the past few days is we really just need to get to a world with more per-user customization of model personality.”
OpenAI’s VP of ChatGPT, Nick Turley, acknowledged the iterative process, noting, “we’re not always going to get everything on try #1 but I am very proud of how quickly the team can iterate,”framing the changes as a rapid response Para feedback do usuário. Segundo relatos, o recurso apresenta quatro níveis distintos de intensidade para os usuários escolherem. São”luz”,”padrão”,”estendido”e”max”. href=”https://t.co/onwcbq4cuw”Target=”_ Blank”> pic.twitter.com/onwcbq4cuw
-Tibor Blaho (@btibor91) agosto 29, 2025 O modelo leva para formular uma resposta. Mais”suco”geralmente resulta em uma análise mais profunda e mais cuidadosa, mas também aumenta o tempo de resposta. A configuração mais alta”Max”é estabelecida para assinantes Pro. Um usuário pode selecionar”Light”para uma pergunta rápida e simples, mas mude para”estendido”ou”max”ao trabalhar em um problema complexo que requer um raciocínio mais completo, como avaliação de títulos ou análise de código. Ele formaliza o trade-off entre velocidade e qualidade, um desafio central na implantação de IA em larga escala. Reflete um setor mais amplo acerto de contas com confiabilidade e segurança de IA. O recurso chega logo após o OpenAi e o rival antropia publicaram os resultados dos testes de segurança conjunta em 28 de agosto.”Duelo”na corrida armamentista da IA, revelou falhas alarmantes nos modelos de ambas as empresas . Os relatórios detalham questões como”extrema sycofância”, onde os modelos validariam as crenças ilusórias de um usuário e a disposição de ajudar com solicitações perigosas.
Os testes também destacaram uma divisão filosófica. Os modelos da Anthropic geralmente se recusavam a responder para evitar erros, priorizando a cautela sobre a utilidade. Em contraste, os modelos do OpenAI foram mais úteis, mas também produziu erros significativamente mais factuais, ou os testes controlados . Marcus, que argumentou: “Ninguém com integridade intelectual ainda pode acreditar que a escala pura nos levará a Agi”, questionando todo o paradigma “maior é melhor”. Ninguém com integridade intelectual ainda pode acreditar que a escala pura nos levará a Agi. href=”https://twitter.com/garymarcus/status/1953939152594252170?ref_src=twsrc%5Etfw”Target=”_ Blank”> 8 de agosto, 2025
Alegou que, na empresa, “a cultura e os processos de segurança levaram um banco traseiro a produtos brilhantes.”
Colocando o disco de”esforço de pensamento”diretamente nas mãos dos usuários, o OpenAI está capacitando-os a mitigar alguns desses riscos. O movimento sinaliza um pivô estratégico de uma abordagem automatizada de”tamanho único”para uma experiência do usuário mais transparente, personalizável e, finalmente, mais defensável.