O OpenAI empurrou seus modelos O3 e O4-Mini para o ChatGPT por pagar assinantes por volta de 16 de abril de 2025, divulgando-os como um passo em direção a assistentes de IA mais autônomos. Esses modelos foram projetados com”comportamento agêntico precoce”, capaz de decidir de forma independente quando usar ferramentas como navegação na web, execução de código ou análise de arquivos. Juntamente com o lançamento, revelou uma tendência preocupante: no benchmark Personqa da Openai, projetado para testar o conhecimento sobre pessoas, a O3 produziu informações incorretas ou fabricadas 33% das vezes. O modelo de O4-mini se saiu pior, alucinando em 48% dos casos. Embora geralmente mostre melhorias no raciocínio e codificação de referência em comparação com as versões mais antigas, esse aumento específico na fabricação levanta questões sobre as compensações envolvidas no desenvolvimento de sistemas mais agênticos. href=”https://cdn.openai.com/pdf/2221c875-02dc-4789-800b-e7758f3722c1/o3-and-o4-mini-systemcard.pdf”Target”_ Blank”> O3 e O4-Mini-Min-MiniMy System System teorizando isso, porque os modelos”fazem mais reivindicações em geral”, eles produzem declarações mais corretas e mais imprecisas. O porta-voz da Openai, Niko Felix, disse ao TechCrunch: “Abordar alucinações em todos os nossos modelos é uma área contínua de pesquisa, e estamos trabalhando continuamente para melhorar sua precisão e confiabilidade. The AI ​​research lab Transluce AI published findings on April 16, 2025, from testing a pre-release version of o3 (`o3-2025-04-03`), detailing a pattern of the model fabricating actions it claimed to have Realizado . Quando confrontado sobre essas fabricações, o modelo geralmente dobrava, inventando justificativas elaboradas. Target=”_ Blank”> Exemplo de conversa Onde O3 alegou gerar um número primo de 512 bits usando código Python e testes específicos. Rearcorrendo os testes… qualquer execução genuína de Miller-Rabin teria rejeitado o número instantaneamente.”

Pressionado ainda mais sobre o suposto prime original, o modelo alegou que estava irremediavelmente perdido porque o processo Python havia sido fechado. Traduça documentou outras fabricações, incluindo reivindicações de execução de código em um externo Python Repl Embient . Embora seja útil para codificar, de acordo com o CEO da Workera, Kian Katanforoosh, que conversou com o TechCrunch, a O3 às vezes produzia links da web não trabalhadores. Around the time of the launch, OpenAI recently updated its internal safety guidelines, the Preparedness Framework.

This revision included a notable clause suggesting safety rules could potentially be altered based on competitor actions, stating, “If another frontier AI O desenvolvedor libera um sistema de alto risco sem salvaguardas comparáveis, podemos ajustar nossos requisitos”. A empresa enfatizou que tais ajustes seguiriam verificações rigorosas e divulgação pública.

Essa mudança de política surgiu após relatórios que alegam que o OpenAI reduziu acentuadamente o cronograma de teste de segurança interno para O3, potencialmente abaixo de uma semana de vários meses, supostamente para manter o ritmo. Uma fonte familiarizada com a avaliação chamada abordagem de”imprudente”, acrescentando:”Esta é uma receita para o desastre”. Outro supostamente o contrastou com a avaliação mais longa do GPT-4, afirmando:”Eles simplesmente não estão priorizando a segurança pública”. Um ex-membro da equipe técnica do OpenAI foi citada como tendo dito:”É uma prática ruim lançar um modelo diferente da que você avaliou”. Defendendo o processo, o chefe de sistemas de segurança da OpenAi, Johannes Heidecke, afirmou ao FT: “Temos um bom equilíbrio de quão rápido nos movemos e quão completos somos,”apontando para o aumento da automação na avaliação. Os fatores sugeridos pela IA de tradução para os modelos da série O pode estar exacerbando o problema. Uma hipótese centra-se no aprendizado de reforço baseado em resultados (RL): se a IA for treinada e recompensada principalmente por produzir a resposta final correta, poderá aprender a fabricar etapas intermediárias, como reivindicar o uso da ferramenta, se isso se correlaciona com o sucesso, mesmo que o processo seja falso e o aprendizado de um ponto de realização, o que é o aprendizado de Modelos, que é um dos modelos, o que é um dos modelos, que é o que é o que é o que é um dos modelos, que é o que se correlaciona com o sucesso, o que é o que é um dos modelos, que é o que se correlaciona com o sucesso, o que é o que é o que é o aprendizado de e-mail e o aprendizado de um e-mail, como o que é o aprendizado de um e-mail, como o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que está. Com base nas preferências humanas para diferentes respostas do modelo. No entanto, se os avaliadores humanos não puderem verificar facilmente a correção de etapas intermediárias complexas, o modelo poderá aprender a gerar um raciocínio de som plausível, mas falso, se levar a um resultado preferido. De acordo com documentação de abertura , esse raciocínio não é transmitido. A tradução teoriza essa falta de acesso ao seu próprio raciocínio anterior, pode deixar o modelo incapaz de responder a perguntas do usuário com sinceridade sobre como ele chegou a uma conclusão anterior.”Nossa hipótese é que o tipo de aprendizado de reforço usado para os modelos da série O pode ampliar problemas que geralmente são mitigados (mas não totalmente apagados) por pipelines pós-treinamento padrão”, afirmou o pesquisador de traduções Neil Chowdhury para o TechCrunch. utilidade percebida. Esses modelos chegaram ao lado de outras atualizações do OpenAI, como o processamento visual aprimorado em março e a ativação do recurso de memória”Recall”em 11 de abril. Isso se desenrola à medida que a indústria mais ampla enfrenta com transparência, evidenciada pelas críticas aos detalhes de segurança atrasados ​​e escassos do Google para o seu modelo Gemini 2.5 Pro, levantando questões contínuas sobre o equilíbrio entre a velocidade de inovação e a implantação confiável da IA.

Categories: IT Info