O OpenAI lançou oficialmente sua família modelo GPT-4.1, introduzindo três novas versões-GPT-4.1, GPT-4.1 Mini e GPT-4.1 Nano-que pretendem equilibrar o desempenho de primeira linha com custo e velocidade flexíveis. Construído para superar seus antecessores, a série GPT-4.1 melhora os recursos principais, como geração de código, seguinte a seguir e o raciocínio de longo contexto, ao mesmo tempo em que fornecem menor latência e uso de ferramentas mais consistente.
Ao contrário do GPT-4 e GPT-4O, que Power Chatgpt para usuários profissionais, os novos modelos estão disponíveis exclusivamente através da API OpenAI-aumentando o foco contínuo da empresa nas integrações de empresas e desenvolvedores, em vez de um uso de chatbot. Ao segmentar os novos modelos em três camadas de desempenho distintas, o OpenAI está dando aos usuários da API a capacidade de dimensionar com base no tamanho e no orçamento da carga de trabalho. No topo, o modelo GPT-4.1 padrão foi projetado para as aplicações mais complexas e tem um preço de acordo: tokens de entrada de US $ 2 por milhão e tokens de produção de US $ 8 por milhão.
GPT-4.1 Mini é uma opção intermediária, oferecendo quase paridade em benchmarks de inteligência com latência muito menor-preço em US $ 0,40 por milhão de tokens de entrada e US $ 1,60 por milhão de produção. Para tarefas leves e casos de uso em tempo real, o GPT-4.1 Nano é o mais econômico ainda, custando apenas US $ 0,10 por milhão de tokens de entrada e US $ 0,40 por milhão de tokens de saída. Essas adições refletem a crescente ênfase do OpenAI em tornar a IA generativa acessível em uma gama mais ampla de casos de uso-de fluxos de trabalho agênticos de alto desempenho a ferramentas incorporadas em aplicativos de consumidores.
Notavelmente, todos os três modelos compartilham o mesmo corte de conhecimento (junho de 2024) e foram ajustados para fornecer resultados mais determinísticos e seguintes de formato do que as gerações anteriores-ajudam a reduzir as alucinações e melhorar a confiabilidade da integração em ambientes de produção. apenas para pesquisar e prototipagem, mas para implantação em alta escala em software comercial, plataformas SaaS e sistemas de agentes autônomos. Com o GPT-4.1 agora posicionado como o sucessor da visualização GPT-4.5 em breve, em breve (que termina em 14 de julho de 2025), o OpenAI está deixando claro que essa geração deve ter o peso operacional de muitas de suas parceiras comerciais. Avanços sobre seus antecessores. O modelo padrão GPT-4.1 alcançou uma pontuação de 54,6% no SWE-banchmarks verificou 26%.
Na instrução a seguir, o GPT-4.1 obteve 38,3% em Referência Multichallenge da escala , refletindo um aumento absoluto de 10,5% sobre Gpt-4o.
Além disso, o GPT-4.1 definiu um novo resultado de última geração no Video-MMe Benchmark Para um entendimento de longa data de longa duração, 72.0% GPT-4O. O GPT-4.1 Mini oferece latência e custo reduzidos, alcançando quase metade da latência e uma redução de custos de 83% em comparação com o GPT-4O, enquanto corresponde ou excedendo o desempenho do GPT-4O em avaliações de inteligência.
GPT-4.1 Nano, o menor e mais rápido modelo do OpenAI até o momento, é otimizado para tarefas que requerem baixa latência e eficiência de custo. Ele suporta uma janela de contexto de até 1 milhão de tokens e obtém 80,1% na MMLU, 50,3% em GPQA e 9,8% em benchmarks de codificação de poliglota de Aider, superando o desempenho de seus modelos. O preço dos modelos é o seguinte: GPT-4.1 a US $ 2 por milhão de tokens de entrada e tokens de produção de US $ 8 por milhão; GPT-4.1 Mini a US $ 0,40 por milhão de tokens de entrada e US $ 1,60 por milhão de tokens de produção; e GPT-4.1 Nano a US $ 0,10 por milhão de tokens de entrada e US $ 0,40 por milhão de tokens de produção.
Instruções aprimoradas a seguir e a compreensão de longo contexto
o OpenAI se concentrou em melhorar a capacidade dos modelos de seguir as instruções e compreender as entradas de longo contexto. Os modelos GPT-4.1 foram projetados para utilizar melhor janelas de contexto extensas, suportando até 1 milhão de tokens e exibir uma compreensão melhorada de longo contexto. Esses aprimoramentos tornam os modelos mais eficazes para alimentar agentes de IA capazes de realizar tarefas de forma independente em nome dos usuários, como engenharia de software, análise de documentos e suporte ao cliente. largura=”1005″altura=”605″src=”Data: imagem/svg+xml; nitro-inempty-id=mtc1ntoxmdq3-1; base64, phn2zyb2awv3qm94psiwidagmtawnSa2md UiihdpzhropsixmdA1iiBozwlnahq9ijyWNSigEG1SBNM9ImH0DHA6LY93D3CUDZMUB3JnlziWMDAVC3ZNIJ48L3N2ZZ4=”>
Modelo Limitações e considerações
Enquanto os modelos GPT-4.1 oferecem avanços significativos, o OpenAI reconhece certas limitações. Os modelos podem ser mais literais do que as versões anteriores, às vezes exigindo instruções mais específicas e explícitas dos usuários. Além disso, a precisão dos modelos diminui à medida que o número de tokens de entrada aumenta; Nos próprios testes do OpenAI, a precisão caiu de cerca de 84% com 8.000 tokens para 50% com 1.024 tokens. Em seu post oficial, a empresa afirma: “Os primeiros testadores observaram que o GPT-4.1 pode ser mais literal, por isso recomendamos ser explícito e específico em avisos.”
Além disso, o modelo de visualização do GPT-4.5 será depreciado em 14 de julho de 2025, abordando a adoção mais ampla do GPT-4.1. Os modelos mais recentes têm um corte de conhecimento de junho de 2024, dando aos desenvolvedores acesso a dados mais atuais em comparação com versões anteriores.