Antrópico está intensificando a corrida de janela de contexto da IA, atualizando seu modelo Claude Sonnet 4 para lidar com 1 milhão de tokens. Disponível agora em beta pública , o movimento coloca o Antrópio Antrópico na competição direta com o mais de 400.000 TONS de 400.000 TOKEN API antrópica oficial e Amazon Bedrock. A empresa também confirmou que o recurso está chegando em breve ao Vertex AI do Google Cloud, ampliando sua disponibilidade para desenvolvedores corporativos. O antropic está posicionando esse aprimoramento para uma nova classe de aplicativos complexos e intensivos em dados que antes eram impraticáveis. Para os desenvolvedores, isso significa a capacidade de realizar análises de código em larga escala, carregando bases de código inteiras, permitindo que o modelo compreenda a arquitetura do projeto e identifique dependências cruzadas. Para pesquisadores e analistas, permite a síntese de extensos conjuntos de documentos, como contratos legais ou especificações técnicas, mantendo o contexto completo em centenas de fontes. Também capacita a criação de agentes mais sofisticados e com reconhecimento de contexto que podem manter a coerência em centenas de chamadas de ferramentas e fluxos de trabalho em várias etapas. A Bolt.New, uma empresa que integra Claude à sua plataforma de desenvolvimento baseada em navegador, destacou o desempenho contínuo do modelo de concorrentes. Eric Simons, CEO e co-fundador da empresa, afirmou que”com a janela de contexto de 1M, os desenvolvedores agora podem trabalhar em projetos significativamente maiores, mantendo a alta precisão necessária para a codificação do mundo real”. Sean Ward, CEO e co-fundador da IGENT AI, descreveu a atualização como uma mudança fundamental, observando que permite “a verdadeira engenharia em escala de produção-sessões multi-dias em bases de código do mundo real. O cenário competitivo já inclui o minimax de Cingapura, que apresentou um modelo de token de 4 milhões em janeiro, estabelecendo uma barra alta para a indústria. Ele também inclui o Meta, cujo modelo de escoteiro llama 4 possui uma capacidade de 10 milhões de token, ultrapassando ainda mais os limites do processamento de longo contexto. Target=”_ Blank”> O preço do novo recurso está em camadas . Para instruções de até 200.000 tokens, o custo é de US $ 3 por milhão de tokens de entrada. Para avisos maiores, o preço dobra para US $ 6 por milhão de tokens de entrada. Essa estrutura foi projetada para gerenciar o aumento da carga computacional de contextos mais longos.

Isso contrasta com a abordagem do OpenAI para o GPT-5 lançado recentemente. Embora suas interfaces na Web tenham limites menores, a API GPT-5 oferece uma janela de contexto máxima de 400.000 tokens. Esse nível superior é reservado exclusivamente para usuários de API, direcionando os desenvolvedores que criam aplicativos que exigem análise profunda de documentos. O Gemini 2.5 Pro do Google suporta uma janela de contexto de até 1 milhão de tokens. 

O problema de’podridão do contexto’: é maior sempre melhor? Um relatório recente da Chroma Research introduziu o conceito de “podridão do contexto”, desafiando a narrativa “maior é melhor”. Em vez disso, testou 18 LLMs líderes em sua capacidade de fazer inferências a partir de informações semanticamente relacionadas, uma tarefa muito mais difícil. Os pesquisadores observaram: “Demonstramos que, mesmo nessas condições mínimas, o desempenho do modelo se degrada à medida que o comprimento da entrada aumenta, geralmente de maneiras surpreendentes e não uniformes.”

Por exemplo, os modelos foram solicitados a inferir a localização de um personagem a partir de pistas indiretas, uma tarefa em que o desempenho caiu mais à medida que o texto distraído foi adicionado. O estudo também descobriu que os modelos de GPT tendiam a alucinar respostas erradas, enquanto os modelos de Claude geralmente se recusavam a responder quando confrontados com a ambiguidade. Esses achados não são isolados. Um estudo conjunto da Microsoft e do Salesforce relatou uma queda de 39% em conversas longas e multirurnas. A Llama 4 da Meta, apesar de sua janela de 10 milhões de token, teria lutado em benchmarks de longo contexto. Isso levou alguns, como o pesquisador da IA, Gary Marcus, a questionar toda a abordagem. Ele argumentou: “Ninguém com integridade intelectual ainda pode acreditar que a escala pura nos levará a Agi.”

Esta evidência sugere que”engenharia de contexto”-a cuidadosa curadoria de dados relevantes e de alta qualidade-pode ser mais crítica para a IA confiável do que a expansão da força bruta das janelas de contexto. À medida que os desenvolvedores obtêm acesso a essas novas ferramentas poderosas, o foco pode mudar de quanto dados um modelo pode lidar com o quão bem esses dados são preparados.

Categories: IT Info