A Cognition, o laboratório de IA por trás do agente Devin, lançou o SWE-1.5, um novo modelo de codificação de alta velocidade que desafia o mercado ao priorizar desempenho e velocidade.

Anunciado em 29 de outubro, o modelo agora está disponível no IDE Windsurf, que a Cognition adquiriu em julho. A empresa afirma que o SWE-1.5 opera até 13 vezes mais rápido que o Sonnet 4.5 da Anthropic, graças a uma parceria com o provedor de inferência Cerebras.

O lançamento ocorre no momento em que a rival Cursor lança seu próprio modelo rápido, o Composer, sinalizando uma nova tendência em que empresas de agentes de IA estão construindo modelos proprietários para criar experiências de desenvolvedor totalmente integradas e de baixa latência e reduzir a dependência de APIs de terceiros.

Um novo padrão para velocidade e inteligência

Em um movimento que reflete diretamente seus concorrentes, a Cognition está apostando na integração vertical para resolver uma frustração central do desenvolvedor: o compromisso entre a inteligência do modelo e o tempo de resposta.

A estratégia da empresa é construída sobre a ideia de co-projetar o modelo, seu sistema de inferência e o aproveitamento do agente como um sistema único e unificado.

De acordo com o anúncio oficial, “Os desenvolvedores não deveriam ter que escolher entre uma IA que pensa rápido e outra que pensa bem.”

Essa filosofia sustenta o SWE-1.5, que a Cognition descreve como um modelo de”tamanho de fronteira”com centenas de bilhões de parâmetros, projetado especificamente para eliminar esse comprometimento e oferecer desempenho de elite e o melhor da categoria velocidade.

A característica mais marcante do modelo é sua velocidade bruta, resultado de uma estreita parceria com a especialista em inferência Cerebras. A Cognition afirma que esta colaboração permite que o SWE-1.5 alcance uma latência notável, afirmando: “Ele também estabelece um novo padrão de velocidade: fizemos uma parceria com a Cerebras para atendê-lo em até 950 tok/s – 6x mais rápido que o Haiku 4.5 e 13x mais rápido que o Sonnet 4.5.”“vale da morte semi-assíncrono.”

Os esforços de otimização foram além do modelo em si, pois sua velocidade revelou novos gargalos no IDE Windsurf, forçando a equipe a reescrever componentes críticos, como verificação de lint e pipelines de execução de comando, para reduzir a sobrecarga do sistema em até dois segundos por etapa.

Embora as afirmações de velocidade da Cognition sejam ousadas, a empresa também forneceu dados do benchmark SWE-Bench Pro para fundamentar sua desempenho.

No benchmark, que consiste em 731 tarefas difíceis de codificação de agentes em 41 repositórios de código diversos, o SWE-1.5 demonstra a compensação que pretende conquistar.

Embora o Sonnet 4.5 da Anthropic tenha alcançado a pontuação mais alta com 43,60%, ele o fez a uma velocidade de apenas 69 tokens/segundo. Em contraste, o SWE-1.5 apresentou uma pontuação altamente competitiva de 40,08%, alcançando um desempenho próximo da fronteira, mas a impressionantes 950 tokens/segundo, tornando-o quase 14 vezes mais rápido.

Isso posiciona o modelo como uma ferramenta poderosa para desenvolvedores que precisam de resultados de alta qualidade sem os atrasos que interrompem o fluxo de trabalho de outros modelos de nível superior.

Os resultados do benchmark mostram que o SWE-1.5 supera vários outros modelos notáveis. tanto em precisão quanto em velocidade. Ele superou o Haiku 4,5 da Anthropic (pontuação de 39,45% a 142 tok/s) e uma versão de alto nível do GPT-5 (pontuação de 36,30% a 43 tok/s).

O novo modelo também representa um enorme salto geracional para a Cognição, marcando mais que o dobro de seu antecessor, SWE-1, que conseguiu apenas 16,55% a 39 tok/s. Esses dados reforçam o argumento central da Cognition: SWE-1.5 oferece desempenho competitivo com o melhor do mercado, ao mesmo tempo que estabelece um padrão totalmente novo de velocidade.

A base do novo modelo é um investimento maciço em infra-estruturas de ponta. A Cognition revela que o SWE-1.5 foi treinado em um “cluster de última geração de milhares de chips GB200 NVL72″ e afirma que pode ser o “primeiro modelo de produção pública treinado na nova geração GB200″. as técnicas intensivas de aprendizado por reforço (RL) usadas para ajustar o modelo especificamente para as tarefas complexas e de várias etapas envolvidas na engenharia de software moderna.

O impacto do reforço

O lançamento do SWE-1.5 ocorre no momento em que o ambiente de codificação de IA Cursor lança seu próprio modelo proprietário de alta velocidade, o Composer.

Os paralelos entre os dois anúncios são impossíveis de ignorar e apontam para uma clara convergência estratégica na ferramenta de desenvolvimento de IA mercado.

Ambas as empresas estão adotando o aprendizado por reforço em grande escala. A Cognition utilizou um hipervisor de VM chamado otterlink para executar implementações de RL em dezenas de milhares de ambientes simultâneos e de alta fidelidade que incluem execução de código e navegação na Web.

Este método é muito semelhante à descrição do Cursor de executar “centenas de milhares de ambientes de codificação em sandbox simultâneos” para seu próprio treinamento de RL.

Essa abordagem compartilhada destaca uma crença crescente de que, para construir um agente de codificação verdadeiramente eficaz, as empresas devem ajustar os modelos em relação aos seus próprios modelos. próprias ferramentas personalizadas e cenários do mundo real.

Um pesquisador do Cursor ML estruturou essa estratégia, afirmando: “aqui está agora uma quantidade mínima de inteligência necessária para ser produtivo, e se você puder combinar isso com velocidade, isso é incrível.”

Outra semelhança é a falta de transparência. Tanto a Cognition quanto a Cursor têm mantido segredo sobre a base de seus novos modelos, referindo-se apenas a um “modelo básico líder de código aberto”.

Esse sigilo dificulta a avaliação independente e depende da confiança dos usuários nos benchmarks internos das empresas. No entanto, as primeiras impressões são positivas. O especialista em IA e blogueiro Simon Willison observou depois de testar o novo modelo:”Este pareceu muito rápido. A parceria com a Cerebras para inferência é uma jogada muito inteligente.”

De Ashes do Windsurf, uma nova estratégia

Aproveitar os recursos de Com sua aquisição de alto perfil da Windsurf, a Cognition está se baseando em uma marca e um produto estabelecidos.

O novo modelo é uma evolução da família SWE (Engenharia de Software), um projeto iniciado pela equipe original da Windsurf em maio de 2025, antes de sua aquisição planejada pela OpenAI entrar em colapso e a Cognition intervir como salvadora.

Ao integrar o SWE-1.5 diretamente no IDE do Windsurf, a Cognition está executando uma visão de co-projetar o modelo, o aproveitamento do agente e a experiência do usuário como um sistema único e unificado. A empresa argumenta que essa abordagem holística é crítica para o desempenho.

Em seu anúncio, a Cognition explicou:”A escolha de um agente de codificação não envolve apenas o modelo em si. A orquestração circundante também tem um impacto enorme no desempenho do modelo.”

Essa estratégia permite que a empresa itere rapidamente, usando o feedback do ambiente Windsurf para ajustar ferramentas e instruções e, em seguida, treinar novamente o modelo no sistema atualizado.

É uma aposta que um uma experiência totalmente integrada e de alta velocidade pode conquistar uma base de usuários fiéis, mesmo sem ter o maior modelo do mercado. À medida que a batalha pelos desktops dos desenvolvedores se intensifica, a capacidade de fornecer inteligência e velocidade em um fluxo de trabalho contínuo pode se tornar o principal diferencial.

Categories: IT Info