Devin エージェントの背後にある AI ラボである Cognition は、パフォーマンスと速度の両方を優先することで市場に挑戦する新しい高速コーディング モデルである SWE-1.5 を発表しました。
10 月 29 日に発表されたこのモデルは、Cognition が 7 月に買収した Windsurf IDE で利用できるようになりました。同社は、推論プロバイダー Cerebras との提携のおかげで、SWE-1.5 は Anthropic の Sonnet 4.5 よりも最大 13 倍高速に動作すると主張しています。
このリリースは、ライバルの Cursor が独自の高速モデル Composer を立ち上げたときに行われ、AI エージェント企業が独自のモデルを構築して緊密に統合された低レイテンシの開発者エクスペリエンスを作成し、サードパーティ API への依存を減らすという新しい傾向を示しています。
![]()
同社の戦略は、モデル、その推論システム、エージェント ハーネスを単一の統合システムとして共同設計するというアイデアに基づいて構築されています。
同社の公式発表によると、「開発者は、高速に考える AI とよく考える AI のどちらかを選択する必要はありません。」
この哲学は SWE-1.5 の基礎となっており、Cognition は SWE-1.5 を数千億のパラメーターを備えた「フロンティアサイズ」のモデルと表現しており、その妥協点を排除するために特別に設計されています。エリートのパフォーマンスとクラス最高の速度の両方を提供します。
このモデルの最も顕著な特徴は、推論専門家 Cerebras との緊密なパートナーシップの結果である生の速度です。コグニション社は、このコラボレーションによって SWE-1.5 が驚くべきレイテンシーを実現できると主張し、「速度の新たな基準も設定しました。当社は Cerebras と提携して、最大 950 tok/s でサービスを提供します。これは、Haiku 4.5 の 6 倍、Sonnet 4.5 の 13 倍です。」
このパフォーマンスの飛躍的な向上は、開発者を「フロー状態」に保つことを目的としており、5 秒未満でタスクを完了します。これは、遅延を回避するための重要なしきい値です。同社はこれを「半非同期死の谷」と呼んでいます。
その速度により Windsurf IDE に新たなボトルネックが明らかになったため、最適化の取り組みはモデル自体を超えて行われ、チームは lint チェックやコマンド実行パイプラインなどの重要なコンポーネントを書き直して、システムのオーバーヘッドを 1 ステップあたり最大 2 秒削減する必要がありました。
Cognition の速度の主張は大胆ですが、同社は SWE-Bench Pro からのデータも提供しました。
ベンチマークでは、41 の多様なコード リポジトリにわたる 731 の難しいエージェント コーディング タスクで構成され、SWE-1.5 は克服しようとしているトレードオフを示しています。
Anthropic の Sonnet 4.5 が 43.60% という最高スコアを達成しましたが、その速度はわずか 69 トークン/秒でした。対照的に、SWE-1.5 は、40.08% という非常に競争力の高いスコアを達成し、ほぼ最前線のパフォーマンスを達成しましたが、毎秒 950 トークンという驚異的な速度で、ほぼ 14 倍高速になりました。
これにより、このモデルは、他の最上位モデルのようにワークフローを中断するような遅延がなく、高品質の結果を必要とする開発者にとって強力なツールとして位置づけられています。
ベンチマークの結果は、SWE-1.5 を示しています。精度と速度の両方で他のいくつかの注目すべきモデルを上回っています。これは、Anthropic の Haiku 4.5 (142 tok/s で 39.45% のスコア) や GPT-5 の上位バージョン (43 tok/s で 36.30% のスコア) を上回りました。
新しいモデルは、Cognition にとっても大きな世代の飛躍を表しており、39 tok/s でわずか 16.55% しか管理できなかった前世代の SWE-1 の 2 倍以上のスコアを獲得しました。
彼のデータは、Cognition の中心的な主張を裏付けています。SWE-1.5 は、速度に関して全く新しい標準を設定しながら、市場最高のものと競争できるパフォーマンスを提供します。
新しいモデルを支えるのは、最先端のインフラストラクチャへの巨額の投資です。 Cognition は、SWE-1.5 が「数千の GB200 NVL72 チップからなる最先端のクラスター」でトレーニングされたことを明らかにし、これが「新しい GB200 世代でトレーニングされた最初の公開生産モデル」である可能性があると主張しています。
ファームウェアがまだ未熟だった 6 月初旬にハードウェアにアクセスしたため、チームはより堅牢なヘルスチェックとフォールトトレラントなトレーニング システムを一から構築する必要がありました。
この強力なハードウェアは、特に現代のソフトウェア エンジニアリングに含まれる複雑な複数ステップのタスク向けにモデルを微調整するために使用される集中強化学習 (RL) テクニックに不可欠でした。
強化の影響
SWE-1.5 のリリースは、AI コーディング環境 Cursor が独自の高速モデル Composer をリリースしたことを受けて行われました。
この 2 つの発表の類似点を比較することは不可能です。 AI 開発者ツール市場における明確な戦略的収束を無視して指摘します。
両社は大規模な強化学習を採用しています。 Cognition は、otterlink と呼ばれる VM ハイパーバイザーを利用して、コード実行や Web ブラウジングを含む数万の同時高忠実度環境で RL ロールアウトを実行しました。
この方法は、独自の RL トレーニングのために「数十万の同時サンドボックス コーディング環境」を実行するという Cursor の説明と驚くほど似ています。
この共通のアプローチは、真に効果的なコーディング エージェントを構築するには、企業がモデルを微調整する必要があるという考えが高まっていることを浮き彫りにしています。
Cursor ML 研究者は、この戦略を組み立てて、「生産性を高めるために必要な最小限のインテリジェンスがここにあり、それをスピードと組み合わせることができれば素晴らしいことです。」
もう 1 つの類似点は、透明性の欠如です。 Cognition と Cursor はどちらも、新しいモデルの基礎については秘密にしており、「主要なオープンソースの基本モデル」についてのみ言及しています。
この秘密により、独立した評価が困難になり、ユーザーが企業の内部ベンチマークを信頼することに依存しています。ただし、初期の印象はポジティブです。 AI 専門家でブロガーの Simon Willison 氏は、新しいモデルをテストした後、「これは非常に速く感じました。推論のために Cerebras と提携するのは非常に賢い選択です。」
Windsurf’s Ashes からの新しい戦略
Windsurf の注目を集めた買収により、Cognition は確立されたブランドと製品を基盤に構築されています。
新しいモデルは、OpenAI による買収計画が破綻し、Cognition が救済者として介入する前の 2025 年 5 月に元の Windsurf チームによって開始されたプロジェクトである SWE (ソフトウェア エンジニアリング) ファミリの進化版です。
SWE-1.5 を Windsurf IDE に直接統合することにより、Cognition はモデル、エージェント ハーネス、ユーザー エクスペリエンスを単一の統合システムとして共同設計するというビジョンを実行します。同社は、この総合的なアプローチがパフォーマンスにとって重要であると主張しています。
発表の中で、Cognition は次のように説明しました。「コーディング エージェントの選択は、モデルそのものだけではありません。周囲のオーケストレーションも、モデルのパフォーマンスに大きな影響を与えます。」
この戦略により、同社は Windsurf 環境からのフィードバックを使用してツールとプロンプトを調整し、更新されたシステムでモデルを再トレーニングすることで、迅速に反復することができます。
市場で絶対的に最大のモデルがなくても、緊密に統合された高速エクスペリエンスが忠実なユーザー ベースを構築できると確信しています。開発者のデスクトップをめぐる争いが激化するにつれ、シームレスなワークフロー内でインテリジェンスとスピードの両方を提供できる能力が重要な差別化要因になる可能性があります。