Cognition, le laboratoire d’IA derrière l’agent Devin, a lancé SWE-1.5, un nouveau modèle de codage à grande vitesse qui défie le marché en donnant la priorité à la fois aux performances et à la vitesse.

Annoncé le 29 octobre, le modèle est désormais disponible dans l’IDE Windsurf, acquis par Cognition en juillet. La société affirme que SWE-1.5 fonctionne jusqu’à 13 fois plus rapidement que Sonnet 4.5 d’Anthropic, grâce à un partenariat avec le fournisseur d’inférence Cerebras.

Cette sortie intervient alors que son rival Cursor a lancé son propre modèle rapide, Composer, signalant une nouvelle tendance dans laquelle les sociétés d’agents d’IA construisent des modèles propriétaires pour créer des expériences de développement étroitement intégrées et à faible latence et réduire la dépendance à l’égard des API tierces.

Une nouvelle norme en matière de vitesse et d’intelligence

Dans une démarche qui reflète directement celle de ses concurrents, Cognition parie sur l’intégration verticale pour résoudre une frustration fondamentale des développeurs : le compromis entre l’intelligence du modèle et le temps de réponse.

La stratégie de l’entreprise repose sur l’idée de co-concevoir le modèle, son système d’inférence et le faisceau d’agents comme un système unique et unifié.

Selon les annonce officielle, « Les développeurs ne devraient pas avoir à choisir entre une IA qui pense vite et une autre qui pense bien. »

Cette philosophie sous-tend SWE-1.5, que Cognition décrit comme un modèle « de taille frontière » avec des centaines de milliards de paramètres, spécifiquement conçu pour éliminer ce compromis et offrir à la fois des performances d’élite et les meilleures de sa catégorie. vitesse.

La caractéristique la plus frappante du modèle est sa vitesse brute, résultat d’un partenariat étroit avec le spécialiste de l’inférence Cerebras. Cognition affirme que cette collaboration permet à SWE-1.5 d’atteindre une latence remarquable, déclarant: « Elle établit également une nouvelle norme en matière de vitesse: nous nous sommes associés à Cerebras pour le servir jusqu’à 950 tok/s – 6 fois plus rapide que Haiku 4.5 et 13 fois plus rapide que Sonnet 4.5.”vallée de la mort semi-asynchrone.”

Les efforts d’optimisation sont allés au-delà du modèle lui-même, car sa vitesse a révélé de nouveaux goulots d’étranglement dans l’EDI Windsurf, obligeant l’équipe à réécrire des composants critiques tels que la vérification du lint et les pipelines d’exécution de commandes pour réduire la surcharge du système jusqu’à deux secondes par étape.

Bien que les affirmations de vitesse de Cognition soient audacieuses, la société a également fourni des données du benchmark SWE-Bench Pro pour justifier ses affirmations. performances.

Sur le benchmark, qui comprend 731 tâches de codage agent difficiles réparties dans 41 référentiels de codes différents, SWE-1.5 démontre le compromis qu’il vise à conquérir.

Alors que Sonnet 4.5 d’Anthropic a obtenu le score le plus élevé à 43,60 %, il l’a fait à une vitesse de seulement 69 jetons/seconde. En revanche, SWE-1.5 a obtenu un score très compétitif de 40,08 %, atteignant des performances proches de la frontière, mais à une vitesse fulgurante de 950 jetons/seconde, ce qui le rend près de 14 fois plus rapide.

Cela positionne le modèle comme un outil puissant pour les développeurs qui ont besoin de résultats de haute qualité sans les retards interrompant le flux de travail des autres modèles de haut niveau.

Les résultats de référence montrent que SWE-1.5 surpasse plusieurs autres modèles notables. en précision et en rapidité. Il a surpassé Haiku 4.5 d’Anthropic (score de 39,45 % à 142 tok/s) et une version de haut niveau de GPT-5 (score de 36,30 % à 43 tok/s).

Le nouveau modèle représente également un saut générationnel massif pour Cognition, avec un score plus du double de son prédécesseur, SWE-1, qui n’a réussi que 16,55 % à 39 tok/s. Ces données renforcent l’argument central de Cognition : SWE-1.5 offre des performances compétitives avec les meilleures du marché, tout en établissant une toute nouvelle norme en matière de vitesse.

Le nouveau modèle repose sur un investissement massif dans des infrastructures de pointe. Cognition révèle que SWE-1.5 a été formé sur un « cluster de pointe de milliers de puces GB200 NVL72 » et affirme qu’il pourrait s’agir du « premier modèle de production public formé sur la nouvelle génération GB200 ». pour les techniques intensives d’apprentissage par renforcement (RL) utilisées pour affiner le modèle spécifiquement pour les tâches complexes et en plusieurs étapes impliquées dans l’ingénierie logicielle moderne.

L’impact du renforcement

Le lancement de SWE-1.5 intervient alors que l’environnement de codage d’IA Cursor a publié son propre modèle propriétaire à grande vitesse, Composer.

Les parallèles entre les deux annonces sont impossibles à ignorer et indiquent une convergence stratégique claire dans l’outil de développement d’IA. marché.

Les deux sociétés adoptent massivement l’apprentissage par renforcement. Cognition a utilisé un hyperviseur de VM appelé otterlink pour exécuter des déploiements RL dans des dizaines de milliers d’environnements simultanés haute fidélité qui incluent l’exécution de code et la navigation Web.

Cette méthode est étonnamment similaire à la description de Cursor consistant à exécuter « des centaines de milliers d’environnements de codage simultanés en bac à sable » pour sa propre formation RL.

Cette approche partagée met en évidence une conviction croissante selon laquelle pour créer un agent de codage vraiment efficace, les entreprises doivent affiner les modèles. contre leurs propres outils personnalisés et scénarios du monde réel.

Un chercheur de Cursor ML a défini cette stratégie en déclarant :”Voici une quantité minimale d’intelligence qui est nécessaire pour être productif, et si vous pouvez associer cela avec une vitesse, c’est génial.”

Une autre similitude est le manque de transparence. Cognition et Cursor ont gardé le secret sur les fondements de leurs nouveaux modèles, se référant uniquement à un « modèle de base open source leader ».

Ce secret rend difficile une évaluation indépendante et repose sur la confiance des utilisateurs dans les références internes des entreprises. Toutefois, les premières impressions sont positives. L’expert en IA et blogueur Simon Willison a noté après avoir testé le nouveau modèle :”Celui-ci a semblé vraiment rapide. S’associer avec Cerebras pour l’inférence est une décision très intelligente.”

Des cendres de Windsurf, une nouvelle stratégie

Exploiter les atouts depuis son acquisition très médiatisée de Windsurf, Cognition s’appuie sur une marque et un produit établis.

Le nouveau modèle est une évolution de la famille SWE (Software Engineering), un projet initié par l’équipe d’origine de Windsurf en mai 2025, avant l’effondrement de son acquisition prévue par OpenAI et où Cognition intervient en tant que sauveur.

En intégrant SWE-1.5 directement dans l’IDE Windsurf, Cognition exécute un vision de co-conception du modèle, du harnais d’agents et de l’expérience utilisateur en tant que système unique et unifié. L’entreprise affirme que cette approche holistique est essentielle pour la performance.

Dans son annonce, Cognition a expliqué:”Le choix d’un agent de codage ne concerne pas seulement le modèle lui-même. L’orchestration environnante a également un impact considérable sur la façon dont le modèle fonctionne.”

Cette stratégie permet à l’entreprise d’itérer rapidement, en utilisant les commentaires de l’environnement Windsurf pour ajuster les outils et les invites, puis de recycler le modèle sur le système mis à jour.

C’est un parions qu’une expérience à haute vitesse étroitement intégrée peut se tailler une base d’utilisateurs fidèles, même sans disposer du plus grand modèle absolu du marché. Alors que la bataille pour les ordinateurs de bureau des développeurs s’intensifie, la capacité à offrir à la fois intelligence et rapidité au sein d’un flux de travail transparent pourrait devenir le différenciateur clé.

Categories: IT Info