Cognition, das KI-Labor hinter dem Devin-Agenten, hat SWE-1.5 auf den Markt gebracht, ein neues Hochgeschwindigkeits-Codierungsmodell, das den Markt herausfordert, indem es sowohl Leistung als auch Geschwindigkeit in den Vordergrund stellt.
Das am 29. Oktober angekündigte Modell ist jetzt in der Windsurf-IDE verfügbar, die Cognition im Juli erworben hat. Das Unternehmen gibt an, dass SWE-1.5 dank einer Partnerschaft mit dem Inferenzanbieter Cerebras bis zu 13-mal schneller arbeitet als Sonnet 4.5 von Anthropic.
Die Veröffentlichung erfolgt zu einem Zeitpunkt, an dem der Konkurrent Cursor sein eigenes schnelles Modell, Composer, auf den Markt brachte. Höhe=”753″src=”data:image/svg+xml;nitro-empty-id=MTY1NzoxNDYx-1;base64,PHN2ZyB2aWV3Qm94PSIwIDAgMTI4MCA3NT MiIHdpZHRoPSIxMjgwIiBoZWlnaHQ9Ijc1MyIgeG1sbnM9Imh0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnIj48L3N2Zz4=”>
Ein neuer Standard für Geschwindigkeit und Intelligenz
In einem Schritt, der seine Konkurrenten direkt widerspiegelt, setzt Cognition auf vertikale Integration, um eine zentrale Frustration der Entwickler zu lösen: den Kompromiss zwischen Modellintelligenz und Reaktionszeit.
Die Strategie des Unternehmens basiert auf der Idee, das Modell, sein Inferenzsystem und die Agentennutzung gemeinsam als ein einziges, einheitliches System zu entwerfen.
Nach Angaben des Unternehmens offizielle Ankündigung: „Entwickler sollten sich nicht zwischen einer KI, die schnell denkt, und einer KI, die gut denkt, entscheiden müssen.“
Diese Philosophie liegt SWE-1.5 zugrunde, das Cognition als „Grenzmodell“ mit Hunderten von Milliarden Parametern beschreibt, das speziell entwickelt wurde, um diesen Kompromiss zu beseitigen und sowohl Spitzenleistung als auch Leistung zu liefern Klassenbeste Geschwindigkeit.
Das auffälligste Merkmal des Modells ist seine hohe Geschwindigkeit, ein Ergebnis einer engen Partnerschaft mit dem Inferenzspezialisten Cerebras. Cognition behauptet, dass diese Zusammenarbeit es SWE-1.5 ermöglicht, eine bemerkenswerte Latenz zu erreichen, und erklärt: „Es setzt auch einen neuen Standard für Geschwindigkeit: Wir haben uns mit Cerebras zusammengetan, um es mit bis zu 950 tok/s bereitzustellen – 6x schneller als Haiku 4.5 und 13x schneller als Sonnet 4.5.“
Dieser Leistungssprung zielt darauf ab, Entwickler in einem „Flow-Zustand“ zu halten, indem sie Aufgaben in weniger als fünf Sekunden erledigen, eine kritische Schwelle, um das zu vermeiden, was der Das Unternehmen nennt es das „halbasynchrone Tal des Todes“.
Die Optimierungsbemühungen gingen über das Modell selbst hinaus, da seine Geschwindigkeit neue Engpässe in der Windsurf-IDE aufdeckte und das Team dazu zwang, kritische Komponenten wie Flusenprüfung und Befehlsausführungspipelines neu zu schreiben, um den System-Overhead um bis zu zwei Sekunden pro Schritt zu reduzieren.
Während die Geschwindigkeitsansprüche von Cognition gewagt sind, stellte das Unternehmen auch Daten aus dem SWE-Bench Pro-Benchmark zur Verfügung untermauern seine Leistung.
Im Benchmark, der aus 731 schwierigen Agenten-Codierungsaufgaben in 41 verschiedenen Code-Repositories besteht, demonstriert SWE-1.5 den Kompromiss, den es überwinden will.
Während Anthropics Sonnet 4.5 mit 43,60 % die höchste Punktzahl erreichte, erreichte es dies mit einer Geschwindigkeit von nur 69 Token/Sekunde. Im Gegensatz dazu lieferte SWE-1.5 einen äußerst konkurrenzfähigen Wert von 40,08 % und erreichte damit eine nahezu grenzenlose Leistung, allerdings mit unglaublichen 950 Token/Sekunde, was es fast 14-mal schneller macht.
Dies macht das Modell zu einem leistungsstarken Werkzeug für Entwickler, die qualitativ hochwertige Ergebnisse benötigen, ohne die Workflow-unterbrechenden Verzögerungen anderer Spitzenmodelle.
Die Benchmark-Ergebnisse zeigen, dass SWE-1.5 mehrere andere bemerkenswerte Modelle übertrifft Modelle in Genauigkeit und Geschwindigkeit. Es übertraf Anthropics Haiku 4,5 (39,45 % Punktzahl bei 142 Token/s) und eine High-Tier-Version von GPT-5 (36,30 % Punktzahl bei 43 Token/s).
Das neue Modell stellt auch einen gewaltigen Generationssprung für Cognition dar und erzielte mehr als das Doppelte seines Vorgängers SWE-1, der nur 16,55 % bei 39 Token/s schaffte. Diese Daten untermauern das zentrale Argument von Cognition: SWE-1.5 bietet eine Leistung, die mit den Besten auf dem Markt konkurrenzfähig ist, und setzt gleichzeitig einen völlig neuen Standard für Geschwindigkeit.
Die Grundlage des neuen Modells ist eine massive Investition in modernste Infrastruktur. Cognition enthüllt, dass SWE-1.5 auf einem „hochmodernen Cluster aus Tausenden von GB200-NVL72-Chips“ trainiert wurde, und behauptet, dass es sich möglicherweise um das „erste öffentliche Produktionsmodell handelt, das auf der neuen GB200-Generation trainiert wurde“.
Der Zugriff auf die Hardware Anfang Juni, als die Firmware noch unausgereift war, erforderte vom Team, von Grund auf robustere Gesundheitsprüfungs-und fehlertolerante Trainingssysteme zu entwickeln.
Diese leistungsstarke Hardware war unerlässlich für die Techniken des intensiven Reinforcement Learning (RL), die zur Feinabstimmung des Modells speziell für die komplexen, mehrstufigen Aufgaben des modernen Software-Engineerings verwendet werden.
Die Auswirkungen der Verstärkung
Die Einführung von SWE-1.5 erfolgt, während die KI-Codierungsumgebung Cursor ihr eigenes proprietäres Hochgeschwindigkeitsmodell, Composer, veröffentlicht.
Die Parallelen zwischen den beiden Ankündigungen sind nicht zu übersehen und weisen auf eine klare strategische Konvergenz im KI-Entwicklertool hin Markt.
Beide Unternehmen setzen in großem Umfang auf Reinforcement Learning. Cognition nutzte einen VM-Hypervisor namens otterlink, um RL-Rollouts in Zehntausenden gleichzeitigen High-Fidelity-Umgebungen auszuführen, die Codeausführung und Webbrowsing umfassen.
Diese Methode ähnelt auffallend der Beschreibung von Cursor, „Hunderttausende gleichzeitiger Sandbox-Codierungsumgebungen“ für das eigene RL-Training auszuführen.
Dieser gemeinsame Ansatz unterstreicht die wachsende Überzeugung, dass Unternehmen zum Aufbau eines wirklich effektiven Codierungsagenten Modelle feinabstimmen müssen Ihre eigenen benutzerdefinierten Tools und realen Szenarien.
Ein Cursor ML-Forscher formulierte diese Strategie mit den Worten: „Hier gibt es jetzt ein Mindestmaß an Intelligenz, das notwendig ist, um produktiv zu sein, und wenn man das mit Geschwindigkeit kombinieren kann, ist das großartig.“
Eine weitere Ähnlichkeit ist der Mangel an Transparenz. Sowohl Cognition als auch Cursor haben die Grundlagen ihrer neuen Modelle geheim gehalten und sich lediglich auf ein „führendes Open-Source-Basismodell“ bezogen.
Diese Geheimhaltung erschwert eine unabhängige Bewertung und setzt voraus, dass Benutzer den internen Benchmarks der Unternehmen vertrauen. Die ersten Eindrücke sind jedoch positiv. KI-Experte und Blogger Simon Willison bemerkte nach dem Testen des neuen Modells: „Dieses fühlte sich wirklich schnell an. Die Zusammenarbeit mit Cerebras für Schlussfolgerungen ist ein sehr kluger Schachzug.“
Aus Windsurfs Asche, eine neue Strategie
Die Nutzung der Mit den Vorteilen der hochkarätigen Übernahme von Windsurf baut Cognition auf einer etablierten Marke und einem etablierten Produkt auf.
Das neue Modell ist eine Weiterentwicklung der SWE-Familie (Software Engineering), einem Projekt, das vom ursprünglichen Windsurf-Team bereits im Mai 2025 initiiert wurde, bevor die geplante Übernahme durch OpenAI scheiterte und Cognition als Retter einsprang.
Durch die direkte Integration von SWE-1.5 in die Windsurf-IDE führt Cognition eine Vision der gemeinsamen Gestaltung des Modells, der Agentennutzung und der Benutzererfahrung als ein einziges, einheitliches System. Das Unternehmen argumentiert, dass dieser ganzheitliche Ansatz entscheidend für die Leistung ist.
In seiner Ankündigung erklärte Cognition: „Bei der Auswahl eines Codierungsagenten geht es nicht nur um das Modell selbst. Auch die umgebende Orchestrierung hat einen großen Einfluss auf die Leistung des Modells.“
Diese Strategie ermöglicht es dem Unternehmen, schnell zu iterieren, Feedback aus der Windsurf-Umgebung zu nutzen, um Tools und Eingabeaufforderungen anzupassen und das Modell dann auf dem aktualisierten System neu zu trainieren.
Das ist eine Wette dass ein eng integriertes Hochgeschwindigkeitserlebnis eine treue Benutzerbasis aufbauen kann, auch ohne das absolut größte Modell auf dem Markt zu haben. Da der Kampf um Entwickler-Desktops immer intensiver wird, könnte die Fähigkeit, sowohl Intelligenz als auch Geschwindigkeit innerhalb eines nahtlosen Workflows bereitzustellen, zum entscheidenden Unterscheidungsmerkmal werden.
 
													 
													