Cognition, laboratorium AI di belakang agen Devin, telah meluncurkan SWE-1.5, model pengkodean berkecepatan tinggi baru yang menantang pasar dengan memprioritaskan kinerja dan kecepatan.

Diumumkan pada tanggal 29 Oktober, model ini kini tersedia di Windsurf IDE, yang diperoleh Cognition pada bulan Juli. Perusahaan mengklaim SWE-1.5 beroperasi hingga 13 kali lebih cepat dibandingkan Sonnet 4.5 dari Anthropic, berkat kemitraan dengan penyedia inferensi Cerebras.

Rilis ini dilakukan saat pesaingnya, Cursor, meluncurkan model cepatnya sendiri, Composer, yang menandakan tren baru di mana perusahaan agen AI membangun model kepemilikan untuk menciptakan pengalaman pengembang yang sangat terintegrasi dan berlatensi rendah serta mengurangi ketergantungan pada API pihak ketiga.

Standar Baru untuk Kecepatan dan Kecerdasan

Dalam sebuah langkah yang secara langsung mencerminkan para pesaingnya, Cognition bertaruh pada integrasi vertikal untuk mengatasi frustrasi inti pengembang: trade-off antara kecerdasan model dan waktu respons.

Strategi perusahaan dibangun berdasarkan gagasan untuk merancang bersama model, sistem inferensi, dan pemanfaatan agen sebagai satu sistem yang terpadu.

Menurut pengumuman resmi, “Pengembang tidak harus memilih antara AI yang berpikir cepat dan AI yang berpikir baik.”

Filosofi ini mendasari SWE-1.5, yang digambarkan oleh Cognition sebagai model “ukuran terdepan” dengan ratusan miliar parameter, yang dirancang khusus untuk menghilangkan kompromi tersebut dan memberikan kinerja elit dan terbaik di kelasnya kecepatan.

Fitur model yang paling mencolok adalah kecepatan aslinya, yang merupakan hasil kemitraan erat dengan spesialis inferensi Cerebras. Cognition mengklaim kolaborasi ini memungkinkan SWE-1.5 mencapai latensi yang luar biasa, dengan menyatakan, “Ini juga menetapkan standar baru untuk kecepatan: kami bermitra dengan Cerebras untuk menyajikannya hingga 950 tok/s – 6x lebih cepat dari Haiku 4.5 dan 13x lebih cepat dari Sonnet 4.5.”

Lompatan kinerja ini bertujuan untuk menjaga pengembang dalam “kondisi mengalir” dengan menyelesaikan tugas dalam waktu kurang dari lima detik, sebuah ambang batas penting untuk menghindari apa yang disebut oleh perusahaan sebagai “lembah kematian semi-asinkron.”

Upaya pengoptimalan melampaui model itu sendiri, karena kecepatannya mengungkap hambatan baru dalam Windsurf IDE, memaksa tim untuk menulis ulang komponen penting seperti pemeriksaan lint dan alur eksekusi perintah untuk mengurangi overhead sistem hingga dua detik per langkah.

Meskipun klaim kecepatan Cognition sangat berani, perusahaan juga menyediakan data dari benchmark SWE-Bench Pro untuk mendukungnya kinerja.

Pada benchmark, yang terdiri dari 731 tugas pengkodean agen yang sulit di 41 repositori kode yang berbeda, SWE-1.5 menunjukkan trade-off yang ingin ditaklukkan.

Sementara Sonnet 4.5 dari Anthropic mencapai skor tertinggi sebesar 43,60%, ia melakukannya dengan kecepatan hanya 69 token/detik. Sebaliknya, SWE-1.5 memberikan skor yang sangat kompetitif sebesar 40,08%—mencapai kinerja yang hampir mencapai batas tertinggi—tetapi dengan kecepatan luar biasa 950 token/detik, menjadikannya hampir 14 kali lebih cepat.

Hal ini menempatkan model ini sebagai alat canggih bagi pengembang yang membutuhkan hasil berkualitas tinggi tanpa penundaan yang mengganggu alur kerja dibandingkan model papan atas lainnya.

Hasil benchmark menunjukkan SWE-1.5 mengungguli beberapa model penting lainnya. model dalam akurasi dan kecepatan. Model ini melampaui Haiku 4.5 dari Anthropic (skor 39,45% pada 142 tok/s) dan versi tingkat tinggi GPT-5 (skor 36,30% pada 43 tok/s).

Model baru ini juga mewakili lompatan generasi besar bagi Cognition, dengan skor lebih dari dua kali lipat pendahulunya, SWE-1, yang hanya berhasil 16,55% pada 39 tok/s. T

datanya memperkuat argumen utama Cognition: SWE-1.5 memberikan kinerja yang bersaing dengan yang terbaik di pasar, sekaligus menetapkan standar kecepatan yang benar-benar baru.

Yang mendasari model baru ini adalah investasi besar-besaran pada infrastruktur mutakhir. Cognition mengungkapkan bahwa SWE-1.5 dilatih pada “kluster canggih yang terdiri dari ribuan chip GB200 NVL72″, dan mengklaim bahwa ini mungkin merupakan “model produksi publik pertama yang dilatih pada generasi GB200 baru.”

Mengakses perangkat keras pada awal Juni, ketika firmware-nya masih belum matang, mengharuskan tim untuk membangun sistem pelatihan pemeriksaan kesehatan dan toleransi kesalahan yang lebih kuat dari awal.

Perangkat keras yang kuat ini sangat penting untuk teknik pembelajaran penguatan intensif (RL) yang digunakan untuk menyempurnakan model secara khusus untuk tugas-tugas kompleks dan multi-langkah yang terlibat dalam rekayasa perangkat lunak modern.

Dampak Penguatan

Peluncuran SWE-1.5 hadir saat lingkungan pengkodean AI Cursor merilis model kecepatan tinggi miliknya sendiri, Composer.

Persamaan antara kedua pengumuman tersebut tidak mungkin diabaikan dan menunjukkan konvergensi strategis yang jelas dalam alat pengembang AI pasar.

Kedua perusahaan menerapkan pembelajaran penguatan dalam skala besar. Cognition menggunakan hypervisor VM yang disebut otterlink untuk menjalankan peluncuran RL di puluhan ribu lingkungan dengan fidelitas tinggi dan bersamaan yang mencakup eksekusi kode dan penjelajahan web.

Metode ini sangat mirip dengan deskripsi Cursor dalam menjalankan “ratusan ribu lingkungan pengkodean sandbox secara bersamaan”untuk pelatihan RL mereka sendiri.

Pendekatan bersama ini menyoroti keyakinan yang berkembang bahwa untuk membangun agen pengkodean yang benar-benar efektif, perusahaan harus menyempurnakan model mereka sendiri. alat khusus dan skenario dunia nyata.

Seorang peneliti Cursor ML menyusun strategi ini, dengan menyatakan, “saat ini hanya ada sedikit kecerdasan yang diperlukan untuk menjadi produktif, dan jika Anda dapat memadukannya dengan kecepatan, maka itu luar biasa.”

Kesamaan lainnya adalah kurangnya transparansi. Baik Cognition maupun Cursor bersikap merahasiakan dasar-dasar model baru mereka, dan hanya merujuk pada “model dasar sumber terbuka yang terkemuka.”

Kerahasiaan ini membuat penilaian independen menjadi sulit dan membuat pengguna mempercayai tolok ukur internal perusahaan. Namun kesan awalnya positif. Pakar AI dan blogger Simon Willison berkomentar setelah menguji model baru ini,”Model ini terasa sangat cepat. Bermitra dengan Cerebras untuk inferensi adalah langkah yang sangat cerdas.”

Dari Windsurf’s Ashes, sebuah Strategi Baru

Memanfaatkan aset darinya akuisisi besar Windsurf, Cognition membangun merek dan produk yang sudah mapan.

Model baru ini merupakan evolusi dari keluarga SWE (Rekayasa Perangkat Lunak), sebuah proyek yang diprakarsai oleh tim Windsurf asli pada bulan Mei 2025, sebelum rencana akuisisi oleh OpenAI gagal dan Cognition turun tangan sebagai penyelamat.

Dengan mengintegrasikan SWE-1.5 langsung ke dalam Windsurf IDE, Cognition melaksanakan visi merancang bersama model, pemanfaatan agen, dan pengalaman pengguna sebagai satu sistem terpadu. Perusahaan berpendapat bahwa pendekatan holistik ini sangat penting untuk kinerja.

Dalam pengumumannya, Cognition menjelaskan,”Memilih agen coding bukan hanya tentang model itu sendiri. Orkestrasi di sekitarnya juga memiliki dampak besar pada kinerja model.”

Strategi ini memungkinkan perusahaan untuk melakukan iterasi dengan cepat, menggunakan umpan balik dari lingkungan Selancar Angin untuk menyesuaikan alat dan perintah, lalu melatih kembali model pada sistem yang diperbarui.

Ini adalah taruhan yang sangat ketat. pengalaman terintegrasi dan berkecepatan tinggi dapat membentuk basis pengguna setia, bahkan tanpa memiliki model terbesar di pasar. Seiring dengan semakin ketatnya persaingan untuk mendapatkan desktop developer, kemampuan untuk memberikan kecerdasan dan kecepatan dalam alur kerja yang lancar dapat menjadi pembeda utama.

Categories: IT Info