tl; Dr
The GIST: Mistral AI telah melancarkan Devstral 2 dan Vibe CLI untuk membawa keupayaan”pengekodan getaran”autonomi kepada model terbuka. Spesifikasi Utama: Model 123B mendakwa 7x kecekapan kos yang lebih baik daripada Claude Sonnet, manakala versi 24B yang lebih kecil berjalan secara tempatan pada perkakasan pengguna. Kenapa pentingnya: ini mencabar ekosistem proprietari seperti replit dengan menawarkan perusahaan privasi yang sedar alternatif yang kuat dan host untuk pembangunan perisian agentik. Konteks: Kaunter pelepasan yang baru-baru ini bergerak oleh Openai dan Google, kedudukan Mistral sebagai saingan terbuka utama utama kepada gergasi AS.
Mencabar dominasi pembantu pengekodan proprietari, Mistral AI melancarkan Devstral 2 pada hari Selasa. Model parameter 123 bilion yang baru mensasarkan pasaran”pengekodan getaran”yang melonjak, yang menawarkan keupayaan kejuruteraan perisian autonomi yang menyaingi sistem tertutup semasa mengurangkan kos mereka dengan hampir 85%.
Target=”_ Blank”> Mistral Vibe , antara muka baris arahan (CLI) yang direka untuk membolehkan pemaju melaksanakan tugas refactoring kompleks melalui bahasa semulajadi. Suite ini dibundarkan oleh Devstral Small 2, varian parameter 24 bilion yang dioptimumkan untuk penggunaan tempatan pada perkakasan pengguna.

promo
keseluruhan ciri-ciri dan bukannya menulis sintaks manual.
Walaupun alat seperti kursor dan replit telah mempopularkan aliran kerja ini dalam penyemak imbas, Mistral menolaknya terus ke terminal. Berfungsi sebagai pembantu baris perintah sumber terbuka, alat ini memanfaatkan model devstral untuk menterjemahkan bahasa semulajadi yang diminta ke dalam tindakan konkrit.
Daripada hanya menghasilkan coretan, sistem ini direka untuk meneroka, mengubahsuai, dan melaksanakan perubahan merentasi keseluruhan kod.
Ia beroperasi sama ada sebagai utiliti terminal mandiri atau dalam IDE melalui protokol komunikasi ejen. Antara muka menyediakan suite alat aktif, membolehkan ejen memanipulasi fail, mencari melalui kod, mengurus kawalan versi, dan melaksanakan arahan shell secara autonomi. Mengemas kini kebergantungan di seluruh projek, tanpa kehilangan jejak logik sistem yang lebih luas. kedalaman.
Versi DevStral 2 perdana menggunakan struktur pengubah padat parameter 123 bilion yang dipasangkan dengan tetingkap konteks 256,000 yang ditarik. Ia menyampaikan skor 72.2% pada penanda aras yang disahkan SWE-Bench, hasilnya mengutip sebagai bukti kedudukannya sebagai model berat terbuka yang tetap beroperasi secara efisien.
Menjaringkan 68.0% pada penanda aras yang sama, ia dilaporkan bersaing dengan model lima kali saiznya.
secara kritis, prestasi ini disampaikan dalam rangka kerja yang cukup cekap untuk dijalankan secara tempatan pada perkakasan pengguna standard, melangkaui keperluan untuk infrastruktur pusat data yang berdedikasi.
href=”https://recodchinaai.substack.com/p/deepseek-v32-make-scaling-laws-keep”target=”_ blank”> Deepseek v3.2 Nisbah kos-ke-prestasi.
Harga untuk API baru ditetapkan pada token input $ 0.40 per juta dan token output $ 2.00 per juta. Struktur ini memaksakan Anthropic’s Claude Opus 4.5 dengan ketara, yang menawarkan kelebihan kecekapan kos 7x yang dituntut berbanding baseline sonnet Claude 3.5.
Keperluan perkakasannya mencerminkan fokus perusahaan model. Menjalankan model parameter 123B penuh memerlukan sekurang-kurangnya empat GPU H100, meletakkannya dengan tegas di peringkat pusat. Walaupun terdapat keperluan infrastruktur yang berat, pengangkut awal melaporkan metrik melalui metrik yang kuat. Devstral Small 2, varian parameter 24 bilion, direka dengan jelas untuk dijalankan pada perkakasan gred pengguna.
Mencapai skor SWE-bench sebanyak 68.0%, menumbuk model yang lebih kecil di atas kelas beratnya, menyampaikan prestasi yang setanding dengan model generasi sebelumnya yang lebih besar. Walau bagaimanapun, pembezaan utamanya adalah pelesenan.
manakala kapal Devstral 2 yang lebih besar di bawah lesen MIT yang diubahsuai (mungkin menyiratkan sekatan berasaskan pendapatan) DevStral Small 2 menggunakan lesen permisif Apache 2.0. Perbezaan ini membolehkan pemaju mengubahsuai dan mengintegrasikan model tanpa bebanan undang-undang yang sering dikaitkan dengan berat proprietari. Perlumbaan Red’Arms
Tiba dalam tempoh aktiviti sengit dalam sektor pengekodan AI, pelancaran tanah di tengah-tengah pelepasan AI baru-baru ini. Perkongsian Google Cloud dengan replit mencontohkan strategi sumber tertutup ini, menggabungkan IDE, pengiraan awan, dan model ke dalam satu timbunan proprietari. Begitu juga, Gemini 3 Pro dan IDE Antigraviti Baru bertujuan untuk memastikan pengguna dalam ekosistem Google.
Pemilikan infrastruktur juga menjadi medan pertempuran utama. Berikutan pengambilalihan BUN, Anthropic sedang membina runtime yang berdedikasi untuk mengoptimumkan pelaksanaan ejennya, seterusnya meningkatkan halangan untuk masuk untuk penyedia model yang berdiri sendiri. Saingan.