Google memeluk falsafah”kurang lebih”dengan pelepasan AI terkini, melancarkan model terbuka Gemma 3 270m yang cekap. Dengan hanya 270 juta parameter, model padat ini direka bentuk untuk pemaju untuk membuat aplikasi khusus yang boleh dijalankan secara langsung pada peranti seperti telefon pintar atau bahkan dalam pelayar web.

Daripada bergantung kepada sistem berasaskan awan besar-besaran, Gemma 3 270m memberi tumpuan kepada kecekapan kuasa yang melampau untuk tugas-tugas yang jelas, menjadikan AI lebih maju untuk pengkomputeran pada peranti dan kelebihan.

sasaran=”_ kosong”> Memperluas”Gemmaverse”model terbuka . Ia mengikuti debut awal siri Gemma 3 pada bulan Mac, pelepasan versi QAT untuk GPU pengguna pada bulan April, dan pelancaran Gemma 3n pertama mudah alih pada bulan Jun.

Strategi ini sejajar dengan peralihan industri yang lebih luas ke arah model bahasa kecil (SLMS). Syarikat-syarikat seperti Microsoft dengan siri PHI, Mistral AI dengan model 3 kecilnya, dan memeluk wajah dengan model SMOLVLM semuanya melabur banyak dalam AI yang cekap. Ia menggariskan trend industri yang semakin meningkat di mana model yang lebih kecil, khusus menjadi alat penting untuk penempatan praktikal, dunia nyata. href=”https://developers.googleblog.com/en/introducing-mama-3-270m”target=”_ blank”> Google meletakkan Gemma 3 270m Pengumuman rasmi syarikat itu memanggil prinsip kejuruteraan klasik: Anda tidak akan menggunakan sledgehammer untuk menggantung bingkai gambar. Model ini merangkumi”alat yang tepat untuk pekerjaan”Fungsi yang jelas di mana kelajuan dan keberkesanan kos adalah yang paling utama. Google mengenal pasti kes-kes penggunaan yang ideal seperti analisis sentimen, pengekstrakan entiti, penghalaan pertanyaan, penulisan kreatif, pemeriksaan pematuhan, dan menukar teks yang tidak berstruktur kepada data berstruktur. Matlamatnya adalah untuk memberi kuasa kepada pemaju untuk membina dan menggunakan pelbagai model tersuai, setiap yang dilatih secara pakar untuk tugas yang berbeza, tanpa kos larangan yang berkaitan dengan sistem yang lebih besar.

Kuasa pendekatan khusus ini telah ditunjukkan di dunia nyata. Google menyoroti karya ML penyesuaian dengan SK Telecom, di mana model Gemma yang disempurnakan ditugaskan dengan kesederhanaan kandungan yang bernuansa, berbilang bahasa. Hasilnya adalah Stark: Model khusus bukan sahaja dipenuhi tetapi mengatasi sistem proprietari yang lebih besar pada tugas khususnya. Kisah kejayaan ini berfungsi sebagai pelan tindakan praktikal untuk bagaimana pemaju dapat memanfaatkan kecekapan Gemma 3 270m.

Strategi ini secara langsung mensasarkan keperluan yang semakin meningkat untuk AI yang berkesan kos yang boleh digunakan secara berskala tanpa menanggung kos kesimpulan besar-besaran. Saiz kecil model membolehkan lelaran pesat, membolehkan eksperimen penalaan halus diselesaikan dalam beberapa jam, bukan hari. Untuk peranan tertentu yang sangat khusus, seperti permainan NPC atau bot jurnal adat, keupayaan model untuk”melupakan”pengetahuan umum melalui overfitting menjadi ciri, memastikan ia tetap fokus pada fungsi laser pada fungsi yang ditetapkan. Punch, hasil daripada perdagangan seni bina yang disengajakan. Parameter 270 juta model ini tidak diedarkan secara tidak konvensional: 170 juta yang besar didedikasikan untuk lapisan penyembuhannya, meninggalkan hanya 100 juta untuk blok pengubah teras. Pilihan reka bentuk ini secara langsung membolehkan ciri-ciri yang menonjol model: perbendaharaan kata 256,000 yang besar.

Perbendaharaan kata yang besar ini adalah kunci kepada kehebatan pengkhususannya. Ia membolehkan model mengendalikan token yang jarang, spesifik, dan teknikal dengan kesetiaan yang tinggi, menjadikannya asas yang sangat kuat untuk penalaan halus dalam domain khusus seperti undang-undang, perubatan, atau kewangan. Dengan memahami jargon khusus industri dari awal, ia memerlukan kurang data latihan untuk menjadi pakar. Ini dilengkapi dengan tetingkap konteks Token 32K yang dihormati, yang membolehkannya memproses arahan dan dokumen yang besar.

Untuk memastikan kebolehgunaan segera, Google melepaskan kedua-dua pemeriksaan pra-terlatih dan arahan. Syarikat itu jelas bahawa Gemma 3 270m tidak direka untuk kes-kes penggunaan perbualan yang kompleks dan terbuka seperti chatbot. Sebaliknya, versi Arahan yang disalurkan direkayasa untuk mengikuti arahan berstruktur dan perintah secara berkesan keluar dari kotak, menyediakan asas yang boleh dipercayai untuk penyesuaian selanjutnya.

Reka bentuk yang mantap ini disahkan oleh prestasinya pada penanda aras industri. Mengenai ujian IFEVAL, yang mengukur keupayaan model untuk mengikuti arahan yang dapat disahkan, Gemma 3 270m mencapai skor 51.2 peratus. Skor ini lebih tinggi daripada model ringan lain yang mempunyai lebih banyak parameter, menunjukkan ia pukulan jauh melebihi berat badannya. Walaupun ia dijangka jatuh kekurangan model parameter bilion, prestasinya sangat kompetitif untuk saiz pecahannya. Ujian dalaman pada Pixel 9 Pro menunjukkan model INT4 yang digunakan hanya 0.75% daripada bateri peranti untuk 25 perbualan, menjadikannya model GEMMA yang paling cekap kuasa Google sehingga kini. Ia juga memastikan privasi pengguna, kerana maklumat sensitif boleh diproses secara tempatan tanpa dihantar ke awan.

Untuk memudahkan ini, Google menyediakan pemeriksaan terlatih kuantisasi (QAT). Ini membolehkan pemaju menjalankan model pada ketepatan INT4 dengan degradasi prestasi yang minimum, ciri penting untuk menggunakan perkakasan yang terkawal sumber.

untuk pemaju, Gemma 3 270m adalah