A Google a „Kevesebb is több” filozófiát ölel fel a legújabb AI kiadásával, elindítva a Hyper-Hatható Gemma 3 270M nyitott modellt. Mindössze 270 millió paraméterrel ezt a kompakt modellt úgy tervezték, hogy a fejlesztők speciális, finoman hangolt alkalmazásokat hozzanak létre, amelyek közvetlenül olyan eszközökön futhatnak, mint az okostelefonok, vagy akár egy böngészőben. Ahelyett, hogy a hatalmas felhőalapú rendszerekre támaszkodna, a Gemma 3 270m a szélsőséges energiahatékonyságra összpontosít a jól definiált feladatokhoz, így az Advanced AI hozzáférhetőbb az eszközökhöz és az élszámításhoz. Target=”_ üres”> A nyitott modellek „gemmaiverse” bővítése . Ez követi a Gemma 3 sorozat márciusbani kezdeti debütálását, a QAT verziók kiadását a Consumer GPU-nak áprilisban, és a mobil első Gemma 3N elindítását júniusban. src=”adatok: image/svg+xml; nitro-üres-id=mty0nzoxmdu3-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3mJ Aiihdpzhropsixmjgwiibozwlnahq9ijcymcygeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2z4=”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>

Ez a stratégia az iparág szélesebb körű elmozdulásához igazodik a kis nyelvű modellek felé. Az olyan cégek, mint a Microsoft, a PHI sorozatával, a Mistral AI-vel a kicsi 3 modelljével, és az ölelés arca a Smolvlm modelljeivel mind erősen befektetnek a hatékony AI-be. Hangsúlyozza az egyre növekvő iparági tendenciát, ahol a kisebb, speciális modellek alapvető eszközei lesznek a gyakorlati, a valós telepítéshez. href=”https://developers.googleblog.com/en/introducing-gemma-3-270m”Target=”_ blank”> A Google a Gemma 3 270m-et pozicionálja, nem pedig a hatalmas, általános célú modellek, hanem kiváló minőségű alapként, hogy „a Lean szakértői rendszerekről” hívja. A társaság hivatalos bejelentése egy klasszikus mérnöki alapelvet hív fel: nem használná a kalapácsot a képkeret felfüggesztésére. Ez a modell ezt a „megfelelő eszközt a munkahez” filozófia megtestesíti. Ahol a sebesség és a költséghatékonyság kiemelkedően fontos. A Google azonosítja az ideális felhasználási eseteket, mint például az érzelmi elemzés, az entitás kinyerése, a lekérdezés útválasztása, a kreatív írás, a megfelelési ellenőrzések és a strukturált szöveg konvertálása strukturált adatokká. A cél az, hogy felhatalmazza a fejlesztőket több egyedi modell felépítésére és telepítésére, amelyek mindegyike szakszerűen képzett egy másik feladathoz, a nagyobb rendszerekhez kapcsolódó tiltó költségek nélkül. A Google kiemeli az adaptív ML munkáját az SK Telecom segítségével, ahol egy finoman hangolt Gemma modellt az árnyalt, többnyelvű tartalom moderálása volt. Az eredmények élesek voltak: a speciális modell nemcsak teljesített, hanem sokkal nagyobb védett rendszereket is felülmúlott annak konkrét feladatán. Ez a sikertörténet gyakorlati tervként szolgál annak érdekében, hogy a fejlesztők hogyan tudják kihasználni a Gemma 3 270M hatékonyságát. Ez a stratégia közvetlenül megcélozza a növekvő költséghatékony AI igényt, amelyet méretben lehet alkalmazni anélkül, hogy hatalmas következtetési költségeket jelentene. A modell kis mérete lehetővé teszi a gyors iterációt, lehetővé téve a finomhangoló kísérletek befejezését órákban, nem pedig napokban. Bizonyos rendkívül speciális szerepek, például a szerepjáték-NPC-k vagy az egyedi naplózási robotok esetében a modell képessége, hogy az általános tudást a túlteljesítés révén „elfelejtse”, biztosítva, hogy lézer-központú maradjon a kijelölt funkcióján. Punch, a szándékos építészeti kompromisszumok eredménye. A modell 270 millió paraméterét nem szokatlanul eloszlatják: jelentős 170 millió szentelt a beágyazási rétegnek, és mindössze 100 millió marad a Core Transformer blokkok számára. Ez a kialakítás választása közvetlenül lehetővé teszi a modell kiemelkedő funkcióját: egy hatalmas 256 000-es szókincs.

Ez a nagy szókincs a specializációs bátorság kulcsa. Ez lehetővé teszi a modell számára, hogy a nagy hűségű ritka, specifikus és technikai zsetonokat kezelje, ezáltal kivételesen erős alapot biztosítva a rési területeken, például a törvény, az orvostudomány vagy a pénzügyek, például a résekben való finomhangoláshoz. Az iparág-specifikus zsargon elején történő megértésével kevesebb képzési adatot igényel, hogy szakértővé váljon. Ezt egy tiszteletre méltó 32K token kontextus ablak egészíti ki, lehetővé téve a lényeges utasítások és dokumentumok feldolgozását. A társaság egyértelmű, hogy a Gemma 3 270m-et nem olyan összetett, nyílt végű beszélgetési használati esetekhez tervezték, mint egy chatbot. Ehelyett az utasítás által hangolt verziót úgy tervezték, hogy a strukturált utasításokat és a parancsokat hatékonyan kövesse a dobozból, megbízható alapot biztosítva a további testreszabáshoz. Az ifeVal tesztnél, amely méri a modell azon képességét, hogy ellenőrizze az ellenőrizhető utasításokat, a Gemma 3 270M 51,2 százalékot ér el. Ez a pontszám magasabb, mint más könnyű modellek, amelyek több paraméterrel rendelkeznek, és azt mutatják, hogy jóval meghaladja a súlyát. Noha kiszámíthatóan elmarad a milliárd paraméteres modellektől, teljesítménye rendkívül versenyképes a frakcionált méretéhez. A Pixel 9 Pro belső tesztjei egy Int4-kvantizált modellt mutattak, és az eszköz akkumulátorának mindössze 0,75%-át használták a 25 beszélgetéshez, így a Google eddig a leghatékonyabb gemma-modellt. Biztosítja a felhasználói adatvédelmet is, mivel az érzékeny információk helyben feldolgozhatók anélkül, hogy a felhőbe küldenék. Ez lehetővé teszi a fejlesztők számára, hogy a modelleket INT4 pontossággal futtassák, minimális teljesítmény-lebomlással, amely döntő jellemző az erőforrás-korlátozott hardverek telepítéséhez. href=”https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268BB6d”Target=”_ üres”> A népszerű platformokon keresztül elérhető, mint például az arca. Ez a széles hozzáférhetőség, amelyet Simon Willison olyan fejlesztők, mint például Simon Willison dicsérték, aki egy korábbi Gemma kiadást „a legátfogóbb napi indítás, amelyet bármely modellnél láttam”, kulcsfontosságú az élénk ökoszisztéma elősegítéséhez ezeknek a kisebb, gyakorlati AI eszközöknek.