Google po përqafon një filozofi”më pak është më shumë”me lëshimin e saj të fundit të AI, duke nisur modelin e hapur hiper-efikas Gemma 3 270m. Me vetëm 270 milion parametra, ky model kompakt është krijuar për zhvilluesit për të krijuar aplikacione të specializuara, të rregulluara mirë që mund të funksionojnë direkt në pajisje si telefonat inteligjentë ose edhe brenda një shfletuesi në internet. Në vend që të mbështeteni në sisteme masive të bazuara në re, GEMMA 3 270M përqendrohet në efikasitetin ekstrem të energjisë për detyra të përcaktuara mirë, duke e bërë AI të përparuar më të arritshme për llogaritjen në Device dhe Edge. Target=”_ bosh”> Zgjerimi”Gemmaverse”i modeleve të hapura . Pason debutimin fillestar të serisë Gemma 3 në Mars, lëshimin e versioneve QAT për GPU të konsumatorit në prill, dhe fillimin e Mobile-First Gemma 3N në qershor. src=”të dhëna: imazh/svg+xml; nitro-impty-id=mty0nzoxmdu3-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3mj AiiHdpZHropsixmjgwiibozwlnahq9iJCymcigEg1Sbnm9imH0dha6ly93d3cudzmUB3JnlziWmdavc3znij48l3n2zz4=”>

Kjo strategji përputhet me një zhvendosje më të gjerë të industrisë drejt modeleve të gjuhëve të vogla (SLM). Kompanitë si Microsoft me serinë e saj PHI, Mistral AI me modelin e saj të vogël 3, dhe duke përqafuar fytyrën me modelet e tij Smolvlm janë të gjithë duke investuar shumë në AI efikase. Nënvizon një prirje në rritje të industrisë, ku modelet më të vogla, të specializuara po bëhen mjete thelbësore për vendosjen praktike, të botës reale. href=”https://developers.googleblog.com/en/introducing-gemma-3-270m”target=”_ bosh”> Google po pozicionon Gemma 3 270m Jo si një rival i modeleve masive, me qëllime të përgjithshme, por si një themel me cilësi të lartë për atë që e quan një”flotë të sistemeve të ligët, të ekspertëve”. Njoftimi zyrtar i kompanisë thërret një parim klasik të inxhinierisë: Ju nuk do të përdorni një sledgehammer për të varur një kornizë fotografish. Ky model Icaktimi i këtij mjeti të duhur për punën”Modelja e tij e mirë, me potencialin e tij të vërtetë të dizajnuar për tu zhbllokuar, i defefikuar, i defefuar, i defefikuar, i defefuar, i defefuar, i defefikuar, i defefuar, i dizajnuar, i defefuar, i defefikuar, i projektuar, i defefikuar, i def, Funksionet ku shpejtësia dhe efektiviteti i kostos janë parësore. Google identifikon raste të përdorimit ideal të tilla si analiza e ndjenjave, nxjerrja e entitetit, kursi i pyetjeve, shkrimi krijues, kontrollet e pajtueshmërisë dhe shndërrimi i tekstit të pa strukturuar në të dhëna të strukturuara. Qëllimi është që të fuqizohet zhvilluesit të ndërtojnë dhe vendosin modele të shumta me porosi, secila e trajnuar me përvojë për një detyrë të ndryshme, pa kostot ndaluese të lidhura me sisteme më të mëdha.

Fuqia e kësaj qasje të specializuar tashmë është demonstruar në botën reale. Google nxjerr në pah punën e ML adaptive me SK Telecom, ku një model Gemma i rregulluar mirë ishte i ngarkuar me moderim të përmbajtjes së nuancuar, shumëgjuhëshe. Rezultatet ishin të rrepta: modeli i specializuar jo vetëm që u takua, por tejkaloi sistemet e pronarit shumë më të madh në detyrën e tij specifike. Kjo histori suksesi shërben si një plan praktik për mënyrën sesi zhvilluesit mund të përdorin efikasitetin e Gemma 3 270m. Kjo strategji synon drejtpërdrejt nevojën në rritje për AI me kosto efektive që mund të vendoset në shkallë pa pësuar kosto masive të konkluzionit. Madhësia e vogël e modelit lejon përsëritje të shpejtë, duke bërë të mundur që eksperimentet e rregullimit të mirë të përfundojnë në orë, jo ditë. Për disa role shumë të specializuara, të tilla si NPC-të e lojës roleplaying ose bots të gazetave me porosi, aftësia e modelit për të”harruar”njohuri të përgjithshme përmes mbingarkesës bëhet një veçori, duke siguruar që ajo të qëndrojë e përqendruar në lazer në funksionin e tij të caktuar. një rezultat i tregtisë së qëllimshme arkitektonike. 270 milion parametrat e modelit janë shpërndarë në mënyrë jokonvencionale: 170 milion të konsiderueshëm i kushtohen shtresës së tij të ngulitjes, duke lënë vetëm 100 milion për blloqet thelbësore të transformatorit. Kjo zgjedhje e projektimit mundëson drejtpërdrejt veçorinë e modelit të modelit: një fjalor masiv 256,000 me thikë.

Ky fjalor i madh është çelësi i aftësisë së tij të specializimit. Ai lejon që modeli të trajtojë shenja të rralla, specifike dhe teknike me besnikëri të lartë, duke e bërë atë një themel jashtëzakonisht të fortë për rregullimin e mirë në fushat e ngrohta si ligji, mjekësia ose financat. Duke kuptuar zhargonin specifik të industrisë që në fillim, kërkon më pak të dhëna trajnimi për t’u bërë ekspert. Kjo plotësohet nga një dritare e respektuar e kontekstit të shenjës 32K, duke e lejuar atë të përpunojë kërkesa dhe dokumente të konsiderueshme. Kompania është e qartë se GEMMA 3 270M nuk është e dizajnuar për raste të përdorimit të bisedës komplekse, të hapura si një chatbot. Përkundrazi, versioni i rregulluar me udhëzime është i krijuar për të ndjekur nxitje dhe komanda të strukturuara në mënyrë efektive jashtë kutisë, duke siguruar një bazë të besueshme për personalizim të mëtejshëm. Në testin Ifeval, i cili mat aftësinë e një modeli për të ndjekur udhëzime të verifikueshme, Gemma 3 270m arrin një rezultat prej 51.2 përqind. Kjo rezultat është më e lartë se modelet e tjera të lehta që kanë më shumë parametra, duke treguar se grushton shumë mbi peshën e saj. Ndërsa parashikohet që të mos bjerë në modele miliardë parametri, performanca e tij është jashtëzakonisht konkurruese për madhësinë e tij fraksionale. Testet e brendshme në një Pixel 9 Pro treguan një model të kualifikuar INT4 të përdorur vetëm 0.75% të baterisë së pajisjes për 25 biseda, duke e bërë atë modelin më të efektshëm të GEMMA të Google deri më sot. Ai gjithashtu siguron privatësinë e përdoruesit, pasi informacioni i ndjeshëm mund të përpunohet në vend pa u dërguar kurrë në cloud. Kjo lejon zhvilluesit të ekzekutojnë modelet me saktësi int4 me degradim minimal të performancës, një veçori thelbësore për vendosjen e pajisjeve të kufizuara të burimeve.

Për zhvilluesit, Gemma 3 270m është në dispozicion tani përmes platformave të njohura si përqafimi i fytyrës , Ollama, dhe Kaggle, me integrim në Google Vertex AI. Kjo qasje e gjerë, e vlerësuar nga zhvilluesit si Simon Willison i cili e quajti një lëshim të mëparshëm Gemma”Dita më gjithëpërfshirëse e ditës që kam parë për çdo model”, është thelbësore për të nxitur një ekosistem të gjallë rreth këtyre mjeteve më të vogla, më praktike të AI.

Categories: IT Info