Ang Google ay yumakap sa isang”mas mababa ay higit pa”na pilosopiya kasama ang pinakabagong paglabas ng AI, na inilulunsad ang Hyper-Efficient Gemma 3 270m Open Model. Sa pamamagitan lamang ng 270 milyong mga parameter, ang modelong compact na ito ay inhinyero para sa mga developer na lumikha ng dalubhasang, maayos na mga application na maaaring tumakbo nang direkta sa mga aparato tulad ng mga smartphone o kahit na sa loob ng isang web browser. Sa halip na umasa sa napakalaking mga sistema na batay sa ulap, ang Gemma 3 270m ay nakatuon sa matinding kahusayan ng kapangyarihan para sa mahusay na tinukoy na mga gawain, na ginagawang mas ma-access ang advanced na AI para sa on-device at gilid ng computing. target=”_ blangko”> pagpapalawak ng”gemmaverse”ng mga bukas na modelo . Sinusundan nito ang paunang debut ng serye ng Gemma 3 noong Marso, ang paglabas ng mga bersyon ng QAT para sa mga GPU ng consumer noong Abril, at ang paglulunsad ng mobile-first gemma 3n noong Hunyo. src=”data: imahe/svg+xml; nitro-empty-id=mty0nzoxmdu3-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3mj Aiihdpzhropsixmjgwiibozwlnahq9ijCyMcigeg1Sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>

Ang diskarte na ito ay nakahanay sa isang mas malawak na paglipat ng industriya patungo sa mga maliliit na modelo ng wika (SLMS). Ang mga kumpanya tulad ng Microsoft kasama ang serye ng PHI nito, ang Mistral AI kasama ang maliit na 3 modelo, at yakap sa mukha kasama ang mga modelo ng Smolvlm ay lahat ay namuhunan nang labis sa mahusay na AI. Binibigyang diin nito ang isang lumalagong takbo ng industriya kung saan ang mas maliit, dalubhasang mga modelo ay nagiging mahahalagang tool para sa praktikal, tunay na pag-deploy ng mundo. href=”https://developers.googleblog.com/en/introducing-gemma-3-270m”target=”_ blangko”> Ang pagpoposisyon ng Google ay gemma 3 270m Hindi bilang isang karibal sa napakalaking, pangkalahatang-layunin na mga modelo, ngunit bilang isang mataas na kalidad na pundasyon para sa tinatawag na isang”fleet ng sandalan, dalubhasang mga sistema.”Ang opisyal na anunsyo ng kumpanya ay humihikayat ng isang klasikong prinsipyo ng engineering: Hindi ka gumagamit ng isang sledgehammer upang mag-hang ng isang frame ng larawan. Ang modelong ito embodies na ito na”tamang tool para sa trabaho”na pilosopiya Ang mga pag-andar kung saan ang bilis at pagiging epektibo ay pinakamahalaga. Kinikilala ng Google ang mga perpektong kaso ng paggamit tulad ng pagsusuri ng sentimento, pagkuha ng entidad, pag-ruta ng query, pagsulat ng malikhaing, mga tseke sa pagsunod, at pag-convert ng hindi nakaayos na teksto sa nakabalangkas na data. Ang layunin ay upang bigyan ng kapangyarihan ang mga developer na bumuo at mag-deploy ng maraming mga pasadyang mga modelo, ang bawat dalubhasang sinanay para sa ibang gawain, nang walang mga ipinagbabawal na gastos na nauugnay sa mas malaking mga sistema. Itinampok ng Google ang gawain ng adaptive ML kasama ang SK Telecom, kung saan ang isang maayos na naka-tono na modelo ng Gemma ay naatasan sa Nuanced, multilingual content moderation. Ang mga resulta ay stark: ang dalubhasang modelo ay hindi lamang nakamit ngunit naipalabas ang mas malaking mga sistema ng pagmamay-ari sa tiyak na gawain nito. Ang kwentong tagumpay na ito ay nagsisilbing isang praktikal na plano para sa kung paano maaaring magamit ng mga developer ang kahusayan ng Gemma 3 270m. Ang diskarte na ito ay direktang nagta-target sa lumalagong pangangailangan para sa gastos na AI na maaaring ma-deploy sa sukat nang hindi nagkakaroon ng napakalaking gastos sa pag-iintindi. Ang maliit na sukat ng modelo ay nagbibigay-daan para sa mabilis na pag-ulit, pagpapagana ng mga eksperimento sa pag-aayos ng mga oras na makumpleto sa oras, hindi araw. Para sa ilang mga lubos na dalubhasang mga tungkulin, tulad ng roleplaying game NPCS o pasadyang mga bot ng journal, ang kakayahan ng modelo na”kalimutan”ang pangkalahatang kaalaman sa pamamagitan ng overfitting ay nagiging isang tampok, tinitiyak na mananatili itong laser na nakatuon sa itinalagang pag-andar nito. Punch, isang resulta ng sinasadyang arkitektura ng trade-off. Ang 270 milyong mga parameter ng modelo ay hindi sinasadyang ipinamamahagi: isang malaking 170 milyon ang nakatuon sa pag-embed ng layer nito, na nag-iiwan lamang ng 100 milyon para sa mga pangunahing bloke ng transpormer. Ang pagpili ng disenyo na ito ay direktang nagbibigay-daan sa tampok na standout ng modelo: isang napakalaking 256,000-token na bokabularyo. Pinapayagan nito ang modelo na hawakan ang mga bihirang, tiyak, at teknikal na mga token na may mataas na katapatan, ginagawa itong isang napakalakas na pundasyon para sa pinong pag-tune sa mga niche domain tulad ng batas, gamot, o pananalapi. Sa pamamagitan ng pag-unawa sa jargon na tukoy sa industriya mula sa simula, nangangailangan ito ng mas kaunting data ng pagsasanay upang maging isang dalubhasa. Ito ay pinupunan ng isang kagalang-galang na window ng 32K token na konteksto, na pinapayagan itong iproseso ang malaking mga senyas at dokumento. Malinaw ang kumpanya na ang Gemma 3 270m ay hindi idinisenyo para sa kumplikado, bukas na natapos na mga kaso ng paggamit ng pag-uusap tulad ng isang chatbot. Sa halip, ang bersyon na naka-tono ng pagtuturo ay ininhinyero upang sundin ang mga nakabalangkas na mga senyas at mga utos na epektibo sa labas ng kahon, na nagbibigay ng isang maaasahang base para sa karagdagang pagpapasadya. Sa Ifeval Test, na sumusukat sa kakayahan ng isang modelo na sundin ang mga napatunayan na tagubilin, ang Gemma 3 270m ay nakakamit ng isang marka na 51.2 porsyento. Ang puntos na ito ay mas mataas kaysa sa iba pang mga magaan na modelo na may higit pang mga parameter, na ipinapakita ang mga suntok nito nang mas mataas kaysa sa timbang nito. Habang ito ay nahuhulaan na hindi maikakaila sa mga bilyong-parameter na mga modelo, ang pagganap nito ay kapansin-pansin na mapagkumpitensya para sa fractional na laki nito. Ang mga panloob na pagsubok sa isang Pixel 9 Pro ay nagpakita ng isang modelo na pinag-uusapan ng INT4 na ginamit lamang ng 0.75% ng baterya ng aparato para sa 25 na pag-uusap, na ginagawa itong pinaka-mahusay na kapangyarihan ng Google na gemma hanggang sa kasalukuyan. Tinitiyak din nito ang privacy ng gumagamit, dahil ang sensitibong impormasyon ay maaaring maproseso nang lokal nang hindi na ipinadala sa ulap. Pinapayagan nito ang mga developer na patakbuhin ang mga modelo sa katumpakan ng INT4 na may kaunting pagkasira ng pagganap, isang mahalagang tampok para sa pag-deploy sa hardware na pinipilit ng mapagkukunan. href=”https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d”target=”_ blangko”> Magagamit na ngayon sa pamamagitan ng mga sikat na platform tulad ng pagyakap sa mukha , ollama, at kartgle, kasama ang pagsasama sa vertex ai ng Google. Ang malawak na pag-access na ito, na pinuri ng mga nag-develop tulad ni Simon Willison na tumawag sa isang nakaraang paglabas ng Gemma na”Ang Pinaka-Comprehensive Day One Launch na nakita ko para sa anumang modelo,”ay susi sa pag-aalaga ng isang masiglang ekosistema sa paligid ng mas maliit, mas praktikal na mga tool ng AI.

Categories: IT Info