Meta ka lëshuar Llama 4 Scout dhe Llama 4 Maverick, dy modele të mëdha të gjuhës kufitare me peshë të hapur që prezantojnë ndryshime të mëdha arkitekturore ndërsa zgjerojnë praninë e kompanisë në aplikacionet e konsumatorëve dhe platformat e reve. Ngarkesa të punës. src=”të dhëna: imazh/svg+xml; nitro-empty-id=mtcwmzoxntk0-1; base64, phn2zyb2awv3qm94psiwidagmtaynca4nz QiiHdpZhropsixmdi0iibozwlnahq9ijg3ncig1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>

Ndërsa Scout është ndërtuar për t’u përshtatur në një GPU të vetme H100 përmes kuantizimit Int4, ai ende ofron një gjatësi konteksti 10 milion të klasës më të mirë në klasë, një kërcim dhjetëfish mbi modelet e mëparshme. Ajo përmban 17 miliardë parametra aktivë me 16 ekspertë dhe 109 miliardë parametra total. Të dy modelet përpunojnë imazhet dhe tekstin bashkërisht përmes shkrirjes së hershme-një metodë ku të dy llojet e shenjave janë ngulitur në të njëjtin model shtyllë kurrizore gjatë pararendjes. Ky argumentim vizual mundëson aftësi të tilla si lokalizimi i objektit dhe përafrimi i përmirësuar midis përmbajtjes së figurës dhe kërkesave të gjuhës. Sipas Meta,”Llama 4 Scout është më i miri në klasë në bazën e imazhit, në gjendje të përafrojë nxitjet e përdoruesve me konceptet vizuale përkatëse dhe përgjigjet e modelit të ankorimit ndaj rajoneve në imazh.”

Asistent multimodal dhe standardet e brendshme pasqyrojnë atë pretendim. Në detyrat e arsyetimit vizual, ajo arrin 90.0 në chartqa dhe 94.4 në Docvqa, duke tejkaluar të dy GPT-4O dhe Gemini 2.0 Flash. Ai gjithashtu regjistrohet 73.7 në Mathvista dhe 80.5 në MMLU Pro, duke treguar aftësi të forta të arsyetimit të përgjithshëm.

Në detyrat e programimit, Maverick shënon 43.4 në LiveCodeBench, duke e vendosur atë përpara GPT-4O dhe Gemini 2.0 Flash, dhe pak më poshtë Deepseek v3.1. Performanca e saj ndihmëse është përforcuar nga një vlerësim ELO i 1417 në LMarena. Për efikasitetin e kostos, meta vlerëson se konkluzioni kushton midis 0,19-0,49 $ për milion shenja nën një përzierje 3: 1 hyrje-dalje. Ajo shënon 88.8 në Chartqa, duke përputhur Maverick me 94.4 në DOCVQA, dhe arrin 74.3 në MMLU Pro. Këto rezultate nxjerrin në pah efektivitetin e tij në standardet vizuale dhe të arsyetimit, veçanërisht për vendosjet e lehta ose të vetme-GPU.

barazia e tij e lartë e rezultatit me modele më të mëdha në detyrat e imazhit sinjalizon optimizime të forta të dizajnit, veçanërisht për rastet e përdorimit që kërkojnë mirëkuptim të pasur me kontekst, por më pak infrastrukturë sipër. src=”të dhëna: image/svg+xml; nitro-empty-id=mtcxndoxodq3-1; base64, phn2zywv3qm94psiwidagmtaynca3mjuiih dpzhropsixmdi0iibozwlnahq9iJcynsigEg1Sbnm9imH0Dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”> Burimi: Meta

llama 4 Behemoth mbetet e paarritur, por shërbeu si model i mësuesit për kodifikimin e Maverick dhe Scout. Me 288 miliardë parametra aktivë dhe gati 2 trilion gjithsej, performanca e tij e vendos atë në nivelin e sipërm të LLM-ve aktuale. Meta raporton rezultate të standardeve prej 95.0 në Math-500, 82.2 në MMLU Pro, 73.7 në diamant GPQA, dhe 85.8 në MMLU shumëgjuhësh.

Këto rezultate tregojnë se behemoth tejkalon Claude Sonnet 3.7, Gemini 2.0 Pro, dhe GPT-4.5 në detyra të arsyetimit STEM dhe shumëgjuhësh, duke forcuar rolin e tij si themeli për modelet më të vogla Llama 4. src=”të dhëna: image/svg+xml; nitro-empty-id=mtcyntoxntgx-1; base64, phn2zyb2awv3qm94psiwidagmtaynca1ndiiih dpzhropsixmdi0iibozwlnahq9iju0miigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”> Burimi: Meta

Strategjia e trajnimit dhe arkitekturat e reja

llama 4 shënon përdorimin e parë të Meta të shtresave të MOE të kryqëzuara me shtresa të dendura në modelet e prodhimit. Vetëm një pjesë e vogël e parametrave aktivizohet për shenjën, duke përmirësuar efikasitetin pa ndikuar ndjeshëm në cilësinë. Tokdo shenjë Maverick drejtohet në një nga 128 ekspertët plus një ekspert të përbashkët, me të gjithë ekspertët e ngarkuar në memorje, por aktivizohet në mënyrë selektive gjatë konkluzionit.”Ne e quajmë këtë arkitekturën Irope, ku”Unë”qëndron për shtresa të vëmendjes”të ndërlidhura”, duke theksuar qëllimin afatgjatë të mbështetjes së gjatësisë së kontekstit të pafund”. Kompania përdori saktësinë FP8 për trajnime për të rritur xhiros, duke arritur 390 TFLOP për GPU gjatë paravendosjes së Behemoth në 32K GPU. METAP, një sistem për shkallëzimin dinamik të fillimit dhe nivelet e të mësuarit, u përdor për të përgjithësuar akordimin e hiperparametrit nëpër madhësi të ndryshme të modelit dhe konfigurimet e grupeve. Për fillimin, Meta partneritet me ofruesit e mëdhenj të cloud për të përshpejtuar adoptimin. AWS tashmë shtoi llama 4 scout dhe llama 4 maverick në amazon sagemaker jumpstart , me mbështetje për shtratin e pritshme së shpejti. Njëkohësisht, Microsoft mbështjellë mbështetjen përmes Siguroni zhvilluesve qasje të drejtpërdrejtë në API-të e paracaktuar për rregullimin dhe konkluzionin, duke zvogëluar gjithashtu vendosjen e kohës në mjediset e prodhimit. Për dallim nga modelet e mëparshme të llama, të cilat kryesisht ishin të destinuara për hulumtime jo-komerciale, modelet e reja lëshohen nën një licencë komerciale me porosi. Meta e përshkruan atë si fleksibël, megjithëse ndalon së paku statusin e plotë të burimit të hapur. llama roje , një klasifikues i hyrjes/daljes bazuar në një taksonomi të rrezikut nga mlcommons, është përfshirë në detekt të dëmtuar”. Garda e shpejtë, e trajnuar në një gamë të gjerë të llojeve të sulmit, është krijuar për të kapur përpjekjet e jailbreak dhe injeksione të shpejta. Cyberceval ndihmon zhvilluesit të testojnë modelet e AI kundër kërcënimeve të sigurisë në internet. Ky mjet simulon bisedat me shumë kthesa me aktorë kundërshtarë të aftë me mesataren, duke ndihmuar meta të rrisë mbulimin e testimit dhe të zbulojë dobësitë në mënyrë më efikase.

paragjykimi mbetet një shqetësim thelbësor. Në testet mbi tema të ngarkuara politikisht, normat e refuzimit në Llama 4 kanë rënë në nën 2%-lart nga 7% në LLAMA 3.3. Refuzimet e pabarabarta të përgjigjes në të gjithë ideologjitë tani bien nën 1%. Meta thotë se po punon drejt modeleve që mund të përfaqësojnë pikëpamje të ndryshme pa imponuar një qëndrim. Këto integrime ofrojnë një test të gjerë për të vlerësuar performancën në të egra, ndërsa njëkohësisht ekspozimi i modeleve në rrjedhë të gjerë të hyrjes së përdoruesve që mund të informojnë përmirësimet e ardhshme. Temat do të përfshijnë shkallëzimin e mëtutjeshëm të modelit Behemoth dhe prezantimin e LMAMA 4-V, një model plotësisht multimodal në gjuhën e vizionit të aftë për të trajtuar inputet vizuale statike dhe të përkohshme. Njoftimi nënvizon qëllimin e Meta për të ofruar sisteme që nuk janë thjesht kompetente gjuhësore, por edhe të afta për arsyetimin multimodal me besnikëri të lartë. Modelet Llama 4 nuk janë plotësisht me burim të hapur, por ato ofrojnë një shkallë të transparencës dhe fleksibilitetit që ulet midis sistemeve thjesht të mbyllura dhe modeleve të drejtuara nga komuniteti. Vendosja e tyre në miliarda pikat e fundit-nga API-të cloud deri tek aplikacionet e mesazheve-mund të formojnë pritjet e zhvilluesit rreth shkallës, performancës dhe përdorimit të përgjegjshëm në muajt në vazhdim.

Categories: IT Info