A

A Microsoft új mesterséges intelligencia modelleket vezetett be a PHI zászló alatt, fokozva a koncentrált rendszerekre való összpontosítást, amely képes összetett problémamegoldásra. A cég Phi-4-adagolás és a PHI-4-READing-Plus>, mindkettő, amely mindkét milliárd paramétert tartalmaz, mindkettő, amely mindkét milliárd paraméterrel rendelkezik milliárd paraméterek. Most már elérhetők a Microsoft azure ai goundy és a Face platform átölelése Permissív licencek alatt. A Microsoft műszaki dokumentáció azt állítja, hogy a PHI-4-indoklás plusz, a megerősítő tanulás révén, a 671b-rel fokozottan teljesíti a 671b-t (a 671b-rel), egy bizonyos matematikával). Mint az AIME 2025 teszt. src=”adatok: image/svg+xml; nitro-üres-id=mty1nzoxode2-1; base64, phn2zyb2awv3qm94psiwidagmtaynca0nd giihdpzhropsixmdi0iibozwlnahq9ijq0OCigEg1sbnm9Imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2z4=”>”>”>”>”>”>”>”>”>”>”>”>”>”>

Mindkét 14B modell állítólag A legtöbb Anthropic Claude 3.7 szonett és a Google Gemini 2 Flash-gondolkodású. Benchmarks, bár kivételt vettek fel a GPQA tudományos kérdések és a BA-kalendar tervezési feladatok esetében. A műszaki jelentés kiemeli az általános referenciaértékeknél a PHI-4 alapjául szolgáló jelentős nyereségeket is, a PHI-4-indokolás-plusz pedig 22 pontos javulást mutat az IFEVAL-on (az alábbiak szerinti oktatás) és a 10 pontos nyereséget az Arenahardon (Humán preferencia-értékelés). A DeepSeek-R1-Distill-LLAMA-70B 30% és 70% között lehet az 50 futás során, így az egyfutás-összehasonlítások potenciálisan megbízhatatlanok. href=”https://huggingface.co/microsoft/phi-4-mini-reason”cél”cél=”_ üres”> 128 000-token kontextushossz 200k+ szókincs méretével. A Microsoft kijelentette, hogy ezek a modellek „egyenleg mérete és teljesítménye”, lehetővé téve az „még erőforrás-korlátozott eszközök is, hogy komplex érvelési feladatokkal hatékonyan elvégezzék.”

Az edzési folyamaton belül és a modell specifikációi

Ennek a teljesítménynek a elérése magában foglalja a konkrét edzési stratégiákat. A PHI-4-indokolás az eredeti PHI-4 alapmodell felügyelt finomhangolása (SFT), több mint 1,4 millió példát használva az Openai O3-Mini által generált érvelési lépésekkel. Szabályzat optimalizálása (GRPO)-Olyan algoritmus, amelynek célja a modell kimeneteinek javítása a különböző generált válaszok közötti relatív preferenciák alapján-a kimenet finomításához. A PHI-4-Mini-indokolási modellt 2024 februárjában külön-külön kiképezték a Covering) Tartomány.

A részletes érvelési láncok befogadására a 14B modellek kontextuskapacitásuk megduplázódott az eredeti PHI-4 16K-ról 32K tokenekről. A Microsoft azt is javasolja, hogy az optimális eredményekhez specifikus következtetési beállításokat (például 0,8 hőmérséklet) a phi-4-deason-plus modell . A Microsoft PHI-projektének folytatása, amely 2024 decemberében kezdte meg a figyelmet az eredeti 14B PHI-4 paraméterrel. Ezt a kezdeti PHI 4 modellt megfigyelték az erős matematikai teljesítményre, és 91,8-as pontszámot értek el az AMC 12 teszteknél, olyan versenytársak előtt, mint a Gemini Pro 1.5 (89,8). A Microsoft 2025 januárjában a teljesen nyílt forráskódú PHI-4-et követte, és a MIT-licenc alatt elengedte a súlyát az arc átölelésén. További. A család 2025 februárjában további terjeszkedést tapasztalt egy másik szöveges alapú mini modell és a PHI-4-Multimodal változat hozzáadásával. A jelenlegi érvelési modellek közvetlenül a korábban használt SFT és szintetikus adat technikákra épülnek. Az SLM-ek az ipar érdeklődését nyerik a lehetséges előnyök miatt, mint például a csökkentett képzési költségek és könnyebb domain-specifikus finomhangolás. Ez a megközelítés a hatékonyságot és az akadálymentességet célozza meg, potenciálisan csökkentve a vállalkozások és a fejlesztők akadályát. A Microsoft integrálja a PHI modelleket ökoszisztémájába, például az NPU-khoz optimalizált PHI szilícium-dioxid-változatba a Copilot+ PC-kben. Mint az UNSLOTH , egy népszerű formátum a modellek helyben történő futtatásához a fogyasztói hardveren. A Microsoft hangsúlyozta, hogy a PHI-modelleket a felelősségvállalási alapelvek után fejlesztették ki.