Microsoft heeft een trio van nieuwe kunstmatige intelligentiemodellen geïntroduceerd onder zijn PHI-banner, waardoor de focus op kleinere, efficiënte systemen in staat is om complexe probleemoplossing te oplossen. Het bedrijf bracht phi-4-railling en phi-4-rasing-plus , beiden bevattende 14 billion parameters, die van de compact phi-4-mini-rasering en phi-4-rasering en phi-4-rasering en phi-4-rasering en phi-4-rasering en phi-4-rasering en phi-4-rasering en phi-4-rasering en phi-4-rasering en phi-4-rasing en phi-4-razende en phi-razen, welke has. 3.8 miljard parameters.
De modellen, beschreven door Microsoft als systemen waarbij”redeneermodellen worden getraind om inferentie-tijdschaling te benutten om complexe taken uit te voeren die multi-step-ontleding en interne reflectie vereisen”, zijn bedoeld om hoge prestaties te bieden die vergelijkbaar is met veel grotere AI-systemen terwijl de efficiëntie wordt gehandhaafd. Ze zijn nu beschikbaar via Microsoft’s Azure Ai Foundry en de knuffelende gezichtsplatform Onder toelaatbare licenties.
het verleggen van redeneergrenzen met minder parameters
De centrale claim is dat deze kleinere modellen zich kunnen bezitten tegen zwaargewichten in de industrie. Microsoft’s Technische documentatie beweert dat phi-4-rasering-plus, verbeterd door middel van versterkingsmodel) op bepaalde wiskundige pameter-parameter) op bepaalde wiskundige pameter-parameteringen) op bepaalde kathematical evaluatie) zoals de AIME 2025-test.
Beide 14B-modellen naar verluidt outperform anthropic’s CLAUDE 3.7 Sonnet en Google’s Gemini 2 Flash-denken op de meeste flash-thinking Benchmarks, hoewel er uitzonderingen werden genoteerd voor GPQA-wetenschapsvragen en BA-Calendar-planningstaken. Het technische rapport benadrukt ook aanzienlijke winst ten opzichte van de basis PHI-4 op algemene benchmarks, met Phi-4-Rasing-Plus die een 22-punts verbetering toont ten opzichte van Ifeval (instructie volgende) en een winst van 10 punten op Arenahard (evaluatie van de menselijke voorkeur). Deepseek-r1-distill-llama-70b kan variëren van 30% tot 70% over 50 runs, waardoor vergelijkingen met één run mogelijk onbetrouwbaar zijn.
PHI-4-Mini-Reding, ondanks zijn 3,8B parametergrootte, wordt gerapporteerd om modellen zoals OpenHinker-7B op verschillende wiskundige benchmarks te ondersteunen en een extensief
Dit SFT-proces, met behulp van gegevens met een openbare cutoff van een openbare afkomst van het wiskundige leerling, voor de top van de top, voor de top van de top van de top. Beleidsoptimalisatie (GRPO)-Een algoritme dat is ontworpen om modeloutputs te verbeteren op basis van relatieve voorkeuren tussen verschillende gegenereerde responsen-om de output te verfijnen.
Dit resulteert in een hogere nauwkeurigheid in wiskunde, maar genereert ook reacties die gemiddeld 1,5 keer langer zijn dan phi-4-railing, een verschil in codering of planning. Het PHI-4-Mini-Rasing-model werd in februari 2024 afzonderlijk getraind op over een miljoen synthetische wiskunde (Gekroped van diepe r1 Bereik.
Om de gedetailleerde redeneerketens tegemoet te komen, hadden de 14B-modellen hun contextcapaciteit verdubbeld van de oorspronkelijke PHI-4’s 16K tot 32K-tokens. Microsoft also suggests specific inference settings (like temperature 0.8) for optimal results with the Phi-4-reasoning-plus model.
Evolution of the Phi Family and Strategic Context
The Lancering markeert een voortzetting van het PHI-project van Microsoft, dat in december 2024 de aandacht begon te krijgen met de originele 14b-parameter PHI-4. Microsoft followed up by fully open-sourcing Phi-4 in January 2025, releasing its weights on Hugging Face under an MIT license.
At that time, Microsoft engineer Shital Shah posted on X, “A lot of folks had been asking us for weight release… Few even uploaded bootlegged phi-4 weights on HuggingFace<0xf0><0x9f><0x98><0xac>. Well, Wacht niet meer. De familie zag verdere uitbreiding in februari 2025 met de toevoeging van een ander tekstgebaseerd mini-model en de PHI-4-multimodale variant. De huidige redeneermodellen bouwen rechtstreeks op de eerder gebruikte SFT-en synthetische gegevenstechnieken.
De modellen onderstrepen de strategie van Microsoft om zeer capabele kleinere modellen te cultiveren-vaak kleine taalmodellen (SLMS) genoemd-naast de investeringen in grootschalige AI-achtige AI-achtige GPT-GPT-serie. SLMS wint in de industrie rente als gevolg van mogelijke voordelen zoals lagere trainingskosten en eenvoudiger domeinspecifieke verfijning. Deze aanpak is gericht op efficiëntie en toegankelijkheid, waardoor de barrière voor ondernemingen en ontwikkelaars mogelijk wordt verlaagd. Microsoft integreert PHI-modellen in zijn ecosysteem, zoals de PHI Silica-variant die is geoptimaliseerd voor NPU’s in Copilot+ PCS.
Voor bredere toegang is PHI-4-Mini-Rasing ook beschikbaar in de Verantwoordelijke AI-principes , hoewel beperkingen zoals de 32K-tokencontext voor de 14B-modellen en de primaire focus op het Engels.