Microsoft a introdus un trio de noi modele de inteligență artificială sub banner-ul său Phi, intensificându-și concentrarea pe sisteme mai mici și eficiente, capabile să rezolve probleme complexe. Compania a lansat PHI-4-REASONASING și PHI-4 REASONING-PLUS , ambii care conține 14 miliarde de parametari, alături de compactul PHI-4-MINI, care conțin 14 miliarde de parametari, alături 3.8 miliarde de parametri.

Modelele, descrise de Microsoft ca sisteme în care „modelele de raționament sunt instruite pentru a folosi scalarea în timp de inferență pentru a efectua sarcini complexe care necesită descompunere în mai multe etape și reflecție internă”, urmăresc să ofere performanțe înalte comparabile cu sistemele AI mult mai mari, menținând în același timp eficiența. They are available now through Microsoft’s Azure AI Foundry and the Platforma de față îmbrățișată Sub licențe permisive.

împingerea limitelor de raționament cu mai puțini parametri

Afirmația centrală este că aceste modele mai mici își pot ține propriile lor împotriva greutăților din industrie. Microsoft’s technical documentation asserts that Phi-4-reasoning-plus, enhanced through reinforcement learning, performs competitively with OpenAI’s o3-mini and approaches the capability of DeepSeek-R1 (a 671B parameter model) on certain mathematical evaluations like testul AIME 2025.

Ambele modele 14b se presupune că outperform this thindhing a antropic, în cea mai mare parte a sonnetului și a lui Google GEMINI 2 FLASFOFIC SOLUDE INCESTE CELTA IN MESTRU SONNET GOGELE GOOGH Repere de referință, deși s-au remarcat excepții pentru întrebările științifice GPQA și sarcinile de planificare BA-Calendar. The technical report highlights significant gains over the base Phi-4 on general benchmarks too, with Phi-4-reasoning-plus showing a 22-point improvement on IFEval (instruction following) and a 10-point gain on ArenaHard (human preference evaluation).

However, the report also cautions about performance variance, noting that on the 30-question AIME 2025 benchmark, accuracy for models like Deepseek-R1-Distill-Llama-70B poate varia de la 30% la 70% pe 50 de runde, ceea ce face ca comparații cu o singură cursă potențial să nu fie de încredere.

Phi-4-MINI-REZOLITARE, în ciuda dimensiunii sale de 3,8B, este raportată la modelele care depășesc Opentinker-7B pe mai multe puncte de referință de matematică și acceptă o extindere a 128.000-TKOKN Lungimea contextului cu o dimensiune de 200K+ vocabular. Microsoft a declarat că aceste modele „dimensiunea și performanța echilibrului”, permițând „chiar și dispozitivele limitate de resurse să îndeplinească eficient sarcini de raționament complexe. PHI-4-REASOUNDING este o reglare fină supravegheată (SFT) a modelului inițial de bază PHI-4, folosind peste 1,4 milioane de exemple cu pași de raționament generați de OpenAai O3-Mini.

Acest proces SFT, folosind date cu o întrerupere publică din martie 2025, a avut loc între ianuarie și aprilie 2025. Optimizarea politicilor (GRPO)-un algoritm conceput pentru a îmbunătăți rezultatele modelului pe baza preferințelor relative între diferite răspunsuri generate-pentru a-și perfecționa producția.

Acest lucru duce la o precizie mai mare la matematică, dar generează și răspunsuri care sunt, în medie, de 1,5 ori mai lungi decât PHI-4-recare, o diferență mai puțin prevăzută în codificare sau planificare. Modelul PHI-4-Mini-Reasoning a fost instruit separat în februarie 2024 pe peste un milion de probleme de matematică sintetică

Pentru a găzdui lanțurile de raționament detaliate, modelele 14B și-au dublat capacitatea de context de la jetoanele originale PHI-4 la 32K. Microsoft also suggests specific inference settings (like temperature 0.8) for optimal results with the Phi-4-reasoning-plus model.

Evolution of the Phi Family and Strategic Context

Lansarea marchează o continuare a proiectului PHI al Microsoft, care a început să obțină atenție cu parametrul original 14B PHI-4 în decembrie 2024. Acest model PHI 4 inițial a fost remarcat pentru o performanță puternică de matematică, obținând un scor de 91,8 la testele AMC 12, înaintea concurenților precum Gemini Pro 1.5 (89,8) la timp. Microsoft a urmărit PHI-4-ul complet deschis în ianuarie 2025, eliberându-și greutățile pe Hugging Face sub o licență MIT.

La acea vreme, Microsoft Engineer Shital Shah a postat pe X, „Mulți oameni ne-au cerut eliberarea în greutate… puțini egalati încărcați PHI-4 Greutăți PHI-4 pe Huggingface <0xf0> <0x9f> <0x98> <0xac>. Nu mai așteaptă. Familia a înregistrat o extindere suplimentară în februarie 2025, cu adăugarea unui model mini diferit bazat pe text și varianta PHI-4-MULTIMODAL. Modelele de raționament actuale se bazează direct pe tehnicile de date SFT și sintetice utilizate anterior.

Modelele subliniază strategia Microsoft de a cultiva modele mai mici capabile-deseori denumite modele de limbaj mic (SLM)-alături de investițiile sale în AI pe scară largă, precum seria GPT a Openai. SLM-urile câștigă interesul industriei din cauza avantajelor potențiale, cum ar fi costurile reduse de instruire și reglarea fină mai ușoară. Această abordare vizează eficiența și accesibilitatea, potențial scăzând bariera pentru întreprinderi și dezvoltatori. Microsoft integrează modelele PHI în ecosistemul său, cum ar fi varianta de silice Phi optimizată pentru NPU-uri în Copilot+ PCS.

pentru acces mai larg, Phi-4-Mini-REASOASONING este de asemenea disponibil în Principiile AI responsabile , deși recunoaște limitările precum contextul de 32K pentru modelele 14B și focalizarea primară pe engleză.

Categories: IT Info