Microsoft ha introdotto un trio di nuovi modelli di intelligenza artificiale sotto il suo banner PHI, intensificando la sua attenzione su sistemi più piccoli ed efficienti in grado di risolvere i problemi complessi. La società rilasciato Phi-4-ragioning e phi-4-ragion-plus , entrambi contenenti 14 parametri da miliardo, lungo il pad-4-2 3,8 miliardi di parametri.

I modelli, descritti da Microsoft come sistemi in cui”i modelli di ragionamento sono addestrati a sfruttare il ridimensionamento del tempo di inferenza per eseguire compiti complessi che richiedono decomposizione in più fasi e riflessione interna”, mirano a fornire prestazioni elevate paragonabili a sistemi di intelligenza artificiale molto più grandi mantenendo l’efficienza. Sono ora disponibili tramite Microsoft azure ai fondry e il Abbraccia la piattaforma facciale in licenze permissive.

I confini di ragionamento spingendo con meno parametri

L’affermazione centrale è che questi modelli più piccoli possono trattenere i propri pesi pesi del settore. Microsoft’s documentazione tecnica afferma che Phi-4-ragioning-plus, migliorato attraverso l’apprendimento di rinforzo, si comporta con competizione con OpenIai O3-Mini e approccio alla capitalità di DEEF-R1 (A 671b Model) Valutazioni come il test AIME 2025.

Entrambi i modelli 14B secondo quanto riferito Sulla maggior parte dei parametri di riferimento, sebbene siano state notate eccezioni per le domande scientifiche GPQA e le attività di pianificazione BA-Calendar. Il rapporto tecnico mette in evidenza guadagni significativi anche sulla base PHI-4 su benchmark generali, con phi-4-ragioning-plus che mostra un miglioramento di 22 punti su Ifeval (istruzioni seguenti) e un guadagno di 10 punti su Arenehard (valutazione delle preferenze umane).

Tuttavia, il rapporto avvertisce anche sulla varianza delle prestazioni, notando che sul 30 25 valutazione delle preferenze). DeepSeek-R1-Distill-Llama-70B può variare dal 30% al 70% in 50 corse, rendendo i confronti a corsa singola potenzialmente inaffidabili.

Phi-4-Mini-riginizzazione, nonostante le sue dimensioni dei parametri di 3,8b, è riportato che supera i modelli come OpenThinker-7b su diversi benchmark matematici e supportano un ampio 128.000-token lunghezza del contesto Con una dimensione del vocabolario 200K+. Microsoft ha dichiarato questi modelli”dimensioni e prestazioni del bilanciamento”, consentendo”anche dispositivi limitati alle risorse di eseguire compiti di ragionamento complessi in modo efficiente.”

All’interno del processo di formazione e delle specifiche del modello

raggiungendo queste prestazioni hanno coinvolto specifiche strategie di allenamento. Phi-4-REAGASING è una messa a punto controllata (SFT) del modello di base PHI-4 originale, che utilizza oltre 1,4 milioni di esempi con fasi di ragionamento generate da O3-Mini di Openi.

Questo processo SFT, utilizzando i dati in termini di matematica, si è verificato tra i problemi di matematica, si è verificato un raggruppamento in materia di matematica, che si è verificato in modo che si verificasse un raggruppamento di matematica e si è verificato in modo che si verificasse un raggruppamento e si verificano un raggruppamento di matematica di marzo, si è verificato tra i problemi di matematica di marzo. Ottimizzazione delle politiche (GRPO)-Un algoritmo progettato per migliorare gli output del modello in base alle preferenze relative tra diverse risposte generate-per perfezionare il suo output.

Ciò si traduce in una maggiore precisione in matematica ma genera anche risposte che sono, in media, 1,5 volte più lunghe rispetto a PHI-4-ragioning, una differenza meno pronunciata nella codifica o nella pianificazione. Il modello di ragionamento PHI-4-Mini è stato addestrato separatamente nel febbraio 2024 su su un problema di matematica sintetica

Per adattarsi alle catene di ragionamento dettagliate, i modelli 14B avevano la loro capacità di contesto raddoppiata dai token da 16K a 32k di PHI-4 originali. Microsoft suggerisce anche impostazioni di inferenza specifiche (come la temperatura 0,8) per risultati ottimali con phi-4-ragion-plus modello .

evolution del contesto di PHI e Strongic.

Il lancio segna una continuazione del progetto PHI di Microsoft, che ha iniziato ad attirare l’attenzione con il parametro originale 14B PHI-4 nel dicembre 2024. Quel modello PHI 4 iniziale è stato notato per forti prestazioni matematiche, ottenendo un punteggio di 91,8 sui test AMC 12, davanti a concorrenti come Gemini Pro 1.5 (89,8) al momento. Microsoft ha seguito da Phi-4 completamente open-4 nel gennaio 2025, rilasciando i suoi pesi su una faccia abbracciata sotto una licenza del MIT.

A quel tempo, l’ingegnere Microsoft shital shital ha pubblicato su x,”Molte persone ci hanno chiesto il rilascio di peso… pochi persino carichi di bootlegged Phi-4. Non aspetta più. La famiglia ha visto un’ulteriore espansione nel febbraio 2025 con l’aggiunta di un diverso modello mini basato sul testo e la variante PHI-4-Multimodal. Gli attuali modelli di ragionamento si basano direttamente sulle tecniche SFT e sui dati sintetici utilizzati in precedenza.

I modelli sottolineano la strategia di Microsoft di coltivare modelli più piccoli altamente capaci-spesso definiti piccoli modelli di linguaggio (SLMS)-insieme ai suoi investimenti in AI su larga scala come la serie GPT di Openi. SLMS sta guadagnando interessi del settore a causa di potenziali vantaggi come i costi di formazione ridotti e la migliore messa a punto specifica del dominio. Questo approccio si rivolge all’efficienza e all’accessibilità, abbassando potenzialmente la barriera per imprese e sviluppatori. Microsoft integra i modelli PHI nel suo ecosistema, come la variante di silice PHI ottimizzata per le NPU in Copilot+ PCS.

Per un accesso più ampio, Phi-4-Mini-Reasoning è disponibile anche in , un formato popolare per l’esecuzione di modelli localmente sull’hardware dei consumatori. Microsoft ha sottolineato che i modelli PHI sono sviluppati seguendo il suo principi AI responsabili , sebbene riconosca limiti come il contesto del token 32K per i modelli 14B e il focus principale sull’inglese.

Categories: IT Info