Microsoft在其PHI旗幟下引入了三個新的人工智能模型,從而加強了其對能夠複雜問題解決的較小,有效的系統的關注。 The company released Phi-4-reasoning and Phi-4-reasoning-plus, both containing 14 billion parameters, alongside the compact Phi-4-mini-reasoning, which has 380億個參數。

Microsoft描述的模型是“訓練推理模型以利用推理時間縮放來執行需要多步分解和內部反射的複雜任務”,旨在提供與更大的AI系統相當的高性能,同時維持效率。現在可以通過Microsoft的 target=“ _ blank”>擁抱面向平台在寬鬆的許可下。

用更少的參數推動推理界限

核心聲稱是這些較小的型號可以自行抗衡行業重量級。 Microsoft’s technical documentation asserts that Phi-4-reasoning-plus, enhanced through reinforcement learning, performs competitively with OpenAI’s o3-mini and approaches the capability of DeepSeek-R1 (a 671B parameter model) on certain mathematical evaluations像Aime 2025測試一樣。

“>

據報導,這兩種14B型號都>

但是,報告還指出了諸如30-question aime 2025 b的績效差異,該報告還注意到了該報告,並註意DeepSeek-R1-Distill-Lalama-70B在50次跑步中的範圍從30%到70%範圍內,使單次比較可能是不可靠的。

phi-4-mini-resounting儘管有3.8b參數尺寸,但據報導,據報導,諸如OpenthInker-7b的多個數學基礎上的模型,並支持了許多數學基礎上的模型,並且href=“ https://huggingface.co/microsoft/phi-4-mini-reasoning” target=“ _ blank”> 128,000 token上下文長度具有200k+詞彙大小。微軟表示這些模型“平衡尺寸和性能”,允許“即使是資源有限的設備也可以有效執行複雜的推理任務。 ”

培訓過程和模型規格內部

實現此性能涉及特定的培訓策略。 PHI-4反應是原始PHI-4基本模型的監督微調(SFT),使用超過140萬個示例,其中包括OpenAI的O3-Mini(Openai的O3-Mini。

)的推理步驟,使用2025年3月的公共截止的數據,使用2025年1月至4月的公共臨界值,使用了2025年1月至2025年4月相對的phi-4-Reasonement ands ands ands ands and phi-4-Reasoning-plocys and topersiment。優化(GRPO)-一種算法,旨在根據不同生成的響應之間的相對偏好來改善模型輸出-以完善其輸出。

這會導致數學的準確性更高,但同時也產生的響應平均比PHI-4複雜的1.5倍,比PHI-4-RENOSING長達1.5倍,在編碼或計劃中的差異較小。 PHI-4-MINI-RENOMISIT模型於2024年2月在

為了適應詳細的推理鏈,14B型號的上下文能力從原始的PHI-4的16K到32K代幣增加了一倍。微軟還建議使用 phi-4-reasaning”> phi-4-reasaning-plus-plus-plus-plus-plus 。發射標誌著微軟PHI項目的延續,該項目於2024年12月開始使用最初的14B參數PHI-4引起人們的注意。該最初的PHI 4模型以強勁的數學性能而聞名,在AMC 12測試中獲得了91.8分,在此期間達到了91.8分的得分,與Gemini Pro 1.5(89.8)這樣的競爭對手提前。 Microsoft followed up by fully open-sourcing Phi-4 in January 2025, releasing its weights on Hugging Face under an MIT license.

At that time, Microsoft engineer Shital Shah posted on X, “A lot of folks had been asking us for weight release… Few even uploaded bootlegged phi-4 weights on HuggingFace<0xf0><0x9f><0x98><0xac>. Well,不再等待,我們將在MIT許可證上發布官方PHI-4模型!該家庭在2025年2月增加了進一步的擴展,並添加了不同的基於文本的迷你模型和Phi-4-Multimodal變體。當前的推理模型直接基於以前使用的SFT和合成數據技術。

這些模型強調了Microsoft培養功能高的較小模型(通常稱為小語言模型(SLM))的策略,以及其對OpenAi的大規模AI的投資,例如Openai的GPT系列。由於潛在的優勢,例如降低培訓成本和更容易的特定領域的微調,因此SLM正在獲得行業興趣。這種方法針對效率和可及性,有可能降低企業和開發商的障礙。 Microsoft將PHI模型集成到其生態系統中,例如在Copilot+ PC中為NPU優化的Phi Silica變體。

以用於更廣泛的訪問,也可以在一樣,一種流行的格式,用於在消費者硬件上本地運行模型。 Microsoft強調,PHI模型是遵循其負責的AI原則,儘管承認14b tok tok tok tok tok tock and target=“ _ brank”

Categories: IT Info