Microsoftは、PHIバナーの下に新しい人工知能モデルのトリオを導入し、複雑な問題解決が可能なより小さく、効率的なシステムに焦点を当てています。会社
Microsoftによって記述されたモデルは、「推論モデルが推論時間スケーリングを活用するように訓練されており、多段階の分解と内部反射を要求する複雑なタスクを実行するように訓練されています。現在、Microsoftの azure ai fundry およびフェイスプラットフォームを抱き締める許容ライセンスの下で。 Microsoftの技術文書は、補強学習を通じて強化されたPhi-4-reasoning-plusは、OpenaiのO3-miniで競争力のあるパフォーマンスを発揮し、deeek-r1bbパラメーターの能力を持つことができると主張しています。 AIME 2025テストのような評価 伝えられるところによると、両方の14bモデルは 128,000トークンのコンテキスト長 200k+語彙サイズ。 Microsoftは、これらのモデルが「バランスサイズとパフォーマンス」を述べ、「リソース制限されたデバイスでさえ複雑な推論タスクを効率的に実行できるようにしました。」 このパフォーマンスには、特定のトレーニング戦略が含まれていました。 Phi-4-Reasoningは、OpenaiのO3-Miniによって生成された推論ステップを備えた140万件以上の例を使用して、140万を超えるSFTプロセスを使用して、140万件以上のSFTプロセスを使用して、2025年3月のパブリックカットオフのデータを使用して、2025年4月から4月の間に環境を使用したPhi-4 raremant-rise-risemation-sprus rimemation a a a cimplus a a cimplus a a cimplus a a cimplus a semultion最適化(GRPO)-異なる生成された応答間の相対的な好みに基づいてモデル出力を改善するように設計されたアルゴリズム-出力を改良するために。これにより、数学の精度が高くなりますが、平均してPHI-4-Reasoningよりも1.5倍長く、コードまたは計画での命令が少ない差が生成されます。 Phi-4-mini-Reasoningモデルは、2024年2月に suartek r1 agepsek r1 a a a a a figpsek r1から別々にトレーニングされました。範囲。 詳細な推論チェーンに対応するために、14Bモデルはコンテキスト容量を元のPHI-4から32Kトークンから2倍にしました。また、Microsoftは、 トレーニングプロセスとモデル仕様の内部
<0x9f> <0x98>家族は、2025年2月にさらに拡大し、異なるテキストベースのMiniモデルとPhi-4-Multimodalバリアントを追加しました。現在の推論モデルは、以前に使用されていたSFTおよび合成データ手法に直接構築されています。
モデルは、Microsoftの非常に能力のある小さなモデルを育成するという戦略を強調しています。 SLMは、トレーニングコストの削減やドメイン固有の微調整の容易などの潜在的な利点のために、業界の関心を集めています。このアプローチは、効率とアクセシビリティを対象とし、企業と開発者の障壁を潜在的に下げる可能性があります。 Microsoftは、Copilot+ PCSのNPU用に最適化されたPhi Silicaバリアントなど、PHIモデルをエコシステムに統合します。 Unsloth のようなプロジェクトを介して、消費者ハードウェアでローカルでモデルを実行するための一般的な形式です。 Microsoftは、PHIモデルが責任あるAI原則に従って開発されることを強調しましたが、32Kトークンのコンテキストのような制限と14Bモデルのように制限があります。
<0x9f> <0x98>家族は、2025年2月にさらに拡大し、異なるテキストベースのMiniモデルとPhi-4-Multimodalバリアントを追加しました。現在の推論モデルは、以前に使用されていたSFTおよび合成データ手法に直接構築されています。
モデルは、Microsoftの非常に能力のある小さなモデルを育成するという戦略を強調しています。 SLMは、トレーニングコストの削減やドメイン固有の微調整の容易などの潜在的な利点のために、業界の関心を集めています。このアプローチは、効率とアクセシビリティを対象とし、企業と開発者の障壁を潜在的に下げる可能性があります。 Microsoftは、Copilot+ PCSのNPU用に最適化されたPhi Silicaバリアントなど、PHIモデルをエコシステムに統合します。 Unsloth のようなプロジェクトを介して、消費者ハードウェアでローカルでモデルを実行するための一般的な形式です。 Microsoftは、PHIモデルが責任あるAI原則に従って開発されることを強調しましたが、32Kトークンのコンテキストのような制限と14Bモデルのように制限があります。