Microsoft ha introducido un trío de nuevos modelos de inteligencia artificial bajo su banner PHI, intensificando su enfoque en sistemas más pequeños y eficientes capaces de resolver problemas complejos. La compañía lanzado phi-4-4-racional y phi-4-racional-plus , conteniendo parámetros de 14 mil millones, a lo largo de los parámetros de 14 billones, a lo largo de la phi-4-rontering y phi-4-rontering-plus , que contiene parámetros de 14 mil millones, a lo largo de los parámetros de la pata de la compacto de la pata de la competencia. mil millones de parámetros.
Los modelos, descritos por Microsoft como sistemas, donde”los modelos de razonamiento están capacitados para aprovechar la escala de tiempo de inferencia para realizar tareas complejas que exigen una descomposición y reflexión interna de varios pasos”, tiene como objetivo proporcionar un alto rendimiento comparable a sistemas de IA mucho más grandes mientras mantienen la eficiencia. Están disponibles ahora a través de Microsoft Azure ai Foundry y Abrazo de la plataforma facial Bajo licencias permisivas.
empujando los límites de razonamiento con menos parámetros
La afirmación central es que estos modelos más pequeños pueden mantenerse en contra de los pesos pesados de la industria. Microsoft’s documentación técnica Afirma que Phi-4-Ronitorying-plus, mejorado a través del aprendizaje de refuerzo, realiza competitivamente con las evaluaciones de OpenAi’s O3 y se acerca a la capacidad de las capacidades de DeepSeek-R1 (a 671 parámetros de refuerzo). como la prueba AIME 2025.
>> Según los informes,
ambos modelos 14b
However, the report also cautions about performance variance, noting that on the 30-question AIME 2025 benchmark, accuracy for models like Deepseek-r1-Distill-llama-70b puede variar del 30% al 70% en 50 corridas, haciendo comparaciones de una sola carrera potencialmente poco confiable.
Phi-4-Mini-Razing, a pesar de su tamaño de parámetros 3.8B, se informa que supera modelos como Opentinker-7B en varias versiones de matemáticas y admite una extensa sobre un millón de problemas de matemáticas MATH MATHS (Ouriced-Big-Bigsin) Rango.
Para acomodar las cadenas de razonamiento detalladas, los modelos 14B tenían su capacidad de contexto duplicado de las tokens de 16k a 32k de PHI-4 originales. Microsoft also suggests specific inference settings (like temperature 0.8) for optimal results with the Phi-4-reasoning-plus model.
Evolution of the Phi Family and Strategic Context
The El lanzamiento marca una continuación del proyecto PHI de Microsoft, que comenzó a llamar la atención con el parámetro 14B original PHI-4 en diciembre de 2024. Ese modelo Phi 4 inicial se observó para un fuerte rendimiento matemático, logrando una puntuación de 91.8 en las pruebas AMC 12, antes de competidores como Gemini Pro 1.5 (89.8) en el momento. Microsoft seguido de PHI-4 de origen completamente abierto en enero de 2025, liberando sus pesas en la cara abrazada bajo una licencia del MIT.
En ese momento, el ingeniero de Microsoft Shital Shah publicó en X,”Muchas personas nos han estado pidiendo liberación de peso… pocos pesos phi-4 de bootrina. ¡No más. La familia vio una mayor expansión en febrero de 2025 con la adición de un mini modelo basado en texto diferente y la variante PHI-4-multimodal. Los modelos de razonamiento actuales se basan directamente en las técnicas de datos SFT y sintéticos utilizados anteriormente.
Los modelos subrayan la estrategia de Microsoft de cultivar modelos más pequeños altamente capaces, a menudo denominados modelos de lenguaje (SLM), junto con sus inversiones en IA a gran escala como la serie GPT de OpenAI. Los SLM están ganando interés en la industria debido a posibles ventajas como costos de capacitación reducidos y ajuste fino específico de dominio. Este enfoque se dirige a la eficiencia y la accesibilidad, potencialmente reduciendo la barrera para empresas y desarrolladores. Microsoft integra los modelos PHI en su ecosistema, como la variante de sílice Phi optimizada para las NPU en Copilot+ PCS.
Para un acceso más amplio, Phi-4-Mini-Razoning también está disponible en , un formato popular para ejecutar modelos localmente en el hardware del consumidor. Microsoft enfatizó que los modelos PHI se desarrollan siguiendo su Principios de IA responsables , aunque reconoce limitaciones como el contexto de 32k token para los modelos 14B y el enfoque principal en inglés.