Le nouveau modèle d’IA Phi-4 de Microsoft remet en question la croyance de longue date selon laquelle plus grand est toujours mieux. Avec seulement 14 milliards de paramètres, Phi-4 surpasse systématiquement des modèles beaucoup plus grands, notamment le Gemini Pro 1.5 de Google, dans les tâches nécessitant un raisonnement mathématique.
La série Phi de Microsoft est une famille de petits modèles de langage (SLM) conçus pour offrir de puissantes capacités d’IA dans un package plus compact et efficace.
En se concentrant sur l’efficacité et les performances ciblées, le modèle compact fournit d’excellents résultats tout en consommant beaucoup moins de calculs ressources, marquant un changement décisif dans l’approche du secteur de l’IA en matière de développement de modèles.
Phi-4 reflète un effort délibéré pour rompre avec la course à la création de systèmes d’IA de plus en plus massifs. Alors que des concurrents comme GPT-4o s’appuient sur des centaines de milliards de paramètres, les performances de Phi-4 illustrent la puissance des méthodologies de formation innovantes et l’accent mis sur les applications spécialisées.
Le nouveau modèle est désormais disponible via Azure AI Foundry de Microsoft sous une licence de recherche, avec des plans pour une distribution plus large via Hugging Face.
Source: Microsoft
Selon Microsoft, Phi-4 a obtenu un score moyen de 91,8, surpassant tous les autres modèles d’IA évalués lors du récent concours américain de mathématiques AMC 12. tests.
Il s’agit d’examens annuels administrés pour évaluer et améliorer les compétences en résolution de problèmes des élèves du secondaire. L’AMC 10 est conçu pour les élèves de 10e année et moins, couvrant les mathématiques jusqu’au programme de 10e année, tandis que l’AMC 12 est destiné aux élèves de 12e année et moins, englobant l’ensemble du programme de mathématiques du secondaire, à l’exclusion du calcul.
Dans AMC 12, Phi-4 a surpassé le Gemini Pro 1.5 de Google (89,8) en tant que grand modèle ayant obtenu le score le plus élevé. Parmi les autres modèles plus petits, le Phi-4 a démontré une marge de supériorité significative.
D’autres petits modèles, tels que le Qwen 2.5 Instruct (77,4) et le Claude 3.5 Sonnet (74,8), étaient à la traîne. Les grands modèles comme GPT-4o (77,9) et Gemini Flash 1.5 (81,6) ont également obtenu des résultats inférieurs à ceux du Phi-4. Le modèle le moins performant était Llama-3.3 70B Instruct, avec un score de 66,4.
Source : Microsoft
Phi-4 Précision dans la résolution de problèmes
Les capacités de Phi-4 sont illustrées dans un problème combinatoire partagé par Microsoft, où le modèle a calculé tous les résultats possibles dans un cadre hypothétique. course parmi cinq escargots. Le problème, qui permettait des scénarios avec au plus une égalité, nécessitait une ventilation détaillée des permutations et un raisonnement logique.
Phi-4 a déterminé avec précision qu’il y avait 431 résultats distincts, démontrant sa capacité exceptionnelle à relever des défis mathématiques complexes. Une résolution de problèmes aussi précise rend Phi-4 particulièrement utile pour les applications dans des domaines tels que la recherche scientifique, l’ingénierie et la modélisation financière.
Source : Microsoft
L’excellence du modèle s’étend aux benchmarks standardisés. Aux American Mathematics Competitions (AMC), Phi-4 a obtenu un score de 91,8, surpassant le Gemini Pro 1.5 de Google, qui a obtenu un score de 89,8.
Ces résultats mettent en évidence sa capacité à effectuer des tâches rigoureuses du monde réel qui exigent une précision logique. Microsoft attribue ce succès à l’intégration d’ensembles de données synthétiques et de techniques de post-formation, qui améliorent la concentration et la précision du modèle dans des domaines spécifiques.
Le rôle des données synthétiques et de la post-formation
L’un des facteurs clés du succès de Phi-4 est sa dépendance à l’égard de données synthétiques, c’est-à-dire des ensembles de données générés artificiellement et utilisés pour compléter les données du monde réel.
Les données synthétiques permettent au modèle de s’entraîner efficacement sur un plus large éventail de scénarios, améliorant ainsi son adaptabilité et ses performances. Microsoft a également appliqué des techniques avancées de post-formation, qui affinent les capacités du modèle après sa phase de développement initiale.
Connexe : SemiAnalysis – Non, la mise à l’échelle de l’IA ne ralentit pas
Cette approche garantit que Phi-4 excelle dans des applications ciblées, telles que le raisonnement mathématique. , sans les inefficacités souvent associées à des modèles plus grands et plus généralisés.
« Phi-4 continue de repousser la frontière entre taille et qualité », a déclaré Microsoft dans son annonce officielle, soulignant que le modèle remet en question l’hypothèse que les performances sont directement liées à l’échelle. En optimisant ses processus de formation, Microsoft a démontré que les petits modèles peuvent atteindre l’excellence spécialisée, ouvrant la voie à des solutions d’IA plus efficaces.
L’efficacité de Phi-4 pourrait se traduire par une IA d’entreprise plus rapide. Les grands modèles de langage, bien que puissants, nécessitent souvent des ressources informatiques étendues, ce qui augmente les coûts et limite leur accessibilité aux organisations dotées d’infrastructures technologiques robustes. Phi-4 offre en revanche une alternative rentable qui maintient des performances élevées.
Cette accessibilité devrait s’accélérer Intégration de l’IA dans tous les secteurs, en particulier dans les domaines où la précision et la rentabilité sont essentielles, comme la finance, la santé et la recherche scientifique.
Déploiement de l’IA via Azure AI Foundry
L’engagement de Microsoft en faveur du développement éthique de l’IA est évident dans le déploiement contrôlé de Phi-4. Initialement mis à disposition via Azure AI Foundry, le modèle est distribué sous une licence de recherche pour permettre aux développeurs et aux chercheurs d’évaluer ses capacités tout en minimisant les risques potentiels. Microsoft prévoit d’étendre l’accès via des plateformes comme Hugging Face, permettant une utilisation plus large tout en maintenant des garanties.
La plateforme Azure AI Foundry comprend une suite d’outils conçus pour promouvoir un déploiement responsable de l’IA. Des fonctionnalités telles que le filtrage de contenu, les boucliers d’invite et la détection de l’ancrage aident les développeurs à atténuer les risques et à garantir que les sorties du modèle sont exactes et appropriées.
Redéfinir les priorités de développement de l’IA
Les réalisations de Phi-4 ne sont pas seulement techniques ; ils représentent un changement plus large dans la façon dont l’IA est conceptualisée et développée. Pendant des années, l’industrie a donné la priorité à la construction de modèles plus grands, en supposant que la taille était en corrélation avec les capacités. Cependant, Phi-4 démontre qu’une formation ciblée et une conception efficace peuvent permettre d’obtenir des résultats supérieurs sans les inefficacités des systèmes massifs.
En surpassant ses concurrents plus importants dans des tests de performance et des tâches de résolution de problèmes spécifiques, Phi-4 défie les””scale-first”dans la recherche sur l’IA.
Son succès suggère que l’avenir de l’intelligence artificielle pourrait résider dans le développement de modèles plus petits et plus intelligents, adaptés pour répondre à des besoins spécifiques. Cette approche réduit non seulement la consommation de ressources, mais rend également les avancées IA des outils accessibles à un plus large éventail d’utilisateurs, des entreprises aux chercheurs individuels.
L’introduction de Phi-4 offre une solution pratique à certains des défis qui ont limité l’adoption de l’IA jusqu’à présent : les exigences matérielles et le coût.