La start-up chinoise d’IA MiniMax a publié un nouveau modèle open source. MiniMax, basé à Shanghai, a lancé lundi MiniMax-M2. Son objectif est de bouleverser le marché de l’IA, tant en termes de prix que de puissance. MiniMax affirme que le M2 rivalise avec les meilleurs modèles comme le Claude Sonnet 4.5 d’Anthropic. Cependant, il ne coûte que 8 % du coût.

Le modèle est conçu pour les agents d’IA et le codage. Sa conception intelligente utilise seulement 10 milliards de paramètres actifs. Cela permet de maintenir des coûts bas et des vitesses élevées. Ce lancement place MiniMax en concurrence directe avec les géants occidentaux et son rival local DeepSeek sur le marché croissant des développeurs.

Une nouvelle référence en matière de performances et d’efficacité

Soutenu par les géants chinois de la technologie Alibaba et Tencent, MiniMax positionne son modèle M2 comme un nouveau leader dans l’espace open source.

MiniMax prétend offrir des performances d’élite adaptées à la prochaine génération d’applications d’IA.

“MiniMax-M2 redéfinit l’efficacité des agents. Il s’agit d’un modèle MoE compact, rapide et rentable conçu pour des performances d’élite dans les tâches de codage et d’agent, tout en conservant une intelligence générale puissante”, déclare le documentation officielle du modèle.

L’accent mis sur les tâches agentiques (dans lesquelles une IA doit planifier, agir et vérifier des flux de travail complexes) cible un domaine de croissance important dans l’industrie du logiciel, allant au-delà de la simple IA conversationnelle vers des systèmes capables de réaliser de manière indépendante des tâches complexes. tâches.

BenchmarkMiniMax-M2Claude Sonnet 4Claude Sonnet 4.5Gemini 2.5 ProGPT-5 (réflexion)GLM-4.6Kimi K2 0905DeepSeek-V3.2Banc SWE vérifié 69,4 72,7 * 77,2 * 63,8 * 74,9 * 68 * 69,2 * 67,8 * Multi-SWE-Bench 36,2 35,7 * 44,3//30 33,5 30,6 SWE-banc Multilingue 56,5 56,9 * 68//53,8 55,9 * 57,9 * Banc de terminaux 46,3 36,4 * 50 * 25,3 * 43,8 * 40,5 * 44,5 * 37,7 * Banc d’artefacts 66,8 57,3* 61,5 57,7* 73* 59,8 54,2 55,8 BrowseComp 44 12,2 19,6 9,9 54,9* 45,1* 14,1 40,1* BrowseComp-zh 48,5 29,1 40,8 32,2 65 49,5 28,8 47,9* GAIA (texte uniquement) 75,7 68,3 71,2 60,2 76,4 71,9 60,2 63,5 xbench-DeepSearch 72 64,6 66 56 77,8 70 61 71 HLE (avec outils) 31,8 20,3 24,5 28,4 * 35,2 * 30,4 * 26,9 * 27,2 * τ²-Bench 77,2 65,5* 84,7* 59,2 80,1* 75,9* 70,3 66,7 FinSearchComp-mondial 65,5 42 60,8 42,6* 63,9* 29,2 29,5* 26,2 AgentCompany 36 37 41 39,3*/35 30 34

Source : MiniMax

Des tests indépendants soutiennent ces affirmations. Les benchmarks tiers de l’Artificial Analysis placent le MiniMax-M2 dans le top cinq mondial en matière d’intelligence globale, lui attribuant un score de 61 %.

Ce classement le place devant des concurrents comme le Gemini 2.5 Pro de Google. (60 %) et à égalité avec Claude Sonnet 4.5 d’Anthropic (63 %).

Pour les développeurs, cela signifie l’accès à un modèle puissant et ouvert, capable de gérer des scénarios sophistiqués de codage et d’utilisation d’outils sans être enfermé dans un écosystème propriétaire.

Le « Triangle impossible » : équilibrer la puissance, la vitesse et le coût

Pendant des années, les développeurs ont été confrontés à un compromis entre l’intelligence d’un modèle, sa vitesse d’inférence et son coût opérationnel : un”triangle impossible”.

MiniMax affirme que M2 répond directement à ce défi.

“Nous avons étudié s’il était possible de créer un modèle qui atteint un meilleur équilibre entre performances, prix et vitesse, permettant ainsi à davantage de personnes de bénéficier de l’intelligence accrue de l’ère Agent”, l’équipe » déclaré dans un article de blog.

La clé de cet équilibre est l’architecture du modèle, qui donne la priorité à l’économie de calcul sans sacrifier les capacités.

En s’appuyant sur une architecture de mélange d’experts (MoE), M2 exploite un pool massif de 230 milliards de paramètres au total, mais n’en active que 10 milliards pour une tâche donnée, selon ses spécifications techniques.

M2 est nettement plus efficace que les modèles concurrents comme celui de DeepSeek, qui active 37 milliards de paramètres par jeton.

Ce choix architectural réduit considérablement les frais de calcul et les besoins en mémoire, se traduisant directement par des coûts opérationnels inférieurs et des temps de réponse plus rapides.

L’impact économique pourrait être dramatique. MiniMax a fixé le prix de son API à seulement 0,30 $ par million de jetons d’entrée et 1,20 $ par million de jetons de sortie.

Ce prix agressif représente environ 8 % du coût de Claude 3.5 Sonnet, tandis que MiniMax affirme que M2 offre près du double de la vitesse d’inférence.

Cette efficacité a de profondes implications pour le développement d’agents d’IA, où des boucles de traitement plus rapides et moins chères permettent une réactivité et une complexité accrues. workflows, rendant les outils d’IA sophistiqués plus accessibles et évolutifs que jamais.

L’offensive open source de la Chine se poursuit

Dans une démarche qui renforce encore le leadership de la Chine dans l’espace de l’IA open source, MiniMax a rendu les poids du modèle M2 entièrement disponibles sur la plate-forme de développement Hugging Face.

MiniMax poursuit une tendance établie par d’autres entreprises chinoises comme DeepSeek, qui ont poursuivi de manière agressive une stratégie open source pour créer une communauté, favoriser l’adoption mondiale et rivaliser dans la féroce guerre technologique entre les États-Unis et la Chine.

L’open source offre une voie stratégique aux entreprises confrontées aux restrictions matérielles, leur permettant d’être compétitives en termes d’innovation et de coûts.

Cette stratégie place MiniMax en concurrence directe avec son rival national, une rivalité qui s’intensifie depuis un certain temps.

Plus tôt cette année, MiniMax a publié son modèle M1 spécifiquement pour contester la domination de DeepSeek dans l’espace des modèles de raisonnement, en mettant l’accent sur une approche plus permissive. La licence Apache 2.0 constitue un différenciateur clé.

La sortie de M2 pousse cette concurrence plus loin, en ciblant la même communauté de développeurs avec une offre convaincante de performances supérieures à moindre coût.

« La sortie de MiniMax confirme le leadership des laboratoires d’IA chinois en open source que DeepSeek a lancé fin 2024, et qui a été poursuivi par les versions continues de DeepSeek, Alibaba, Z AI et Moonshot. AI”, a déclaré Artificial Analysis.

Cette version fait partie d’un modèle d’innovation plus large de la société, qui dispose d’un portefeuille diversifié comprenant des outils de génération vidéo et a déjà établi des références avec des modèles comportant Fenêtres contextuelles record de 4 millions de jetons.

L’accent mis par MiniMax sur les modèles open source à haute efficacité signale une poussée stratégique pour conquérir une part significative du marché. En résolvant l’équilibre critique entre puissance, vitesse et coût, le modèle M2 remet non seulement en question l’ordre établi, mais fournit également aux développeurs du monde entier un nouvel outil puissant pour créer la prochaine génération d’applications basées sur l’IA.

Categories: IT Info