Veille IA // Samedi 28 mars 2026 // Strasbourg

Un modèle chinois open source de 230 milliards de paramètres vient de s’imposer comme le plus utilisé au monde par les développeurs. MiniMax M2.5, sorti mi-février 2026, rivalise avec les meilleurs modèles propriétaires — pour un vingtième du prix.

📋 Dans cet article

  1. Les faits : un modèle open source qui change la donne
  2. Un signal fort pour l’open source chinois
  3. Ce que j’en retiens
  4. Glossaire express

Les faits : un modèle open source qui change la donne

MiniMax, startup chinoise spécialisée dans l’IA générative, a publié le 11 février 2026 son modèle M2.5 en open source sur Hugging Face, sous licence MIT modifiée. Le modèle affiche 230 milliards de paramètres au total, mais n’en active que 10 milliards par requête grâce à son architecture Mixture of Experts (MoE). Résultat : des performances de niveau frontier à une fraction du coût d’inférence.

En chiffres, ça donne ceci :

L’entraînement repose sur Forge, un framework de reinforcement learning maison, et sur l’algorithme CISPO (Clipped Importance Sampling Policy Optimization), qui affiche un gain de vitesse de 2x par rapport aux approches classiques comme DAPO. Le tout exécuté sur plus de 200 000 environnements réels.

Un signal fort pour l’open source chinois

Ce qui frappe ici, c’est la trajectoire. En quelques semaines, MiniMax M2.5 est devenu le modèle le plus utilisé au monde sur les plateformes de routage comme OpenRouter — devant les modèles propriétaires américains. Une première pour un acteur chinois dans cette catégorie.

Le prix joue évidemment un rôle majeur. À 0,15 $ le million de tokens en entrée, M2.5 rend accessibles des usages agents et RAG qui étaient économiquement prohibitifs avec les modèles frontier. Deux variantes API sont proposées : M2.5 Lightning (100 tokens/seconde, 0,30 $/M en entrée) et M2.5 Standard (50 tokens/seconde, 0,15 $/M).

Mais la performance est aussi au rendez-vous. Sur les tâches de code et d’agents autonomes, M2.5 se hisse au niveau de Claude Opus 4.6 — le modèle qui domine actuellement la plupart des benchmarks généraux. Le tout en open weights, ce qui signifie que n’importe quelle entreprise peut le déployer sur sa propre infrastructure.

Ce que j’en retiens

Je ne vais pas faire semblant d’être surpris. L’écosystème open source chinois monte en puissance depuis des mois, et MiniMax M2.5 confirme une tendance de fond : la frontière entre modèles propriétaires et modèles ouverts s’efface sur les benchmarks.

Ce qui est plus intéressant, c’est l’impact économique concret. À un vingtième du prix des modèles frontier, on ne parle plus du même marché. Les startups, les PME, les labos de recherche qui n’avaient pas les moyens de tourner des agents autonomes sur Claude ou GPT-5 peuvent désormais le faire. C’est un changement structurel dans l’accessibilité de l’IA de pointe.

Maintenant, gardons la tête froide. Un benchmark n’est pas un produit. L’adoption massive mesurée en tokens ne dit rien sur la qualité des usages réels. Et les questions de gouvernance des données avec un modèle chinois, même open source, méritent d’être posées — surtout dans le contexte européen de l’AI Act et du RGPD.

Ce que je retiens surtout, c’est que la compétition mondiale sur les modèles de fondation est en train de se jouer sur le terrain du prix et de l’accessibilité. Et ça, c’est plutôt une bonne nouvelle pour ceux qui construisent des choses avec l’IA, plutôt que ceux qui se contentent d’en parler.

Glossaire express

Mixture of Experts (MoE) : architecture de réseau neuronal qui n’active qu’une fraction des paramètres pour chaque requête, réduisant drastiquement le coût de calcul tout en conservant la capacité du modèle complet.

Open weights : modèle dont les poids (les valeurs numériques du réseau) sont publiés et téléchargeables. Contrairement à l’open source complet, les données d’entraînement et le code de training ne sont pas nécessairement partagés.

SWE-Bench : benchmark qui évalue la capacité d’un modèle à résoudre de vrais bugs issus de dépôts GitHub open source. Un score de 80% signifie que le modèle résout correctement 4 problèmes sur 5.

Reinforcement Learning (RL) : méthode d’entraînement où le modèle apprend par essai-erreur dans des environnements simulés, en recevant des récompenses pour les bonnes réponses et des pénalités pour les erreurs.

Sources

⚡ À retenir

  • 80,2% sur SWE-Bench Verified
  • Premier mondial sur Multi-SWE-Bench
  • 0,15 $/million de tokens en entrée

Vous trouvez cette veille utile ?

Retrouvez chaque jour les actus Tech & IA sur alsace.ai