Il y a des moments où la tectonique du marché de l’IA se déplace d’un coup. La sortie de DeepSeek V3.2, et surtout de sa variante Speciale, fait partie de ces secousses qu’on ne peut pas ignorer. Un modèle open source, sous licence MIT, qui surpasse GPT-5 sur les benchmarks de raisonnement mathématique — et qui coûte dix fois moins cher à l’usage. Ça mérite qu’on s’y arrête.

671 milliards de paramètres, 37 milliards actifs

DeepSeek V3.2 repose sur une architecture Mixture-of-Experts (MoE) : 671 milliards de paramètres au total, mais seulement 37 milliards activés par requête. C’est le principe même du MoE — un modèle massif en représentation, mais économe en calcul. On obtient la puissance d’un modèle de classe « trillion » avec l’empreinte computationnelle d’un modèle bien plus petit.

C’est la variante Speciale qui fait le plus parler d’elle. Entraînée spécifiquement sur des données de raisonnement, avec une pénalité de longueur réduite lors de l’apprentissage par renforcement, elle pousse le raisonnement long à un niveau que peu de modèles open source avaient atteint jusqu’ici. DeepSeek l’a également renforcée avec les capacités de démonstration mathématique de DeepSeek-Math-V2.

Des résultats qui bousculent la hiérarchie

Les chiffres sont parlants. Sur AIME, le benchmark de mathématiques de compétition, DeepSeek V3.2-Speciale atteint 96,0 % de réussite. GPT-5-High s’arrête à 94,6 %. Gemini-3.0-Pro à 95,0 %. Sur le Harvard-MIT Mathematics Tournament, la variante Speciale monte à 99,2 % — contre 97,5 % pour Gemini.

Plus significatif encore : le modèle décroche des performances de niveau médaille d’or dans quatre compétitions internationales d’élite — l’Olympiade Internationale de Mathématiques (IMO), l’Olympiade Chinoise de Mathématiques (CMO), les finales mondiales de l’ICPC et l’Olympiade Internationale d’Informatique (IOI).

Et tout ça pour un coût d’entraînement estimé à environ 5,2 millions de dollars. Quand on sait qu’OpenAI a investi plusieurs centaines de millions dans GPT-5, le ratio est vertigineux.

Open source, licence MIT : le choix radical

DeepSeek ne fait pas les choses à moitié. Le modèle complet — 671 milliards de paramètres — est disponible sous licence MIT. La plus permissive qui existe. Pas de restrictions commerciales, pas de clauses limitatives. Quiconque dispose de la puissance de calcul nécessaire peut le déployer, le modifier, l’intégrer.

C’est un signal fort dans un contexte où même Meta, longtemps champion de l’ouverture en IA, commence à garder ses plus gros modèles en propriétaire. DeepSeek fait le chemin inverse.

Ce que ça signifie, vu de Strasbourg

On peut lire cette avancée de deux façons. La première, technique et économique : l’IA de niveau frontier n’est plus l’apanage exclusif des géants américains. Un labo chinois, avec un budget d’entraînement cent fois inférieur à celui d’OpenAI, produit un modèle qui rivalise — voire dépasse — le meilleur de la Silicon Valley. L’argument du « seuls les plus riches peuvent faire de l’IA de pointe » ne tient plus.

La seconde lecture est plus stratégique. Quand un modèle aussi performant est diffusé sous licence MIT, il devient impossible à contrôler, à contenir, à verrouiller. C’est une arme à double tranchant : formidable pour la démocratisation de l’IA, pour les chercheurs, les PME, les développeurs indépendants. Mais c’est aussi un défi pour la régulation — comment encadrer ce qui circule librement ?

Pour les entreprises européennes et alsaciennes qui veulent intégrer l’IA sans dépendre d’un abonnement OpenAI ou Google, DeepSeek V3.2 ouvre une porte. Pas la porte la plus simple à franchir — déployer un modèle de 671 milliards de paramètres demande une infrastructure sérieuse — mais une porte réelle, sans péage.

L’open source continue de prouver qu’il n’est pas qu’un idéal : c’est une stratégie. Et à ce jeu-là, DeepSeek vient de placer la barre très haut.

Sources