Veille IA // Vendredi 27 mars 2026 // Strasbourg
Cursor, l’éditeur de code IA valorisé à plusieurs milliards de dollars, a reconnu que son dernier modèle Composer 2 est construit sur Kimi K2.5, un modèle open source développé par la startup chinoise Moonshot AI. Le problème : Cursor n’en avait rien dit à ses utilisateurs. Un développeur a découvert la filiation en inspectant les identifiants internes de l’API. Le scandale relance le débat sur la transparence dans l’écosystème IA.
📋 Dans cet article
- Les faits : un modèle chinois sous le capot
- La défense de Cursor
- Ce que j’en retiens
- Glossaire express
Les faits : un modèle chinois sous le capot
Tout commence quand un développeur découvre des identifiants internes dans l’API OpenAI-compatible de Cursor révélant que Composer 2 est en réalité Kimi K2.5, le modèle open-weight de Moonshot AI, fine-tuné avec du reinforcement learning par Cursor.
Le problème n’est pas technique — utiliser un modèle open source comme base est une pratique courante et légitime. Le problème, c’est que Cursor n’a jamais mentionné Kimi dans ses communications marketing. Pire : la licence de Kimi K2.5 exige explicitement une attribution visible pour tout produit dépassant un million d’utilisateurs actifs mensuels ou 20 millions de dollars de revenus mensuels. Or, Cursor affiche un revenu annualisé de 2 milliards de dollars. Difficile de plaider l’ignorance.
La défense de Cursor
Confrontée au scandale, l’entreprise a fini par reconnaître les faits. Son argument : seulement 25% du compute du modèle final provient de la base Kimi K2.5, les 75% restants étant issus de l’entraînement propre de Cursor par reinforcement learning. L’entreprise affirme par ailleurs avoir utilisé Kimi dans le cadre d’un partenariat commercial autorisé avec Fireworks AI, le fournisseur d’inférence.
Moonshot AI, de son côté, a confirmé que l’utilisation par Cursor était conforme aux termes de la licence — mais cela ne résout pas la question de la transparence vis-à-vis des utilisateurs finaux.
Ce que j’en retiens
Cette affaire est un cas d’école sur ce qui ne va pas dans l’écosystème IA en ce moment. On a une startup américaine valorisée à des milliards qui vend un produit « frontier-level » sans mentionner que le modèle sous-jacent vient d’une startup chinoise. Ce n’est pas illégal, mais c’est un problème de confiance.
Soyons clairs : utiliser Kimi K2.5 comme base n’a rien de honteux. C’est un excellent modèle, et le fine-tuning par RL de Cursor apporte clairement de la valeur ajoutée. Le vrai problème, c’est le silence. Quand on vend un outil d’IA à des développeurs — des gens qui comprennent ce que signifie « open source » et « attribution » — le minimum, c’est la transparence sur la chaîne de dépendances.
Plus largement, cette affaire pose une question fondamentale : dans un monde où les modèles IA sont empilés les uns sur les autres comme des couches géologiques, qui est responsable de quoi ? Si votre assistant de code utilise un modèle chinois fine-tuné par une startup américaine et servi via un tiers, que savez-vous réellement de ce qui tourne sous le capot ?
La licence de Kimi exigeait une attribution. Cursor ne l’a pas faite. Peu importe les justifications techniques : quand on joue dans la cour des milliards, on respecte les règles du jeu — surtout celles de l’open source qui nous a permis d’arriver là.
Glossaire express
Open-weight — Se dit d’un modèle IA dont les poids (les paramètres appris) sont publiés et réutilisables, mais dont le code d’entraînement ou les données ne sont pas nécessairement partagés. C’est une nuance importante par rapport au « vrai » open source.
Reinforcement Learning (RL) — Technique d’entraînement où un modèle apprend en recevant des récompenses ou des pénalités en fonction de la qualité de ses réponses. C’est ce que Cursor a utilisé pour affiner Kimi K2.5 selon ses besoins spécifiques en génération de code.
Attribution — Obligation, souvent inscrite dans les licences open source, de créditer les créateurs originaux d’un logiciel ou d’un modèle quand on l’utilise dans un produit commercial.
Fine-tuning — Processus d’adaptation d’un modèle IA pré-entraîné à une tâche spécifique, en le réentraînant sur un jeu de données ciblé. C’est plus rapide et moins coûteux que de partir de zéro.
Sources
- TechCrunch — Cursor admits its new coding model was built on Moonshot AI’s Kimi
- Dataconomy — Cursor Admits Composer 2 Based On Kimi 2.5
- Benzinga — Cursor Faces Backlash
- Security Boulevard — Moonshot AI governance breakdown
⚡ À retenir
- Cursor n’a jamais mentionné Kimi dans ses communications marketing
- 2 milliards de dollars
- partenariat commercial autorisé
Vous trouvez cette veille utile ?
Retrouvez chaque jour les actus Tech & IA sur alsace.ai