Le 2 avril 2026, Google DeepMind a publié Gemma 4, une nouvelle famille de quatre modèles d’intelligence artificielle entièrement open source. Cette décision mérite qu’on s’y arrête : pour la première fois, des développeurs du monde entier peuvent accéder à des modèles multimodaux performants, librement modifiables et exploitables commercialement, sans dépendre de l’écosystème fermé des grands acteurs du cloud. Avec plus de 400 millions de téléchargements cumulés pour la famille Gemma, Google confirme que l’open source en IA n’est plus une exception curieuse — c’est une stratégie à part entière.

Quatre modèles pour tous les usages

Gemma 4 se décline en quatre variantes, chacune conçue pour un contexte précis :

Tous les modèles supportent le multilingue nativement — 140 langues. Et selon la taille, la fenêtre de contexte va de 128 000 tokens (E2B, E4B) à 256 000 tokens (26B et 31B) : de quoi traiter des documents entiers, des dépôts de code ou des séquences vidéo longues sans perdre le fil.

Pourquoi la licence Apache 2.0 change vraiment tout

La licence n’est pas un détail administratif. Apache 2.0, c’est la clé qui ouvre l’écosystème.

Elle autorise sans ambiguïté l’usage commercial (intégrer Gemma 4 dans un produit payant, une API, une application SaaS sans demander l’autorisation à Google), la modification (affiner le modèle, créer une variante spécialisée), la distribution (partager, redéployer), et le tout de façon irrévocable : Google ne peut pas changer les règles du jeu une fois la licence accordée.

Ce cadre contraste fortement avec les licences « semi-ouvertes » de certains concurrents, qui interdisent l’usage commercial au-delà d’un certain nombre d’utilisateurs, ou qui réservent le droit de révoquer l’accès. Ici, les règles sont claires, stables, et favorisent l’innovation collective.

Open source comme contrepoids — et opportunité locale

Depuis deux ans, le marché de l’IA gravite autour d’un duopole de modèles fermés, accessibles via API payante. Gemma 4 renforce l’alternative. Trois raisons concrètes :

Indépendance technologique. Startups, universités, administrations, PME : personne n’est plus otage des tarifs d’API d’un acteur américain pour déployer un modèle performant. Un labo de recherche strasbourgeois ou une entreprise du Grand Est peut maintenant faire tourner un modèle de niveau frontier en local, sans coûts récurrents et sans dépendance cloud.

Efficacité sans moyens illimités. Le 26B MoE sur un seul GPU H100, c’est la preuve que la performance n’est plus réservée aux hyperscalers. Avec les bonnes architectures, on fait beaucoup avec peu.

Un bien commun qui se perfectionne. Chaque modèle ouvert enrichit l’écosystème global : les architectures circulent, les affinements se partagent, les benchmarks s’améliorent collectivement. Gemma 4 s’inscrit dans cette logique de communs numériques.

Conclusion

Gemma 4 est un signal autant technique que politique. Google choisit de ne pas enfermer ses avancées — il les partage, les sécurise juridiquement via Apache 2.0, et accepte que l’écosystème les améliore. C’est la bonne direction. L’open source ne gagnera pas en criant contre les modèles fermés, mais en étant meilleur, plus accessible et plus honnête sur ses capacités. Avec Gemma 4, Google vient de signer cet engagement.

Glossaire express

MoE (Mixture of Experts) : architecture où différentes parties du modèle se spécialisent. Lors de l’inférence, seuls les experts pertinents s’activent — d’où des consommations énergétiques réduites à paramètres équivalents.

Apache 2.0 : licence open source permissive autorisant usage commercial, modification et distribution sans restriction. Inclut une protection en cas de procès en brevets.

Benchmark : test standardisé mesurant les performances d’un modèle. AIME 2026 mesure le raisonnement mathématique, LiveCodeBench la génération de code, Arena AI compare les modèles par votes humains.

Sources