Veille IA // Jeudi 24 avril 2026 // Strasbourg
Un milliard de dollars. Levés non pas pour construire un LLM de plus, mais pour parier sur une architecture radicalement différente de tout ce qui domine aujourd’hui le paysage de l’IA. C’est le pari d’AMI Labs — et de son fondateur, l’un des pères intellectuels du deep learning.
Quitter Meta pour refaire l’IA from scratch
Yann LeCun a quitté Meta début 2026 pour fonder AMI Labs, une startup parisienne dont la mission est aussi ambitieuse qu’elle est peu conventionnelle : construire des modèles du monde, ou « world models. » En mars 2026, la société annonçait avoir levé 1,03 milliard de dollars lors d’un tour de table seed valorisant la société à 3,5 milliards de dollars avant investissement — le plus grand seed round de l’histoire européenne.
Le tour est co-mené par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions. Parmi les investisseurs individuels : Tim Berners-Lee (l’inventeur du Web), Mark Cuban, Xavier Niel et Eric Schmidt. Une liste qui ressemble moins à un comité d’investissement classique qu’à un cercle de gens décidés à peser sur l’orientation de l’IA.
L’équipe réunit des pointures : Laurent Solly, ex-VP Meta Europe, comme directeur des opérations ; Saining Xie comme directeur scientifique ; Pascale Fung à la recherche ; Michael Rabbat comme VP world models. LeCun est président. Une équipe résolument internationale, avec un ancrage européen assumé.
Ce que les « world models » changent à l’équation
Pour comprendre l’enjeu, un détour technique s’impose — mais sans jargon inutile.
Les grands modèles de langage (LLM) comme GPT, Claude ou Gemini ont été entraînés à prédire le prochain token — c’est-à-dire le prochain morceau de texte dans une séquence. Ils ont ingéré des quantités astronomiques de texte humain et en ont extrait des patterns statistiques. C’est puissant. Mais c’est aussi fondamentalement limité : un LLM n’a aucune représentation de la réalité physique du monde. Il sait que « une pomme tombe d’un arbre » parce qu’il l’a lu des millions de fois — pas parce qu’il comprend la gravité.
Les « world models » d’AMI Labs reposent sur une architecture différente appelée JEPA — Joint Embedding Predictive Architecture — que LeCun défend depuis 2022. L’idée : plutôt que de prédire des outputs token par token, apprendre des représentations abstraites à partir de données sensorielles réelles. En clair, construire un modèle qui comprend le monde physique parce qu’il l’a « observé », pas parce qu’il a lu des descriptions du monde physique.
Les applications visées sont concrètes : robotique, santé, industrie manufacturière. Des domaines où comprendre la causalité physique — « si je pousse cet objet, que se passe-t-il ? » — est fondamental, et où les LLMs actuels buttent régulièrement.
Une alternative européenne aux empires américains
Ce qui rend l’histoire d’AMI Labs intéressante sur le plan géopolitique, c’est son positionnement. Paris comme base. Architecture distincte de celle des géants de la Silicon Valley. Investisseurs européens en co-lead. Et une vision — les world models — qui tranche avec la course au gigantisme des modèles fermés dominants.
LeCun est depuis longtemps un critique sévère de l’obsession pour les LLMs, qu’il juge fondamentalement sous-optimaux pour atteindre une intelligence générale. Il n’est pas seul : plusieurs chercheurs de renom partagent ce scepticisme. Mais AMI Labs est la première tentative sérieusement capitalisée de traduire cette critique en produit réel.
Est-ce que ça va marcher ? Personne ne peut le dire. Les world models sont séduisants en théorie et difficiles en pratique. Le défi de créer des représentations généralisables du monde physique est immense — certains diraient qu’il est plus difficile encore que les LLMs ne l’ont jamais été. Mais 1,03 milliard de dollars et une équipe de cette envergure, c’est au moins la garantie qu’on va le savoir.
Ce que l’on peut en retenir
Le paradigme LLM a produit des résultats spectaculaires, mais il n’est pas la seule voie possible. Des équipes sérieuses, avec des moyens sérieux, travaillent à des alternatives. C’est une bonne nouvelle — pas parce que les LLMs sont mauvais, mais parce qu’une IA qui ne repose pas sur une seule architecture dominante développée par trois entreprises américaines est structurellement plus robuste et plus diverse.
Que AMI Labs réussisse ou échoue, son existence pose la bonne question à voix haute : de quelle intelligence artificielle avons-nous réellement besoin ? Et qui doit la construire ?
Glossaire express
- LLM (Large Language Model) : grand modèle de langage entraîné à prédire du texte, comme GPT, Claude ou Gemini. Très efficace pour le traitement du langage, mais limité dans sa compréhension du monde physique.
- World model : modèle d’IA cherchant à représenter et comprendre les lois du monde physique à partir de données sensorielles, pas seulement du texte.
- JEPA (Joint Embedding Predictive Architecture) : architecture proposée par Yann LeCun permettant d’apprendre des représentations abstraites du monde sans prédire chaque détail de l’output.
- Token : unité minimale de texte traitée par un LLM — peut être un mot, une syllabe, ou un signe de ponctuation.
- Seed round : premier tour de financement significatif d’une startup, généralement avant tout produit commercialisé.