Veille IA // Jeudi 27 mars 2026 // Strasbourg

Une juge fédérale de San Francisco vient de bloquer les sanctions de l’administration américaine contre Anthropic, le créateur de Claude. Le tribunal qualifie la décision du Pentagone de classer Anthropic comme « risque pour la chaîne d’approvisionnement » de mesure « orwellienne » et probablement illégale. Pendant qu’Anthropic dit non aux armes autonomes et à la surveillance de masse, OpenAI signe le même jour avec le Pentagone sans poser la moindre condition. Il y a ceux qui ont des principes, et ceux qui ont des contrats.

📋 Dans cet article

  1. La chronologie des faits
  2. Ce que j’en retiens

La chronologie des faits

Tout commence en juillet 2025, quand Anthropic signe un contrat de 200 millions de dollars avec le Pentagone pour déployer Claude sur les réseaux classifiés du Département de la Défense. Jusqu’ici, tout va bien.

En septembre, les négociations déraillent. Le Pentagone exige un accès illimité aux modèles d’Anthropic pour « tous les usages légaux ». Anthropic pose deux lignes rouges : pas d’armes autonomes, pas de surveillance de masse des citoyens américains. Le Pentagone refuse ces restrictions.

Le 24 février 2026, le secrétaire à la Défense envoie un ultimatum formel à Anthropic : retirer toutes les restrictions d’usage, y compris celles sur les armes autonomes et la surveillance domestique. Anthropic refuse.

Le 27 février, la réponse de l’administration est d’une brutalité qui en dit long sur sa conception du dialogue. Pas de négociation, pas de médiation — une punition immédiate. Le président ordonne à toutes les agences fédérales de cesser immédiatement d’utiliser les technologies d’Anthropic. Le Pentagone classe simultanément l’entreprise comme « risque pour la chaîne d’approvisionnement » — une désignation normalement réservée aux acteurs étrangers hostiles. Autrement dit : une entreprise américaine est traitée comme un ennemi de l’État parce qu’elle a dit « non, pas pour tuer des gens ».

Et dans un timing qui ne trompe personne, OpenAI annonce le même jour avoir conclu un accord avec le Département de la Défense. Sans conditions éthiques, sans lignes rouges sur les armes autonomes, sans restrictions sur la surveillance. Quand Anthropic refuse de livrer sa technologie sans garde-fous, OpenAI se précipite pour prendre la place, les yeux fermés et le carnet de chèques ouvert. On parle d’une entreprise qui se présentait comme championne de la « sécurité de l’IA » il y a deux ans. Aujourd’hui, elle s’aligne avec une administration qui a fait de la désinformation un outil de gouvernance.

Le 9 mars, Anthropic porte l’affaire devant un tribunal fédéral de San Francisco. Le 24 mars, lors de l’audience, la juge Lin déclare : « Je ne sais pas si c’est un meurtre, mais ça ressemble à une tentative d’estropier Anthropic. »

Et hier, 26 mars, la juge Rita F. Lin rend sa décision : injonction préliminaire en faveur d’Anthropic. Le Pentagone doit retirer sa désignation de risque sécuritaire et cesser d’interdire aux agences fédérales de travailler avec l’entreprise. Le gouvernement a sept jours pour faire appel.

Ce que j’en retiens

Cette affaire dépasse largement le cadre d’un litige contractuel. C’est un test de caractère pour l’industrie de l’IA, et les résultats sont sans appel.

D’un côté, Anthropic refuse de retirer ses garde-fous éthiques, se fait blacklister, traîner dans la boue, qualifier de menace pour la sécurité nationale — et porte l’affaire devant la justice. De l’autre, OpenAI signe sans broncher avec une administration qui a systématiquement instrumentalisé la désinformation, attaqué la presse, et tenté de transformer chaque levier de l’État en outil de contrôle politique. On sait maintenant qui, dans cette industrie, a des convictions — et qui n’a qu’une stratégie commerciale.

La juge Lin n’y est pas allée de main morte — et c’est rassurant. Qualifier la position du Pentagone d’« orwellienne », c’est un mot qu’un tribunal fédéral américain ne lâche pas à la légère. Ce que dit cette décision : l’administration Trump a tenté d’utiliser l’appareil sécuritaire de l’État pour détruire une entreprise parce qu’elle a osé poser des limites éthiques. C’est de l’intimidation institutionnelle, et la justice l’a qualifiée comme telle.

Pour nous en Europe, et depuis Strasbourg, cette affaire pose une question fondamentale. Quand une entreprise d’IA dit « notre technologie ne servira pas à fabriquer des armes autonomes ni à surveiller des citoyens », et que la réponse du gouvernement le plus puissant du monde est de la blacklister — que dit-on de l’état du débat démocratique sur l’IA ? Ce que dit le tribunal de San Francisco, c’est que même aux États-Unis, il reste des contre-pouvoirs. C’est une bonne nouvelle dans un contexte où ils sont de plus en plus rares.

L’affaire n’est pas terminée — le gouvernement fera probablement appel, c’est dans l’ADN de cette administration de ne jamais accepter un « non ». Mais ce premier round envoie un message puissant : la justice américaine ne laissera pas le pouvoir exécutif transformer l’IA en outil de contrôle sans contre-pouvoir.

Merci à Anthropic d’avoir tenu bon. Et à OpenAI : l’histoire se souviendra de qui a choisi quel camp quand il fallait choisir.

Glossaire express

Injonction préliminaire : décision de justice temporaire qui bloque une action gouvernementale en attendant le jugement définitif. C’est un signal fort : le tribunal estime que le plaignant a de bonnes chances de gagner au fond.
Supply chain risk : désignation officielle du Pentagone qui classe un fournisseur comme menace pour la sécurité de la chaîne d’approvisionnement. Normalement utilisée contre des acteurs étrangers hostiles, jamais contre une entreprise américaine pour un désaccord contractuel.
Premier Amendement : le fondement de la liberté d’expression dans la Constitution américaine. Le tribunal considère que punir Anthropic pour avoir publiquement contesté les conditions du Pentagone constitue une « représaille illégale » au sens du 1er Amendement.
GenAI.mil : plateforme d’IA générative du Département de la Défense américain, sur laquelle Claude devait être déployé avant le conflit.

Sources

⚡ À retenir

  • La chronologie des faits
  • Ce que j’en retiens

Vous trouvez cette veille utile ?

Retrouvez chaque jour les actus Tech & IA sur alsace.ai