Veille IA // Jeudi 2 avril 2026 // Strasbourg

L’IA ne se contente plus d’écrire du code : elle peut désormais utiliser votre ordinateur comme un humain le ferait — ouvrir une fenêtre, cliquer dans les interfaces graphiques, lire l’écran, puis corriger ses propres erreurs en temps réel.

Ce qui se passe

La capacité dite « Computer Use » vient d’être intégrée directement dans Claude Code, l’agent de développement en ligne de commande d’Anthropic. Jusqu’ici, cet agent pouvait lire et écrire du code, lancer des commandes dans le terminal, mais restait aveugle à tout ce qui se passait en dehors : les fenêtres ouvertes, les interfaces graphiques, les comportements visuels d’une application.

Désormais, l’agent peut ouvrir des applications, cliquer dans des interfaces, prendre des captures d’écran et analyser ce qu’il voit pour déboguer visuellement son propre travail — le tout sans quitter le terminal. La fonctionnalité est disponible en preview pour les utilisateurs macOS disposant d’un abonnement Pro ou Max.

Ce que ça change concrètement

Jusqu’ici, un agent IA de développement était limité à ce qu’il pouvait lire dans des fichiers ou dans des sorties texte. Il ne pouvait pas vérifier comment son code s’affichait dans un navigateur, ni interagir avec un logiciel tiers qui n’expose pas d’API. Avec cette intégration, l’agent peut fermer une fenêtre bloquante, vérifier le rendu visuel d’une interface ou déboguer une anomalie graphique — des tâches qui demandaient jusqu’ici une intervention humaine.

Ce n’est pas une brique isolée : c’est une pièce supplémentaire dans un pipeline d’automatisation du développement logiciel de bout en bout. L’agent n’a plus seulement accès au texte — il a désormais accès à l’environnement visuel complet.

Mon analyse

Je retiens deux choses de cette annonce.

La première, c’est que la direction est sans ambiguïté : on construit des agents capables de prendre en charge un cycle de développement complet, sans assistance humaine à chaque étape. L’ajout du contrôle visuel est une pièce manquante non négligeable dans cette chaîne. Un agent qui peut voir ce qu’il fait, c’est un agent qui peut détecter et corriger des classes entières d’erreurs qui échappaient complètement aux outils précédents.

La deuxième chose, c’est la contrainte de disponibilité. Preview sur macOS, abonnements payants uniquement : pour les équipes sous Windows ou Linux, ou pour celles qui gèrent des budgets serrés, cette fonctionnalité reste hors de portée dans l’immédiat. Ce n’est pas une technologie disponible pour tout le monde aujourd’hui.

Le vrai indicateur à surveiller, c’est la fiabilité sur des interfaces non standardisées. Cliquer sur un bouton dans une application maison, naviguer dans un logiciel métier vieillissant, interagir avec une interface qui n’a pas été conçue pour être lisible par une machine — c’est là que l’autonomie d’un agent se mesure vraiment. Les cas nominaux sont faciles. Les cas limites, c’est une autre histoire.

Glossaire express

Computer Use : Capacité d’une IA à interagir avec une interface graphique — lire l’écran, déplacer la souris, cliquer — comme le ferait un utilisateur humain.

Agent de développement : Système d’IA qui ne se contente pas de suggérer du code, mais l’exécute, le teste et l’ajuste de façon autonome dans un environnement réel.

CLI (Command Line Interface) : Interface en ligne de commande — le terminal, par opposition aux interfaces graphiques à fenêtres.

Preview : Version préliminaire d’une fonctionnalité, accessible à certains utilisateurs avant son déploiement général.