Le 27 février, Donald Trump a publié un long message sur Truth Social ordonnant à toutes les agences fédérales américaines de cesser immédiatement tout usage de la technologie d'Anthropic. Une décision radicale, née de désaccords profonds entre le département de la défense et la société californienne spécialisée en intelligence artificielle. Mais quelques heures seulement après cette déclaration, les États-Unis menaient une frappe aérienne d'envergure contre l'Iran, avec, selon le Wall Street Journal, l'appui direct des outils d'Anthropic.
L'ironie est difficile à ignorer, au moment même où le président américain signait sa directive, les algorithmes d'Anthropic guidaient déjà des opérations militaires à l'autre bout du monde. Trump a précisé dans son message qu'une période de transition de six mois serait accordée aux agences encore dépendantes des produits d'Anthropic, notamment le département de la guerre. Autrement dit, le divorce ne sera pas immédiat. Les administrations concernées auront le temps de migrer vers d'autres solutions, mais la direction est claire. Claude et les autres outils de l'entreprise n'ont plus leur place dans l'écosystème fédéral local.
Cette décision soulève pourtant des questions pratiques considérables. Remplacer une infrastructure d'IA profondément intégrée dans les opérations d'une agence aussi complexe que le Pentagone ne se fait pas du jour au lendemain. Selon le WSJ toujours, le processus de remplacement pourrait prendre plusieurs mois, même en mobilisant toutes les ressources nécessaires. Ce qui me frappe dans cette affaire, c'est la révélation que l'usage militaire d'Anthropic ne date pas d'hier. Le Wall Street Journal avait déjà rapporté que Claude avait joué un rôle dans la capture de l'ancien président vénézuélien Nicolás Maduro, désormais destitué. Une opération d'une sensibilité diplomatique extrême, conduite en partie grâce à une IA commerciale.
Ces informations dressent le portrait d'une technologie civile utilisée à des fins militaires et géopolitiques bien au-delà de ce que le grand public imaginait. Et elles posent une question fondamentale: jusqu'où une entreprise privée peut-elle (ou doit-elle) accepter que ses outils soient intégrés dans des opérations de guerre ou de renseignement ?
Face au vide laissé par Anthropic, le département de la défense semble déjà avoir tracé sa nouvelle feuille de route. Des accords ont été conclus avec xAI, la société d'Elon Musk, ainsi qu'avec OpenAI, pour déployer leurs modèles au sein des réseaux fédéraux. Une transition qui reflète autant des choix technologiques que des affinités politiques. Musk étant l'un des proches conseillers de Trump dans le cadre du controversé département de l'efficacité gouvernementale (le DOGE). Le marché de l'IA militaire et fédérale est en pleine recomposition. Et cette affaire Anthropic démontre à quel point les décisions technologiques au sommet de l'État américain sont désormais indissociables des tensions politiques, des alliances personnelles et des rivalités entre géants de la Silicon Valley.
Au-delà des enjeux américains, cet épisode envoie un signal fort à toute l'industrie. Les contrats gouvernementaux, aussi lucratifs soient-ils, restent exposés aux volte-face politiques. La confiance entre une administration et une entreprise tech peut s'effondrer en quelques heures et avec elle, des années de partenariat stratégique. L'ère où l'IA pouvait rester neutre dans les conflits politiques et militaires semble définitivement révolue.

Commentaires