Le conflit entre [Anthropic](/fr/entreprises/anthropic) et le gouvernement américain vient de franchir un point de non-retour. Le 27 février 2026, le président Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement l'utilisation des technologies d'Anthropic, l'entreprise derrière Claude. La raison : Anthropic a refusé de lever les restrictions de sécurité sur l'usage militaire de son intelligence artificielle.
Chronologie du conflit Anthropic vs Pentagone
Le contrat initial de 200 millions de dollars
À l'été 2025, Anthropic signe un contrat estimé à 200 millions de dollars avec le département de la Défense américain. Claude est alors déployé dans plusieurs agences fédérales, y compris le Pentagone, pour des tâches d'analyse, de synthèse et d'aide à la décision. Le contrat inclut cependant des clauses de restriction imposées par Anthropic, conformément à sa Responsible Scaling Policy — un cadre éthique qui encadre les usages sensibles de son IA.
L'ultimatum du Pentagone (26 février 2026)
Le 26 février 2026, le Pentagone adresse un ultimatum à Anthropic : lever toutes les restrictions sur l'usage militaire de Claude avant 17h01 le lendemain, ou perdre le contrat. Concrètement, le département de la Défense exige qu'Anthropic autorise l'utilisation de Claude pour la surveillance de masse domestique des citoyens américains et pour des systèmes d'armes entièrement autonomes — c'est-à-dire des armes capables de tirer sans supervision humaine.
Point notable : le Pentagone affirme n'avoir jamais envisagé ces usages spécifiques, mais refuse catégoriquement de les interdire dans le contrat.
La réponse d'Anthropic : "cannot in good conscience"
Le même jour, Anthropic rejette publiquement l'ultimatum. Le CEO Dario Amodei publie une déclaration sans ambiguïté :
“Threats do not change our position: we cannot in good conscience accede to their request.”
Anthropic précise que ses lignes rouges sont non négociables : pas de surveillance de masse domestique, pas d'armes autonomes sans contrôle humain. L'entreprise se dit prête à collaborer avec le gouvernement sur des usages responsables de l'IA, mais pas à abandonner ses principes de sécurité.
L'ordre exécutif de Trump (27 février 2026)
Le 27 février 2026, Donald Trump ordonne à toutes les agences fédérales de cesser immédiatement l'utilisation des technologies d'Anthropic. Sur Truth Social, le président écrit :
“We don't need it, we don't want it, and will not do business with them again!”
Dans la foulée, le secrétaire à la Défense Pete Hegseth désigne officiellement Anthropic comme un "supply chain risk" (risque pour la chaîne d'approvisionnement) — une désignation habituellement réservée aux entreprises soupçonnées d'être des extensions d'adversaires étrangers, comme certains fournisseurs chinois. C'est la première fois qu'une entreprise américaine d'IA reçoit cette qualification.
Les agences gouvernementales disposent de 6 mois pour se désengager complètement des produits Anthropic.
Anthropic porte l'affaire en justice (28 février 2026)
Le 28 février, Anthropic annonce qu'il contestera la décision devant les tribunaux. L'entreprise considère la désignation de "supply chain risk" comme abusive et disproportionnée, et argue que la décision du Pentagone constitue une forme de rétorsion contre l'exercice légitime de ses droits contractuels.
Pourquoi Anthropic a refusé : les lignes rouges de l'IA
Surveillance de masse domestique
Anthropic refuse que Claude soit utilisé pour surveiller massivement les citoyens américains sur le sol national. Ce type d'usage soulève des questions fondamentales en matière de libertés civiles et de respect du 4e amendement de la Constitution américaine, qui protège contre les fouilles et saisies abusives.
Armes autonomes sans supervision humaine
La seconde ligne rouge concerne les armes létales autonomes — des systèmes capables de sélectionner et d'engager des cibles sans intervention humaine. C'est un sujet de débat mondial : de nombreux experts en IA et organisations internationales plaident pour le maintien d'un contrôle humain dans la chaîne de décision létale (principe du human-in-the-loop).
La Responsible Scaling Policy d'Anthropic
Depuis sa création, Anthropic se positionne comme une entreprise d'IA axée sur la sécurité. Sa Responsible Scaling Policy définit des niveaux de risque (ASL) pour ses modèles et impose des restrictions d'usage proportionnelles. Cette politique est au coeur de l'identité d'Anthropic et constitue un argument commercial majeur face à ses concurrents : Claude est présenté comme l'IA la plus sûre et la plus alignée du marché.
Les conséquences pour l'industrie de l'IA
OpenAI signe avec le Pentagone
Coïncidence ou opportunisme, OpenAI (l'entreprise derrière ChatGPT) a annoncé un nouveau contrat avec le Pentagone dans les heures suivant le bannissement d'Anthropic. Ce timing illustre la compétition féroce entre les entreprises d'IA pour les contrats gouvernementaux — et les choix éthiques divergents qu'elles font.
"Supply chain risk" : une désignation sans précédent
La désignation d'Anthropic comme "supply chain risk" est inédite pour une entreprise américaine de technologie. Cette catégorie, créée pour contrer les menaces d'adversaires étrangers (Chine, Russie), est utilisée ici contre une entreprise basée à San Francisco. Des experts juridiques et des analystes du secteur de la défense ont immédiatement exprimé des réserves sur la légalité et la proportionnalité de cette mesure.
6 mois de transition pour les agences fédérales
Les agences gouvernementales ont jusqu'à fin août 2026 pour migrer vers d'autres solutions. Cela représente un défi logistique considérable : Claude était intégré dans de nombreux workflows de l'administration. Les alternatives probables incluent les modèles d'OpenAI (GPT-4), de Google (Gemini) et de xAI (Grok), propriété d'Elon Musk.
Ce que ça change pour les utilisateurs de Claude
Impact sur le service Claude pour le grand public
Pour les utilisateurs particuliers et les entreprises privées, rien ne change. Le bannissement ne concerne que les agences fédérales et les sous-traitants du gouvernement américain. Claude reste pleinement disponible pour les particuliers, les entreprises et les développeurs via claude.ai, l'API et Claude Code.
Claude vs ChatGPT : un positionnement éthique différent
Cette affaire cristallise la différence de positionnement entre Claude et ChatGPT. Anthropic choisit de maintenir ses principes de sécurité même au prix d'un contrat de 200 millions de dollars et d'une confrontation directe avec le pouvoir exécutif. OpenAI, de son côté, saisit l'opportunité commerciale. Pour les utilisateurs qui attachent de l'importance à l'éthique et à la sécurité de leur IA, ce positionnement est un critère de choix significatif.
L'avenir d'Anthropic après le bannissement
Malgré la perte du contrat gouvernemental, Anthropic reste dans une position solide. L'entreprise a levé plus de 7 milliards de dollars, compte des millions d'utilisateurs dans le monde et ses modèles Claude sont reconnus comme parmi les plus performants du marché. L'action en justice contre le Pentagone pourrait créer un précédent juridique important sur les droits des entreprises d'IA face aux exigences gouvernementales.
À plus long terme, cette affaire pourrait même renforcer la marque Anthropic auprès des utilisateurs soucieux d'éthique et de sécurité, en particulier en Europe où les réglementations sur l'IA militaire sont plus strictes.
Questions fréquentes
Cet article sera mis à jour à mesure que la situation évolue. Dernière mise à jour : 28 février 2026.
Suivez l'actualité IA
Recevez les dernières analyses et comparatifs directement dans votre boîte mail.
Pas de spam. Desinscription en 1 clic.


