Anthropic refuse de vendre son âme au Pentagone — et Trump répond par un bannissement

Anthropic refuse les demandes du Pentagone sur l'IA militaire

Vendredi 27 février 2026, 23h01 heure de Bruxelles. La deadline vient d’expirer. Donald Trump poste sur Truth Social, en majuscules : les agences fédérales américaines doivent immédiatement cesser d’utiliser les technologies d’Anthropic. Pete Hegseth, secrétaire à la Défense, classe Anthropic comme « supply chain risk to national security » — une désignation normalement réservée à Huawei et aux entreprises chinoises liées à Pékin.

L’entreprise concernée est américaine, basée à San Francisco, valorisée 380 milliards de dollars. Son crime ? Refuser que son IA soit utilisée pour surveiller massivement les citoyens américains et pour piloter des armes autonomes létales.

Ce bras de fer Anthropic Pentagone IA est l’affrontement tech le plus explosif depuis des années, et il pose des questions qui concernent directement l’Europe.



La chronologie : comment on en est arrivé là

Tout commence en juillet 2025. Anthropic signe un contrat d’une valeur maximale de 200 millions de dollars avec le Département de la Défense américain — rebaptisé « Department of War » par décret de Trump. Claude devient alors le premier et unique modèle IA à fonctionner sur les réseaux classifiés de l’armée américaine, via un partenariat avec Palantir et AWS certifiés Impact Level 6 (le niveau de sécurité le plus élevé du DoD).

Dès le départ, deux usages sont explicitement exclus du contrat : la surveillance de masse des citoyens américains et les armes entièrement autonomes. Pas de polémique à l’époque. Les négociations se déroulent dans la discrétion.

En janvier 2026, premier signe de friction. The Wall Street Journal révèle que Claude a été utilisé via Palantir lors de l’opération de capture du président vénézuélien Nicolás Maduro. Les détails de cet usage restent flous, mais la question se pose : dans quelles conditions exactes l’IA a-t-elle été mobilisée ? Anthropic réaffirme que toute utilisation de Claude, gouvernementale ou non, doit rester dans les clous de sa politique d’usage.

En parallèle, Pete Hegseth publie une note interne intitulée « Accélérer la domination IA de l’armée américaine ». L’objectif : que le DoD puisse utiliser les modèles IA « sans contraintes de politique d’usage » imposées par les entreprises privées.

La tension monte. Le 24 février 2026, Hegseth convoque Dario Amodei — le PDG d’Anthropic — au Pentagone. La réunion est décrite par Axios comme cordiale en surface, mais la substance est brutale : lever toutes les restrictions sur Claude d’ici le vendredi 27 février à 17h01, ou affronter les conséquences.

Le 26 février, Anthropic publie une déclaration officielle sur son site. Dario Amodei est sans ambiguïté : « Ces menaces ne changent pas notre position : en toute conscience, nous ne pouvons pas accéder à leur demande. »

Le Pentagone envoie un nouveau projet de contrat dans la nuit, présenté comme un compromis. Anthropic l’analyse et conclut, selon CNN, que ce texte contient du jargon juridique permettant de « contourner les garde-fous à volonté ». Refus.

Le 27 février, Trump et Hegseth passent aux actes. Le Pentagone dispose de six mois pour sortir Claude de ses systèmes.


Les deux lignes rouges d’Anthropic

Il est important de comprendre ce qu’Anthropic accepte — et ce qu’il refuse — parce que la caricature « Anthropic refuse d’aider l’armée » est fausse.

Claude est déjà utilisé par l’armée américaine pour l’analyse de renseignements, la modélisation de scénarios, la planification opérationnelle et les opérations cyber. Anthropic a même refusé plusieurs centaines de millions de dollars de revenus en bloquant l’accès de Claude aux entités liées au Parti communiste chinois. Ce n’est pas une entreprise pacifiste anti-militaire.

Les deux lignes qu’Anthropic refuse de franchir sont précises.

Première ligne : la surveillance de masse des citoyens américains. Amodei explique que les IA modernes ont une capacité inédite à agréger des données fragmentées en dossiers complets sur n’importe quelle personne. Des données de déplacement, des activités en ligne, des participations à des manifestations, des permis d’armes — isolément, chacune de ces informations est anodine. Agrégées par une IA à grande échelle, elles permettent un profilage de population qu’aucune loi n’interdit explicitement mais qui, selon Anthropic, « viole clairement l’esprit des protections constitutionnelles ». Ingvild Bode, directrice du Centre d’études sur la guerre à l’Université du Danemark du Sud, confirme à France 24 que ce refus « touche à un principe éthique central ».

Deuxième ligne : les armes entièrement autonomes. Claude ne doit pas prendre de décisions létales sans supervision humaine. La raison n’est pas idéologique mais technique. The Register rapporte qu’Amodei l’explique clairement : « Les systèmes IA actuels ne sont tout simplement pas assez fiables pour piloter des armes entièrement autonomes. Nous ne fournirons pas sciemment un produit qui met en danger les soldats et civils américains. » Anthropic aurait même proposé au DoD de collaborer sur la R&D pour améliorer la fiabilité de ces systèmes — offre refusée.

Ces deux limitations ne sont donc pas des positions « woke », comme Trump les a qualifiées. Ce sont des positions de sécurité technique et de droit constitutionnel.


La contradiction que le Pentagone n’a pas su résoudre

Dario Amodei a pointé du doigt une incohérence logique dans la posture du Pentagone que personne n’a vraiment réfutée.

D’un côté, Hegseth menace de classer Anthropic comme « risque pour la chaîne d’approvisionnement » — une désignation réservée aux entreprises perçues comme des extensions d’adversaires étrangers, comme Huawei. Ce serait la première fois qu’une entreprise américaine recevrait ce label.

De l’autre, Hegseth menace d’invoquer le Defense Production Act — une loi de 1950, pensée pour les économies de guerre — pour forcer Anthropic à continuer à servir le Pentagone, au motif que Claude est « essentiel à la sécurité nationale ».

On ne peut pas être simultanément un danger pour la sécurité nationale et un outil indispensable à cette même sécurité. Heise Online souligne cette contradiction. ComputerBase note que les implications pour les entreprises cloud comme Google et Amazon — qui ont des contrats militaires — sont encore floues : comment isoler leurs services Anthropic de leurs contrats DoD ?

Du côté du Sénat, même dans les rangs républicains, des voix critiquent la gestion du dossier. Le sénateur Thom Tillis (républicain, Caroline du Nord) a déclaré que le Pentagone gérait la situation « de manière non professionnelle » et qu’Anthropic essayait simplement de « nous protéger de nous-mêmes ». Mark Warner, démocrate et vice-président de la commission du renseignement, a exprimé des inquiétudes sur le fait que des décisions de sécurité nationale semblent « guidées par des considérations politiques plutôt qu’une analyse rigoureuse », selon le Washington Post.


Qui a cédé, qui a tenu

Le résultat dépend de qui vous regardez.

xAI (Elon Musk) : accord signé. Grok a accès aux réseaux classifiés du Pentagone, sans les restrictions qu’Anthropic refusait de lever. Musk a soutenu Trump vendredi, déclarant sur X qu' »Anthropic déteste la civilisation occidentale ». Ce positionnement ouvre potentiellement à Grok une partie du marché que Claude occupait.

OpenAI : position intermédiaire. Sam Altman a envoyé une note interne à ses équipes indiquant partager les mêmes lignes rouges qu’Anthropic concernant la surveillance de masse et les armes autonomes, selon Axios. Mais Altman souhaite néanmoins trouver un accord avec le Pentagone, signalant que ChatGPT pourrait remplacer Claude si un compromis acceptable est trouvé.

Google : 100 employés ont signé une lettre ouverte appelant leur direction à refuser les mêmes demandes. La direction n’a pas encore pris position officielle.

Anthropic : maintient ses deux lignes rouges, perd son contrat de 200 millions de dollars, et fait face au label « supply chain risk ». Mais CNBC note que ce contrat représente une fraction infime d’un ARR de 14 milliards de dollars. L’entreprise est valorisée 380 milliards. Perdre ce contrat n’est pas existentiellement dangereux — la désignation « supply chain risk » est, elle, potentiellement bien plus problématique.


Les conséquences concrètes pour Anthropic

Le contrat de 200 M$ n’est pas ce qui inquiète les analystes. C’est le domino que le label « supply chain risk » pourrait déclencher.

Cette désignation signifie que toute entreprise travaillant avec le Pentagone — et elles sont nombreuses, des sous-traitants de défense aux grandes banques et au secteur aérospatial — devra prouver qu’elle n’utilise pas Claude dans le cadre de ses activités militaires. Pour beaucoup, la solution la plus simple sera de ne plus utiliser Claude du tout, pour éviter tout risque de compliance.

Anthropic réalise 70 à 75 % de ses revenus via l’API — de grands clients enterprise. Beaucoup d’entre eux ont des contrats militaires, directs ou indirects. Selon CNN, « une large portion de la base de clients existante d’Anthropic pourrait s’évaporer, soit parce qu’ils ont des contrats gouvernementaux, soit parce qu’ils en veulent à l’avenir. »

L’autre risque concerne l’IPO prévue en 2026. Une valuation de 380 milliards repose sur une trajectoire de croissance. L’incertitude créée par ce conflit pourrait compliquer ou retarder l’introduction en bourse.

Pour compléter ce tableau, CNN révèle qu’Anthropic a justement révisé sa « Responsible Scaling Policy » la même semaine — en assouplissant certains engagements de sécurité auto-imposés, notamment la promesse de suspendre l’entraînement de nouveaux modèles si leur fiabilité ne pouvait être garantie. La société dit que c’est une décision séparée, mais le timing crée au moins une image ambiguë.


Ce que l’Europe devrait retenir

Ce conflit n’est pas qu’américain. Il illustre un risque systémique que les entreprises et institutions européennes feraient bien d’intégrer dans leur stratégie.

L’AI Act européen, entré en vigueur progressivement depuis 2024, impose des obligations précises sur les systèmes IA à haut risque — incluant les applications militaires. L’article 6 interdit notamment les systèmes de notation sociale et les systèmes de surveillance en temps réel dans les espaces publics à des fins répressives. Ce sont exactement les usages qu’Anthropic refuse de permettre.

Ce que ce conflit révèle, c’est que les garde-fous contractuels des fournisseurs IA peuvent être remis en question par les clients, même les plus puissants. Si une administration peut tenter de forcer une entreprise américaine à lever ses restrictions par décret présidentiel, la question se pose pour tout client, privé ou public.

Pour les PME wallonnes et belges qui intègrent des outils IA dans leurs processus, la leçon est pratique : les conditions d’usage des fournisseurs ne sont pas de simples cases cochées. Elles définissent ce que le fournisseur peut ou ne peut pas faire avec votre data, vos processus, et les cas d’usage que vous autorisez. Lire et comprendre ces conditions — et les comparer entre fournisseurs — n’est plus une option.

Notre guide complet sur l’Intelligence Artificielle en 2026 revient sur les différences entre les grands modèles IA et les questions de souveraineté numérique si vous voulez approfondir ce contexte.


Ce que ça change pour vous

Concrètement, si vous utilisez Claude dans votre PME ou votre organisation en Belgique, le service fonctionne normalement. Les restrictions américaines ne s’appliquent pas à l’usage commercial international. Anthropic n’a pas perdu ses clients privés ni ses partenariats cloud (AWS Bedrock, Google Cloud, Azure Foundry restent actifs).

Ce que ce conflit change, c’est la manière dont on devrait évaluer les fournisseurs IA. Quelques points concrets à considérer.

Premièrement, les politiques d’usage sont des engagements contractuels. Anthropic a prouvé qu’il était prêt à perdre 200 M$ plutôt que de les trahir. C’est une forme de garantie que peu de fournisseurs offrent de manière aussi visible. D’autres ont accepté sans trop sourciller.

Deuxièmement, la dépendance à un seul fournisseur IA expose à des risques géopolitiques. Si Anthropic avait cédé et que vous désapprouviez l’usage militaire sans supervision humaine, votre fournisseur IA serait devenu complice de quelque chose que vous ne souhaitez pas soutenir. Diversifier ses fournisseurs IA — comme on diversifie ses fournisseurs cloud — est une hygiène que ce conflit rend encore plus évidente.

Troisièmement, le label « supply chain risk » américain n’a aucun effet légal en Europe. Mais si votre entreprise a des partenaires ou clients américains avec des contrats militaires US, il vaut mieux vérifier les implications dans vos propres accords.


Pour résumer

Un contrat de 200 millions de dollars a explosé en vol parce qu’une entreprise IA a refusé de retirer deux clauses de protection : pas de surveillance de masse, pas d’armes sans humain dans la boucle. Le Pentagone a menacé avec tout l’arsenal juridique disponible. Anthropic n’a pas bougé. Trump a banni l’entreprise de l’administration fédérale.

Ce n’est pas une histoire de « woke AI » contre l’armée américaine, quoi qu’en dise Truth Social. C’est une histoire sur qui décide des limites de l’IA dans des contextes à fort enjeu — les entreprises qui développent la technologie, les gouvernements qui la déploient, ou ni l’un ni l’autre mais un cadre légal qui n’existe pas encore.

En Europe, on a au moins commencé à répondre à cette question via l’AI Act. Aux États-Unis, le débat se règle apparemment à coups de décrets présidentiels.

La suite dans six mois, quand la période de transition expire.


Vous intégrez de l’IA dans vos processus et vous voulez comprendre les implications pour votre PME belge ? Notre équipe à Flawinne peut vous aider à évaluer les outils adaptés à votre contexte.


Sources

Sources primaires

Médias anglophones US

Médias anglophones UK

Médias francophones

Médias allemands

Médias russes

Médias japonais

Médias chinois

Médias coréens


Note de transparence : Cet article a été rédigé avec l’assistance de Claude, le modèle IA développé par Anthropic — l’entreprise au cœur de ce sujet. BelgaCore a vérifié l’ensemble des faits de manière indépendante via les sources journalistiques citées.