Le Pentagone signe huit contrats IA pour ses réseaux classifiés IL6/IL7 avec OpenAI, Google, AWS, Microsoft, NVIDIA, SpaceX, Reflection et Oracle. Anthropic, qui refuse l'emploi de Claude pour le ciblage autonome, est nommément écarté.
En bref
- Le Pentagone a annoncé le 1er mai 2026 huit contrats IA pour ses réseaux classifiés Impact Level 6 et 7, avec OpenAI, Google, Microsoft, AWS, NVIDIA, SpaceX, Oracle et Reflection.
- Anthropic, pourtant fournisseur historique de Claude au DoD, est exclu nommément, le War Department le considérant comme un risque de chaîne d'approvisionnement depuis mars 2026.
- Le différend porte sur les garde-fous : Anthropic refuse l'emploi de Claude pour des armes autonomes ou de la surveillance de masse domestique, ce que le Pentagone qualifie d'« obstacle à un usage légalement permissif ».
Ce qui s'est passé
Le War Department a confirmé vendredi 1er mai 2026 la signature de huit accords-cadres avec un panel d'éditeurs et d'hyperscalers américains pour déployer des modèles d'intelligence artificielle dans ses environnements les plus sensibles. Les heureux élus s'appellent OpenAI, Google, Microsoft, Amazon Web Services, NVIDIA, SpaceX (via xAI), Oracle et Reflection. Tous obtiennent l'autorisation d'opérer dans des zones dites Impact Level 6 et Impact Level 7, c'est-à-dire les réseaux où transitent la planification de mission, l'analyse de renseignement et la conduite de feu — bref, ce que le DoD considère comme le périmètre vital de la défense américaine.
L'absence la plus remarquée est celle d'Anthropic. La société dirigée par Dario Amodei, dont le modèle Claude était utilisé jusqu'ici par plusieurs commandements opérationnels et par l'US Air Force pour de l'aide à la décision, a été nommément écartée du périmètre. Emil Michael, Chief Technology Officer du War Department, a justifié cette exclusion auprès de CNBC en désignant Anthropic comme un « risque de chaîne d'approvisionnement persistant », statut acquis lors de sa désignation officielle au mois de mars 2026.
Le différend trouve son origine dans une clause contractuelle non négociable que le Pentagone impose à tous ses fournisseurs : les modèles doivent pouvoir être utilisés « pour tout usage légalement permissif » par les forces armées. Anthropic refuse de signer cette formulation, parce qu'elle inclurait l'emploi autonome de Claude pour le ciblage cinétique, la planification offensive de campagnes cyber et la surveillance de masse domestique. La société exige des dérogations explicites sur ces trois cas d'usage, position que le DoD juge incompatible avec la doctrine actuelle.
La querelle a déjà connu un épisode judiciaire. Anthropic a porté plainte contre l'administration Trump pour ce qu'elle qualifie de « rétorsion politique » suite à son refus, et un juge fédéral en Californie a délivré une injonction temporaire bloquant la mise en œuvre du blacklisting. Cette décision n'a toutefois pas empêché le War Department de boucler les huit contrats annoncés vendredi : l'injonction visait la procédure de désignation, pas la liberté contractuelle du DoD de retenir d'autres fournisseurs.
Sur le plan technique, les huit contrats prévoient l'hébergement des modèles dans des bulles GovCloud certifiées DISA pour IL6/IL7, avec déploiements physiques sur des serveurs séparés du domaine commercial. OpenAI confirme que GPT-5.5 sera livré dans la version « OpenAI for Government » déjà annoncée à l'automne 2025. Google déploie Gemini 2.5 Pro et Gemini 3 sur Vertex AI Government. Microsoft intègre Azure OpenAI Service à son offre Azure Government Top Secret. Reflection, plus discret, est une jeune pousse fondée par d'anciens chercheurs de DeepMind et de Meta AI, qui propose un modèle agentique spécialisé en analyse de renseignement.
Côté infrastructure, AWS et SpaceX se positionnent sur la couche réseau et calcul : Trainium3 d'AWS et les liaisons Starshield de Starlink équiperont plusieurs théâtres d'opération. NVIDIA fournit ses GPU H200 et B200 dans des configurations DGX SuperPOD durcies, tandis qu'Oracle complète l'offre par OCI Government Cloud, déjà accrédité au niveau IL6. Le montant exact des contrats n'a pas été rendu public, mais les fuites évoquent une enveloppe globale supérieure à 4 milliards de dollars sur trois ans.
Pour Anthropic, l'éviction tombe au plus mauvais moment commercial. La société venait d'annoncer Mythos, un modèle frontier au cyber « offensive-grade » dont la mise en production a été temporairement gelée à la demande du Congrès. Le retrait du contrat DoD prive Anthropic d'un canal de distribution majeur dans le segment fédéral américain, là où ses concurrents engrangent désormais des revenus récurrents indexés sur la consommation de tokens classifiés.
Donald Trump, interrogé jeudi à la Maison-Blanche, a laissé entendre qu'Anthropic « se redressait » à ses yeux et que la porte n'était pas définitivement fermée. La Maison-Blanche aurait rouvert un canal de discussion ces dernières semaines, à la faveur de plusieurs annonces techniques d'Anthropic — dont Mythos précisément — qui ont rappelé son poids dans la course aux capacités. Mais aucun calendrier de réintégration n'a été communiqué.
Pourquoi c'est important
L'affaire dépasse largement le périmètre Pentagone-Anthropic. Elle marque une rupture politique dans la doctrine d'adoption de l'IA par le gouvernement américain : pour la première fois, un éditeur frontier est explicitement écarté d'un marché stratégique pour avoir refusé un cas d'usage offensif. Jusqu'ici, OpenAI avait fait évoluer ses Conditions d'utilisation pour autoriser les usages militaires sans heurts ; Google avait renoncé à son moratoire interne post-Project Maven ; Anthropic est désormais la seule grande entreprise à camper sur des lignes rouges éthiques publiques.
Pour les RSSI européens et français, l'épisode est riche d'enseignements. Premièrement, la souveraineté contractuelle des fournisseurs cloud n'est pas symétrique : un acteur américain a la possibilité de refuser un client à condition d'accepter le coût politique. Deuxièmement, la clause « tout usage légalement permissif » devient un standard de fait dans les contrats de défense ; elle pourrait migrer vers le secteur public civil par contagion réglementaire. Les directions juridiques en charge des appels d'offres avec composante IA doivent désormais anticiper ce vocabulaire.
Troisièmement, l'exclusion d'Anthropic redistribue les cartes du marché. OpenAI, Google et Microsoft consolident leur emprise sur les administrations fédérales américaines, ce qui mécaniquement déforme leurs roadmaps : les évolutions produit prioriseront les besoins gouvernementaux (longs contextes, traçabilité forensique, déclassification automatique) au détriment d'usages publics. Anthropic, privé du canal DoD, devra accélérer sur le secteur privé régulé — santé, finance, énergie — où ses positions sécurité-by-design font figure de différenciateur.
Enfin, le précédent ouvre une question structurelle pour les organisations européennes qui s'appuient sur Claude pour des usages sensibles : que se passe-t-il si Anthropic, fragilisé commercialement aux États-Unis, se voit imposer des concessions sur ses lignes éthiques par ses propres investisseurs ? Google détient désormais 40 milliards de dollars dans Anthropic ; Amazon est aussi un investisseur de premier plan. Les accords de gouvernance signés en 2024 protègent en principe l'indépendance d'Amodei, mais l'évolution récente du dossier Pentagone montre que les pressions politiques peuvent contourner les pactes d'actionnaires.
Ce qu'il faut retenir
- Le DoD a contractualisé huit IA pour ses réseaux IL6/IL7 ; le marché américain de l'IA militaire bascule définitivement en mode plateforme.
- La clause « tout usage légalement permissif » devient le filtre d'entrée : les éditeurs qui veulent vendre à la défense américaine doivent accepter le ciblage et la surveillance.
- Pour les RSSI européens, vigilance sur la dépendance à Anthropic et sur l'émergence de la même clause dans les contrats publics européens.
Qu'est-ce que les niveaux Impact Level 6 et 7 du DoD ?
IL6 et IL7 sont les deux niveaux les plus sensibles de la nomenclature DISA pour les services cloud à destination du Pentagone. IL6 couvre les informations classifiées jusqu'au niveau Secret, IL7 monte au niveau Top Secret. Ces environnements imposent une isolation physique des serveurs, un personnel d'exploitation habilité, des procédures d'effacement cryptographique et une chaîne d'approvisionnement entièrement traçable, depuis le silicium jusqu'au runtime.
Besoin d'un accompagnement expert ?
Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.
Prendre contactÀ propos de l'auteur
Ayi NEDJIMI
Auditeur Senior Cybersécurité & Consultant IA
Expert Judiciaire — Cour d'Appel de Paris
Habilitation Confidentiel Défense
ayi@ayinedjimi-consultants.fr
Ayi NEDJIMI est un vétéran de la cybersécurité avec plus de 25 ans d'expérience sur des missions critiques. Ancien développeur Microsoft à Redmond sur le module GINA (Windows NT4) et co-auteur de la version française du guide de sécurité Windows NT4 pour la NSA.
À la tête d'Ayi NEDJIMI Consultants, il réalise des audits Lead Auditor ISO 42001 et ISO 27001, des pentests d'infrastructures critiques, du forensics et des missions de conformité NIS2 / AI Act.
Conférencier international (Europe & US), il a formé plus de 10 000 professionnels.
Domaines d'expertise
Ressources & Outils de l'auteur
Articles connexes
VENOMOUS#HELPER : 80 victimes via faux mails SSA et RMM
Securonix dévoile VENOMOUS#HELPER, une campagne de phishing qui a infecté 80 organisations en déployant simultanément SimpleHelp et ScreenConnect.
GPT-5.5 sur AWS Bedrock : OpenAI s'invite chez Anthropic
AWS a annoncé le 4 mai 2026 l'arrivée de GPT-5.5, GPT-5.4, Codex et Managed Agents OpenAI dans Amazon Bedrock, aux côtés de Claude.
Pentagon : 7 IA sur réseaux classifiés, Anthropic exclue
Le Pentagone a signé le 1er mai 2026 des accords avec sept fournisseurs d'IA pour ses réseaux SECRET et TOP SECRET. Anthropic reste exclue.
Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !
Laisser un commentaire