En bref

  • Le Pentagone a signé le 1er mai 2026 des contrats avec sept fournisseurs d'IA pour ses réseaux SECRET et TOP SECRET
  • OpenAI, Google, Microsoft, AWS, Nvidia, Reflection AI et SpaceX rejoignent la plateforme GenAI.mil utilisée par 1,3 million d'agents
  • Anthropic reste exclue : désignée « risque de chaîne d'approvisionnement » depuis février, l'entreprise reste hors course malgré ses recours en justice

Ce qui s'est passé

Le Department of Defense, rebaptisé Department of War depuis février, a annoncé vendredi 1er mai 2026 la signature d'accords avec sept fournisseurs d'intelligence artificielle pour déployer leurs technologies sur les réseaux classifiés du Pentagone. La liste comprend OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, Reflection AI et SpaceX, avec Oracle qui rejoint le dispositif comme intégrateur. Les modèles seront poussés sur les niveaux Impact Level 6 (SECRET) et Impact Level 7 (TOP SECRET), les zones les plus sensibles de l'architecture cloud du Département de la Guerre.

Selon le communiqué officiel, ces IA serviront à « rationaliser la synthèse des données, élever la compréhension situationnelle et augmenter la prise de décision du combattant dans des environnements opérationnels complexes ». Le déploiement passera par GenAI.mil, la plateforme centrale d'IA générative du Pentagone, déjà utilisée par plus de 1,3 million de personnels du DOD. Google avait commencé à pousser son modèle Gemini 3.1 Pro sur la plateforme fin avril, anticipant l'annonce.

L'absence d'Anthropic dans la liste constitue le fait politique majeur. La société, créatrice de Claude, fut pourtant la première frontière américaine à voir son modèle homologué pour les réseaux classifiés en juillet 2025. La rupture s'est cristallisée autour de la politique d'usage acceptable d'Anthropic, qui interdit l'emploi de Claude pour la surveillance domestique de masse des Américains et pour les armes autonomes capables de sélectionner et d'engager une cible sans intervention humaine. Le Pentagone a tenté de renégocier ces clauses ; Anthropic a refusé.

En février 2026, le secrétaire à la Défense Pete Hegseth a alors classé Anthropic comme « supply chain risk », une désignation historiquement réservée aux acteurs étrangers adverses comme Huawei ou Kaspersky. C'est la première fois qu'une entreprise américaine reçoit ce label. Concrètement, les contractants de la défense doivent désormais certifier qu'ils n'utilisent pas Claude dans leurs travaux pour le militaire, sous peine de perdre leurs habilitations.

Anthropic a contesté en justice mais perdu en avril son recours en appel pour bloquer temporairement la mesure. La société peut continuer à travailler avec d'autres agences fédérales — la NSA teste notamment son système Mythos sur les vulnérabilités Microsoft, comme nous l'avons rapporté dans notre article précédent — mais reste verrouillée hors du DOD le temps que les procédures se poursuivent. Donald Trump a déclaré la semaine dernière que l'entreprise « se redressait » à ses yeux, ouvrant une fenêtre politique pour une éventuelle réintégration, sans engagement formel.

Le contrat avec Reflection AI, jeune pousse fondée par d'anciens chercheurs DeepMind, marque l'arrivée d'un quatrième entrant aux côtés des trois piliers du marché des modèles frontière (OpenAI, Google, et de facto Microsoft via OpenAI). SpaceX, qui exploite déjà des constellations Starshield pour le renseignement militaire, apporte son infrastructure de calcul orbital et ses partenariats xAI. Nvidia fournit la couche matérielle — GPU H200 et Blackwell — sur laquelle tournent l'essentiel des modèles cités. Amazon Web Services et Microsoft Azure se partagent le rôle d'hébergeurs cloud souverains avec leurs régions GovCloud et Azure Government Top Secret.

L'annonce s'inscrit dans une logique de diversification revendiquée par le Pentagone. Le porte-parole du DOD a explicitement parlé d'éviter le « vendor lock-in », l'enfermement par un fournisseur unique, qui avait dominé l'ère JEDI puis JWCC. Plutôt que d'attribuer un méga-contrat à un seul acteur, le Pentagone agrège désormais une constellation de fournisseurs, chacun spécialisé sur une couche du stack. Cette stratégie multi-fournisseurs avait été préfigurée par les accords cadres signés avec OpenAI, Google, Anthropic et xAI à l'été 2025, chacun pour 200 millions de dollars.

L'enveloppe financière des nouveaux contrats n'a pas été détaillée publiquement, mais des sources citées par le Washington Post et CNN évoquent des ordres de grandeur similaires aux précédents, soit plusieurs centaines de millions de dollars par fournisseur sur la période 2026-2028. La répartition entre cas d'usage opérationnels (renseignement, planification de mission, traitement de signaux) et cas d'usage administratifs (synthèse documentaire, traduction, code) n'est pas connue.

Pourquoi c'est important

Cette annonce redessine la carte du marché de l'IA souveraine américaine. Avec l'exclusion durable d'Anthropic, le Pentagone fait passer un message clair aux fournisseurs : les politiques d'usage acceptable — les fameuses AUP qui plafonnent ce qu'un modèle peut ou ne peut pas faire — ne sont pas opposables au pouvoir militaire. Tout fournisseur qui veut accéder aux marchés classifiés devra accepter de relâcher ses garde-fous éthiques, ou bien renoncer à ces marchés. Anthropic a choisi la seconde option et en paie le prix.

Pour les directions cyber des grands groupes, le signal est différent mais tout aussi instructif. Les sept fournisseurs retenus seront désormais soumis à des exigences de sécurité d'un niveau IL6/IL7 qui dépassent largement les standards FedRAMP High. Cela signifie des architectures isolées, des pipelines de modèles audités, des tests adversariaux systématiques et un cloisonnement réseau au niveau des poids de modèle. Les retombées techniques de ces investissements — détection d'exfiltration via embeddings, durcissement des agents, tracing complet — finiront par se diffuser dans les offres commerciales destinées aux entreprises régulées.

Le contexte géopolitique alourdit l'enjeu. La Chine a publiquement intégré DeepSeek et des dérivés Qwen dans ses propres systèmes de commandement militaire, tandis que la Russie continue d'exploiter des LLM open-weight pour ses opérations d'influence. Pour Washington, la course à l'IA militaire devient un théâtre stratégique aussi décisif que le nucléaire ou l'espace. Le Pentagone ne peut plus se permettre d'attendre des cycles d'évaluation de plusieurs années : les contrats annoncés vendredi prévoient des déploiements en environnement de production sous six mois.

Pour les entreprises européennes, et notamment françaises, l'annonce souligne une fois de plus le différentiel de souveraineté. Aucune IA française ou européenne — ni Mistral, ni les initiatives allemandes ou néerlandaises — ne dispose d'un accès comparable à ses propres réseaux classifiés. La DGA, le COMCYBER et l'ANSSI continuent de travailler avec des solutions souveraines, mais l'écart d'échelle avec le DOD américain reste vertigineux. La question de l'autonomie stratégique européenne en matière d'IA militaire se posera avec plus d'acuité au prochain Conseil de défense.

Ce qu'il faut retenir

  • Sept fournisseurs d'IA — OpenAI, Google, Microsoft, AWS, Nvidia, Reflection AI, SpaceX — ont obtenu l'accès aux réseaux SECRET et TOP SECRET du Pentagone
  • Anthropic reste exclue : sa politique d'usage interdisant la surveillance de masse et les armes autonomes a déclenché sa désignation comme « risque de chaîne d'approvisionnement »
  • La diversification revendiquée par le DOD préfigure un marché de l'IA militaire éclaté entre plusieurs fournisseurs spécialisés, abandonnant la logique du contrat unique de type JEDI

Pourquoi Anthropic est-elle classée « risque de chaîne d'approvisionnement » alors qu'elle est américaine ?

La désignation, historiquement réservée aux acteurs étrangers comme Huawei ou Kaspersky, vise ici le refus d'Anthropic de modifier sa politique d'usage acceptable pour autoriser certaines applications militaires sensibles. C'est la première fois qu'une société américaine est ainsi classée, et la mesure est contestée en justice par l'entreprise.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact