En bref

  • Amazon engage jusqu'à 25 milliards de dollars supplémentaires dans Anthropic, dont 5 milliards immédiatement et 20 milliards conditionnés à des jalons commerciaux — l'investissement total cumulé atteint 33 milliards de dollars.
  • En contrepartie, Anthropic s'engage à dépenser plus de 100 milliards de dollars en services AWS sur 10 ans, avec un accès jusqu'à 5 gigawatts de capacité de calcul sur les puces custom Trainium.
  • 1 gigawatt de capacité Trainium 2 et Trainium 3 sera mise en ligne d'ici la fin 2026 ; Anthropic exploite déjà plus d'un million de chips Trainium 2 pour entraîner et servir Claude.

Ce qui s'est passé

Amazon a officialisé le 21 avril 2026 une extension majeure de son partenariat stratégique avec Anthropic, le laboratoire d'IA fondé par Dario et Daniela Amodei. L'opération, annoncée conjointement par les deux sociétés et confirmée dans un dépôt SEC le 23 avril, mobilise jusqu'à 25 milliards de dollars d'investissement supplémentaire en plus des 8 milliards déjà engagés depuis 2023. Le total cumulé atteint donc 33 milliards de dollars, dont seulement une partie — 5 milliards de dollars cash — est versée immédiatement à la valorisation actuelle d'Anthropic, soit 380 milliards de dollars.

La structure du deal mérite d'être détaillée. Sur les 25 milliards annoncés : 5 milliards arrivent en numéraire dès la signature et financent l'expansion immédiate des opérations d'Anthropic. Les 20 milliards restants sont conditionnés à l'atteinte de jalons commerciaux précis, principalement la consommation effective des capacités de calcul AWS et l'expansion du déploiement de Claude sur la plateforme Amazon Bedrock auprès des clients entreprise. Cette structure protège Amazon contre un éventuel ralentissement de la croissance d'Anthropic tout en garantissant un flux d'investissement aligné sur la consommation réelle.

En contrepartie, Anthropic s'engage à dépenser plus de 100 milliards de dollars en services AWS sur les dix prochaines années — l'un des plus gros engagements d'achat cloud jamais signés par une scale-up. La société aura accès à jusqu'à 5 gigawatts de capacité de calcul, principalement sur les puces custom Trainium d'Amazon. Pour donner un ordre de grandeur, 5 gigawatts représentent l'équivalent de la consommation électrique de la ville de Lyon ; c'est aussi le plus grand engagement de capacité dédiée à un seul client cloud jamais consenti par AWS.

Anthropic a précisé qu'elle exploite déjà plus d'un million de chips Trainium 2 pour entraîner et servir les générations actuelles de Claude (Claude Opus 4.7, Sonnet 4.6 et Haiku 4.5). D'ici la fin 2026, Amazon mettra en ligne un total de 1 gigawatt cumulé de Trainium 2 et Trainium 3 dédié à Anthropic, principalement sur le campus AWS Project Rainier en Indiana. La montée en charge se fera progressivement sur 18 mois et inclura un déploiement test sur la nouvelle puce Trainium 3 — annoncée en mars 2026 — qui promet 4x les performances par dollar du Trainium 2.

L'aspect géostratégique du deal est central. Microsoft a investi plus de 13 milliards de dollars dans OpenAI depuis 2019 et bénéficie d'un partenariat exclusif sur l'infrastructure Azure (avec une dérogation récente pour SoftBank et Oracle). Google a investi 2 milliards en 2023 dans Anthropic en parallèle d'Amazon, et a obtenu en avril 2026 un canal Vertex AI pour la commercialisation de Claude. Le nouveau deal Amazon-Anthropic place clairement Amazon en position de partenaire infrastructurel principal d'Anthropic, sur le modèle de Microsoft-OpenAI, mais sans exclusivité totale — Anthropic reste libre de continuer à servir Claude depuis Google Vertex et Microsoft Foundry.

Sur le plan industriel, l'opération valide la stratégie silicon d'Amazon. Les chips Trainium étaient initialement perçus comme un projet de second plan face aux GPU Nvidia H200 et B200 qui dominent le marché. La validation par Anthropic — l'un des deux ou trois clients d'entraînement les plus exigeants au monde — change la perception. Plusieurs autres laboratoires d'IA, dont Cohere, AI21 Labs et Mistral, ont annoncé en marge du deal qu'ils évalueraient sérieusement Trainium 3 pour leurs prochaines générations de modèles. Nvidia, qui a vu son cours reculer de 4,1 % le jour de l'annonce, a réagi en accélérant la disponibilité de sa nouvelle architecture Rubin (successeur de Blackwell) pour le quatrième trimestre 2026.

Pour Anthropic, cette levée de fonds de facto — 5 milliards immédiats + accès à une capacité de calcul colossale — sécurise les 18 prochains mois de roadmap. La société travaille publiquement sur la prochaine génération Claude Opus 5, annoncée pour l'automne 2026 lors de la dernière annonce du CEO Dario Amodei. Les rumeurs internes évoquent un modèle dépassant les 10 trillions de paramètres en architecture sparse mixture-of-experts, un saut significatif par rapport aux estimations actuelles d'Opus 4.7 (qui resterait sous 2 trillions de paramètres effectifs). L'entraînement d'un tel modèle nécessite l'équivalent de plusieurs dizaines de mégawatts de capacité dédiée pendant plusieurs mois, ce que les nouveaux engagements Amazon permettent désormais.

Du côté financier, la valorisation d'Anthropic à 380 milliards de dollars en fait la troisième startup la plus valorisée au monde derrière OpenAI (500 milliards lors du dernier secondaire de mars 2026) et SpaceX (350 milliards). Le multiple est extrême — Anthropic affiche un revenu annualisé de l'ordre de 8 milliards de dollars selon les estimations de The Information, soit un multiple de 47x revenu — mais il reflète le pari du marché sur la trajectoire des agents IA d'entreprise.

Pourquoi c'est important

Le deal cristallise une mutation profonde du modèle économique du cloud. Pendant quinze ans, AWS, Azure et Google Cloud rivalisaient sur la commodité — capacité, prix, fiabilité — avec une marge brute confortable. La rareté du calcul GPU à partir de 2023 a inversé le rapport de force : ce sont désormais les laboratoires d'IA qui dictent les conditions, et les hyperscalers qui se battent pour capter leur consommation. Engager 25 milliards pour s'assurer 100 milliards de revenus AWS sur 10 ans est rationnel à condition de croire que l'infrastructure GPU reste un bien rare et que la demande IA continue de croître à 2 ou 3 chiffres pendant la prochaine décennie. Wall Street semble pour l'instant valider ce pari : la marge AWS reste à 39,3 % au Q1 2026 malgré l'explosion du capex.

Pour les entreprises clientes, le deal a deux conséquences directes. D'une part, l'offre Bedrock va se renforcer significativement sur Claude — disponibilité géographique, débit, latence — et les nouveaux modèles Claude pourraient sortir en avant-première sur AWS avant Vertex ou Foundry. D'autre part, la capacité de négociation des entreprises sur les contrats Bedrock pourrait se réduire à mesure qu'Anthropic devient un partenaire stratégique d'Amazon : moins d'urgence à concéder des remises pour gagner des comptes. Les RSSI et acheteurs cloud doivent intégrer cette dynamique dans leurs négociations en cours et envisager une stratégie multi-cloud explicite si le verrouillage devient problématique.

L'enjeu réglementaire est l'autre dimension critique. La FTC américaine et la Commission européenne examinent depuis 2024 les implications concurrentielles des partenariats hyperscaler-laboratoire IA. Le précédent Microsoft-OpenAI a déjà fait l'objet d'une enquête approfondie de la CMA britannique, finalement classée en 2025 sans condamnation mais avec des engagements comportementaux. Le nouveau deal Amazon-Anthropic, par son ampleur (33 milliards cumulés), va probablement déclencher un examen similaire, voire plus poussé. La question centrale reste la même : ces investissements créent-ils de fait une intégration verticale qui limite l'accès au marché des agents IA pour les concurrents et les nouveaux entrants ?

Enfin, la dimension énergétique ne peut être ignorée. Mobiliser 5 gigawatts de capacité dédiée à un seul client est sans précédent. Cela représente l'équivalent de cinq réacteurs nucléaires standard, ou 15 % du parc de centrales gaz américain. Amazon a annoncé en parallèle des accords de fourniture nucléaire avec Talen Energy (campus de Cumulus en Pennsylvanie) et Constellation Energy, ainsi qu'un PPA avec Vistra. Les régulateurs énergétiques de l'Indiana et du Mississippi ont commencé à instruire l'impact réseau des nouveaux campus Project Rainier et Project Rainier 2. La pression sur le réseau électrique américain et sur les externalités carbone devient un enjeu industriel à part entière.

Ce qu'il faut retenir

  • Amazon engage 25 Mds$ supplémentaires dans Anthropic (33 Mds$ cumulés) en échange de 100 Mds$ d'achats AWS sur 10 ans et 5 GW de capacité Trainium dédiée — l'un des plus gros deals capacité cloud jamais signés.
  • Le partenariat valide la stratégie silicon d'Amazon (Trainium 3 compétitif face à Nvidia) et préfigure un modèle industriel hyperscaler-labo IA verticalisé, similaire à Microsoft-OpenAI.
  • Pour les DSI : anticiper le verrouillage Bedrock-Claude qui pourrait réduire la marge de négociation et préparer une stratégie multi-cloud explicite si l'IA devient critique pour vos opérations.

Comment ce deal change-t-il l'accès des entreprises européennes à Claude ?

Claude reste disponible via AWS Bedrock dans les régions européennes (Francfort, Paris, Stockholm, Dublin), Google Vertex AI et Microsoft Foundry. Mais l'avantage concurrentiel sur Bedrock va probablement s'accentuer (modèles disponibles plus tôt, latence et débit optimisés). Les entreprises soumises à des exigences de souveraineté doivent vérifier que leur région cible est bien couverte et négocier des engagements écrits sur la disponibilité avant tout projet stratégique.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact