En bref

  • AWS a annoncé le 4 mai 2026 l'arrivée des modèles OpenAI GPT-5.5 et GPT-5.4 dans Amazon Bedrock en preview limitée
  • Codex, l'agent de codage frontier d'OpenAI, devient invocable via la même API Bedrock que celle utilisée pour Claude
  • L'annonce arrive alors qu'Amazon a réinvesti 25 milliards de dollars dans Anthropic en avril, créant une cohabitation tarifée des deux concurrents sur la même plateforme

Ce qui s'est passé

Lors de la conférence « What's Next with AWS, 2026 » tenue cette semaine à Las Vegas, Amazon Web Services a officialisé un accord d'envergure avec OpenAI. Trois briques sont déployées simultanément : les modèles frontière GPT-5.5 et GPT-5.4 dans Bedrock, l'agent de codage Codex sur Bedrock, et Bedrock Managed Agents propulsés par OpenAI. La preview est dite « limitée » — comprendre, ouverte aux clients à fort engagement contractuel — mais les premières souscriptions doivent commencer dans les prochains jours via la console Bedrock standard.

Concrètement, un développeur disposant d'un compte AWS pourra appeler GPT-5.5 avec la même signature d'API qu'il utilisait pour Claude Sonnet ou pour les modèles Titan d'Amazon. Les contrôles de gouvernance, la facturation unifiée, les politiques IAM et les guardrails Bedrock s'appliquent. Pour les directions IT qui exigent un seul fournisseur cloud et un seul modèle de facturation, la promesse est forte : ne plus avoir à signer de contrat séparé avec OpenAI ni à transférer des données vers Azure pour utiliser GPT.

Le second pilier, Codex sur Bedrock, mérite l'attention particulière des équipes DevSecOps. Codex est l'environnement de codage agentique d'OpenAI, équivalent fonctionnel de Claude Code. Il se présente sous forme de CLI, d'application bureau, et d'extension Visual Studio Code. Avec l'arrivée sur Bedrock, toute entreprise disposant d'un engagement AWS peut donner à ses développeurs un accès Codex sans souscrire de licence OpenAI séparée. Le branchement sur les sources de données internes via Bedrock Knowledge Bases et le bus EventBridge devient natif.

Le troisième volet, Bedrock Managed Agents propulsés par OpenAI, expose la couche d'orchestration agentique d'OpenAI directement dans AWS. La promesse marketing évoque un raisonnement plus net et un pilotage fiable de tâches longues. Techniquement, il s'agit du portage du framework Agents SDK d'OpenAI dans l'environnement Bedrock, avec exécution des outils via Lambda et persistance via DynamoDB. Le service viserait les agents financiers et juridiques de longue durée, en concurrence directe avec les agents d'Anthropic récemment déployés chez Goldman Sachs et Blackstone, sujet que nous avions détaillé dans notre article sur l'investissement Wall Street.

L'annonce s'inscrit dans le cadre d'un partenariat élargi entre OpenAI et Amazon, signé fin avril et estimé à plusieurs dizaines de milliards de dollars sur la période 2026-2031. Les chiffres exacts n'ont pas été divulgués, mais des sources citées par CNBC évoquent un engagement OpenAI à utiliser massivement Trainium 3, la nouvelle génération de puces AWS dédiées à l'entraînement, en complément de l'infrastructure GPU Nvidia. AWS aurait obtenu en contrepartie l'exclusivité sur la distribution Bedrock des modèles OpenAI parmi les hyperscalers — Microsoft Azure conservant naturellement son accès historique via OpenAI Service.

Le calendrier de cette annonce est notable. Amazon a confirmé, fin avril, un nouveau ticket de 25 milliards de dollars dans Anthropic, ce qui porte son investissement cumulé dans la startup à environ 33 milliards. Bedrock continue de servir Claude Opus 4.5 et Sonnet 4.6 comme modèles phares. Désormais, GPT-5.5 et Claude Opus cohabitent sur la même plateforme, dans la même région, derrière la même API. Les directions techniques pourront router selon la latence, le coût ou la qualité, en bénéficiant des deux écosystèmes sans coût d'intégration.

Côté pricing, AWS n'a pas publié de tarif officiel pour les modèles OpenAI sur Bedrock, mais les sources citées par MindStudio évoquent un alignement avec les tarifs OpenAI directs majorés d'une marge AWS de l'ordre de 5 à 8 %. Les engagements de capacité (Provisioned Throughput) pourraient permettre des réductions à condition de réserver des unités sur des périodes mensuelles. Le mode On-Demand reste disponible pour les charges sporadiques.

Pour les entreprises soumises au RGPD ou à la directive NIS2, l'arrivée d'OpenAI sur Bedrock change la donne en matière de localisation. Bedrock garantit des régions européennes (Francfort, Paris, Stockholm, Zurich) avec engagement contractuel sur la résidence des données et l'absence de transfert vers les États-Unis hors mécanismes de transfert encadrés. La même garantie s'appliquera aux modèles OpenAI dès qu'ils seront déployés dans ces régions, ce qui constitue une avancée par rapport à OpenAI direct, qui n'offre pas ce niveau de garantie pour ses appels API.

Pourquoi c'est important

Cette annonce concrétise un phénomène que les analystes de l'industrie cloud attendaient depuis 18 mois : la commoditisation de la couche modèle. Désormais, GPT-5.5, Claude Opus 4.5, Gemini 3.1, Mistral Large 3 et Llama 5 sont accessibles via une seule API, dans une seule plateforme cloud, avec un seul contrat. Le différenciant ne sera plus le modèle lui-même mais l'écosystème qui l'entoure : qualité des connecteurs Knowledge Bases, finesse des guardrails, observabilité, gouvernance.

Pour OpenAI, le mouvement représente une dilution stratégique de la dépendance Microsoft. La société de Sam Altman a longtemps été quasi exclusivement distribuée via Azure OpenAI Service, avec des tensions récurrentes liées aux capacités GPU disponibles et aux marges. L'arrivée sur AWS Bedrock crée un point de pression concurrentielle qui devrait améliorer les conditions commerciales pour les clients finaux, à la fois sur Azure et sur AWS. Les directions Achats devront en tenir compte dans leurs prochaines négociations.

Pour Anthropic, la cohabitation forcée avec OpenAI sur Bedrock est ambivalente. D'un côté, Claude perd son monopole de fait sur la première plateforme cloud mondiale. De l'autre, AWS reste un actionnaire majeur d'Anthropic et a tout intérêt à ce que Claude reste compétitif sur Bedrock. Les premiers benchmarks comparatifs qui suivront la sortie de GPT-5.5 sur Bedrock seront scrutés avec attention, notamment sur les workloads de codage où Claude Sonnet conserve une avance reconnue.

Du côté des équipes sécurité, la disponibilité de plusieurs modèles dans une même plateforme implique de revoir la stratégie de gouvernance des prompts et des données. Les politiques DLP, les filtres de contenu et les contrôles d'exfiltration doivent être harmonisés entre tous les modèles, faute de quoi un développeur pourrait contourner des contrôles en passant simplement d'un modèle à un autre. Bedrock Guardrails offre un cadre unifié, mais sa configuration doit être pensée pour être indépendante du modèle sous-jacent.

Ce qu'il faut retenir

  • OpenAI GPT-5.5, GPT-5.4, Codex et Managed Agents arrivent sur Amazon Bedrock en preview limitée, accessibles via la même API que Claude
  • Le partenariat élargi inclut un engagement OpenAI à utiliser massivement les puces Trainium 3 d'AWS pour l'entraînement
  • La cohabitation Claude / GPT-5.5 sur Bedrock signe l'entrée dans l'ère de la commoditisation des modèles frontière côté cloud d'entreprise

Faut-il migrer ses workloads Azure OpenAI vers AWS Bedrock ?

Pas nécessairement. Le choix dépend de l'écosystème déjà utilisé : si vos pipelines de données et votre identité tournent sur Azure, rester sur Azure OpenAI conserve sa cohérence. En revanche, si vos charges sont déjà sur AWS, Bedrock devient le chemin le plus simple pour ajouter GPT-5.5 sans introduire un nouveau cloud. La preview limitée actuelle rend prématurée toute migration immédiate.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact