En bref

  • ChatGPT, Claude, Gemini et Microsoft Copilot sont tombés en panne en même temps lundi 20 avril 2026 à partir de 15h05 UTC.
  • OpenAI enregistre plus de 8 700 rapports d''incident au Royaume-Uni, Claude et Copilot voient leurs signalements multipliés par 28 et 99.
  • Le service est stabilisé après 90 minutes mais expose la dépendance croissante des workflows métier aux API IA.

Ce qui s''est passé

Lundi 20 avril à 15h05 UTC (10h05 ET), les utilisateurs de ChatGPT ont commencé à remonter des erreurs de chargement, de connexion et des conversations inaccessibles. OpenAI a rapidement confirmé une panne partielle touchant ChatGPT, Codex et l''API Platform. Selon les données de Downdetector, plus de 8 700 signalements ont été enregistrés au Royaume-Uni et 1 900 aux États-Unis au pic de l''incident.

Quelques dizaines de minutes plus tard, Anthropic publie à son tour un avis d''incident pour Claude, dont les rapports passent de 6 à 169 par heure. Google Gemini grimpe de près de zéro à 90 signalements, tandis que Microsoft Copilot bondit de 1 à 99. Les quatre fournisseurs communiquent en parallèle sur leurs pages de statut, sans qu''une cause commune soit publiquement identifiée.

OpenAI annonce à 17h48 UTC qu''un correctif est déployé et que la récupération est surveillée. Le mode d''échec principal concernait l''accès à l''historique des conversations (63 % des retours) et les échecs de connexion (27 %). Plusieurs utilisateurs rapportent avoir perdu des sessions Codex en cours, sans sauvegarde automatique.

Pourquoi c''est important

La simultanéité des pannes sur quatre plateformes IA concurrentes relance le débat sur la concentration des dépendances. Même si OpenAI, Anthropic, Google et Microsoft n''exploitent pas les mêmes backends modèles, ils partagent des briques d''infrastructure communes : CDN, DNS managés, fournisseurs cloud (AWS, Azure, GCP), et services de télémétrie. Une défaillance mutualisée sur l''une de ces couches peut suffire à dégrader plusieurs services en chaîne.

Pour les entreprises qui ont industrialisé des agents IA dans leurs processus (support client, génération de code, analyse documentaire), ce type d''incident matérialise un risque business concret. Contrairement aux pannes SaaS classiques, les workflows IA dépendent souvent de chaînes d''appels synchrones entre plusieurs modèles, ce qui amplifie l''effet de cascade lorsqu''un fournisseur est indisponible.

Ce qu''il faut retenir

  • Mettre en place un mécanisme de bascule automatique (fallback) entre fournisseurs IA pour les workflows critiques.
  • Instrumenter les appels LLM avec des timeouts agressifs et un circuit breaker pour éviter l''effet cascade sur les services en aval.
  • Sauvegarder localement les sessions agentiques longues (Codex, Claude Code) plutôt que de s''appuyer uniquement sur l''historique cloud.

Comment les quatre géants de l''IA ont-ils pu tomber en même temps ?

Aucune cause commune officielle n''a été communiquée à ce stade. Les pistes techniques les plus probables sont une défaillance chez un opérateur CDN ou DNS partagé, un pic de charge coordonné lié à un événement externe, ou une panne régionale chez un hyperscaler. La simultanéité exacte reste rare statistiquement et fait l''objet d''investigations côté fournisseurs.

Besoin d''un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact