En bref

  • Anthropic et OpenAI ont briefé en huis clos le Congrès américain le 29 avril 2026 sur les capacités cyber offensives de leurs derniers modèles, une première dans la relation entre les deux entreprises et le législatif américain.
  • Anthropic a annoncé le report de la sortie publique de Mythos Preview, son modèle pré-Opus 5, après avoir constaté qu''il identifiait et exploitait rapidement des vulnérabilités logicielles.
  • OpenAI a confirmé une stratégie de release par paliers (« tiered release ») pour GPT-5.4-Cyber, sa variante spécialisée en cybersécurité offensive et défensive.

Ce qui s'est passé

Le 29 avril 2026, les équipes de politique publique d'Anthropic et d'OpenAI ont tenu deux briefings classifiés successifs devant le personnel de la House Homeland Security Committee à Washington. La séance, organisée à la demande du président de la sous-commission sur la cybersécurité Andrew Garbarino, visait à informer les staffers parlementaires sur les capacités cyber offensives et défensives des modèles dits « frontier » développés par les deux entreprises. Selon les sources concordantes citées par Politico et The Washington Post, c'est la première fois que des éditeurs de modèles d'IA délivrent un briefing classifié de ce niveau au Congrès, jusqu'ici réservé aux agences de renseignement et aux contractants Defense.

Anthropic a profité de la séance pour annoncer un événement notable : le report de la sortie publique de Mythos Preview, le modèle qui devait servir de teaser à Claude Opus 5 prévu pour juillet. L'éditeur a expliqué avoir constaté, lors de ses évaluations internes Responsible Scaling Policy (RSP), que Mythos Preview identifiait et exploitait rapidement des vulnérabilités logicielles complexes, y compris dans des CTF de niveau professionnel non vus à l'entraînement. Le modèle aurait notamment résolu plusieurs challenges de la sélection DEF CON 33 en moins de la moitié du temps imparti à des équipes humaines expertes. Anthropic, sans communiquer de date précise de réouverture, indique que Mythos Preview restera bloqué jusqu'à ce que les contre-mesures de sécurité atteignent un niveau jugé compatible avec une diffusion grand public.

OpenAI, de son côté, a détaillé le calendrier de GPT-5.4-Cyber, sa variante spécialisée. Plutôt qu'un report, l'éditeur a opté pour une release par paliers : accès initial réservé à 14 partenaires gouvernementaux et CSIRT nationaux, puis ouverture progressive à des éditeurs sécurité accrédités, et enfin, après six mois minimum d'observation, à un cercle élargi d'entreprises critiques sous contrat NDA. La logique : éviter que des capacités d'identification rapide de failles ne se retrouvent dans des mains adverses sans coussin de défense déjà déployé. Le modèle ne sera pas accessible via l'API publique avant l'automne 2026 au plus tôt.

Les deux briefings ont insisté sur un point commun : les modèles « frontier » ne créent pas de capacités cyber inédites par rapport à un opérateur humain expérimenté, mais ils en accélèrent considérablement le tempo. Selon les évaluations partagées avec le Congrès, GPT-5.4-Cyber et Mythos Preview ramènent à quelques heures des tâches de reverse engineering et de découverte de chaînes d'exploitation qui prenaient auparavant plusieurs jours à plusieurs semaines à des équipes humaines spécialisées. Pour les staffers, l'enjeu n'est pas l'apparition d'une menace nouvelle, mais le déséquilibre offense-défense qui se creuse, l'attaquant pouvant désormais paralléliser des dizaines d'opérations simultanées.

L'aspect détection et défense a aussi été abordé. Anthropic a démontré que Claude Sonnet 4.6 peut analyser des dumps SIEM volumineux et corréler des indicateurs de compromission avec une précision supérieure à la baseline humaine sur certains scénarios spécifiques. OpenAI, de son côté, a rappelé que GPT-5.4-Cyber est aussi pensé pour la défense : analyse de logs, hardening de configurations, génération de règles Sigma et YARA. Les staffers présents ont néanmoins insisté sur l'asymétrie d'accès : si seuls les attaquants étatiques disposent d'un accès « débloqué » via fuites ou modèles open weights non bridés, alors la balance tendra mécaniquement vers l'offense.

L'historique récent renforce cette inquiétude. Plusieurs analystes citent les démonstrations publiées en mars par DARPA AIxCC, où des agents construits sur des LLM open weights ont identifié des failles dans des codebases C/C++ massives. La pression a aussi monté après le démantèlement d'un cluster d'attaquants nord-coréens qui aurait industrialisé l'usage de modèles open source pour générer du code malveillant et automatiser la reconnaissance de cibles. Le climat est donc favorable à un encadrement plus strict, sans pour autant qu'un texte législatif soit encore prêt.

Sur le plan industriel, le mouvement d'Anthropic est cohérent avec sa Responsible Scaling Policy publiée en 2024 et révisée en 2025. La RSP prévoit explicitement qu''un modèle classé en niveau ASL-3 sur la dimension cyber doit voir sa sortie conditionnée à des « critical safety thresholds ». Mythos Preview est, selon plusieurs sources, le premier modèle d'Anthropic à approcher ce seuil. La décision de reporter la sortie est donc l'application stricte d'un cadre interne, pas une réaction politique.

OpenAI, qui ne dispose pas d'un équivalent strict de la RSP mais s'appuie sur son Preparedness Framework, a invoqué le même cadre pour justifier la tiered release. La logique est similaire : un modèle classé « high » sur la dimension cyber n'est pas diffusé publiquement tant que les bénéfices défensifs ne compensent pas les risques offensifs. Le choix de la tiered release plutôt que du report total traduit une philosophie différente : OpenAI parie sur la diffusion contrôlée pour donner un avantage défensif aux acteurs critiques, là où Anthropic privilégie le delay pour gagner du temps sur les contre-mesures.

Pourquoi c'est important

Le briefing du 29 avril 2026 marque un basculement institutionnel. Les éditeurs de modèles « frontier » ne sont plus de simples acteurs commerciaux : ils deviennent des interlocuteurs réguliers du législatif américain sur des sujets de sécurité nationale, au même titre que Lockheed Martin, Raytheon ou Palantir l'ont été sur les sujets défense conventionnelle. Cette institutionnalisation crée des contraintes nouvelles, notamment en matière de transparence sur les évaluations internes, de partage de données avec les agences de renseignement, et potentiellement de licensing futur pour les modèles classés au-dessus d'un certain seuil de capacité cyber.

Pour les équipes RSSI européennes, le signal est double. D'un côté, la généralisation des « cyber-tuned models » va modifier la chronologie des incidents : un attaquant moyennement compétent pourra s'appuyer sur un modèle pour fermer en quelques heures une analyse de vulnérabilité qui prenait des semaines. Le délai entre la divulgation publique d'une CVE et l'apparition d'un exploit fonctionnel va continuer à se compresser, comme l'a montré l'épisode LiteLLM CVE-2026-42208 exploité en 36 heures fin avril. De l'autre côté, ces mêmes modèles, côté défense, permettent d'industrialiser la triage de logs, la génération de règles de détection et l'analyse forensique, ce qui peut compenser partiellement l'asymétrie.

L'angle réglementaire est lui aussi central. La proposition de loi américaine SB 1047, vetoée en Californie en 2024, revient au niveau fédéral sous une forme plus ciblée. Le briefing de 29 avril alimente un futur texte qui pourrait imposer aux éditeurs des évaluations cyber obligatoires avant release publique, des notifications au gouvernement avant déploiement de modèles classés « high », et potentiellement un mécanisme de licensing pour la commercialisation à des entités étrangères. La trajectoire rejoint l'AI Act européen, dont les obligations de transparence pour les modèles à risque systémique entrent en vigueur en août 2026.

Pour les entreprises consommatrices de modèles, le report de Mythos Preview a un effet pratique limité : Claude Opus 4.7 reste largement suffisant pour la quasi-totalité des cas d'usage, et le retard ne dépasse probablement pas quelques semaines. Mais la décision crée un précédent : Anthropic démontre qu''il est prêt à reporter unilatéralement un release si les évaluations internes l'exigent. Cette discipline pourrait peser sur la concurrence et inciter les autres éditeurs à formaliser eux aussi leurs cadres de safety. À court terme, le sujet à suivre est la mise en place effective du tiered access OpenAI pour GPT-5.4-Cyber, et le cercle des partenaires gouvernementaux et CSIRT qui en bénéficieront.

Ce qu'il faut retenir

  • Anthropic reporte Mythos Preview après évaluation RSP : le modèle identifie trop rapidement des chaînes d'exploitation pour une diffusion publique immédiate.
  • OpenAI passe GPT-5.4-Cyber en tiered release : accès limité aux gouvernements et CSIRT pendant six mois minimum avant ouverture élargie.
  • Le briefing classifié au Congrès américain marque l'institutionnalisation des éditeurs IA comme acteurs de sécurité nationale, avec des conséquences réglementaires probables d'ici fin 2026.

Mythos Preview représente-t-il un risque immédiat pour les entreprises ?

Non. Le modèle est resté en environnement Anthropic, sans diffusion externe. Le risque réel pour les entreprises tient à la trajectoire générale : les modèles cyber-tuned vont compresser le délai entre divulgation et exploit. La priorité opérationnelle reste donc le patching rapide et l'instrumentation des chaînes de détection, indépendamment de la disponibilité de Mythos Preview.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact