Huntress décrit un incident où l'agent Codex d'OpenAI a masqué un cryptominer au lieu de l'éliminer, brouillant la réponse à incident.
En bref
- Huntress documente un cas où un utilisateur Linux a confié l'investigation à OpenAI Codex face à une suspicion de compromission.
- L'agent IA n'a pas neutralisé le cryptominer ni le voleur d'identifiants ; pire, il a masqué les symptômes du minage en cours.
- Les commandes générées par l'IA déclenchaient des alertes EDR car elles ressemblaient au tradecraft attaquant, brouillant l'investigation.
Ce qui s'est passé
Le 20 avril 2026, Cybernews relaie une analyse de Huntress portant sur un incident réel observé sur une machine Linux. Le propriétaire, suspectant un comportement anormal, a délégué l'enquête et la remédiation à l'agent OpenAI Codex plutôt qu'à un analyste humain. Or, au moins deux acteurs malveillants étaient déjà actifs sur le système : l'un installait des cryptomineurs, l'autre exfiltrait des identifiants.
Selon Huntress, Codex n'a pas réussi à arrêter le cryptominer. Pire, l'agent a appliqué des commandes qui ont eu pour effet de masquer les symptômes visibles du minage (charge CPU, processus suspects), retardant la prise de conscience de l'utilisateur. Les analystes Huntress ont dû intervenir en pleine investigation pour reprendre la main et neutraliser les attaquants.
Le rapport souligne un effet collatéral inattendu : certaines commandes générées par Codex ressemblaient tellement au tradecraft offensif qu'elles déclenchaient les alertes EDR comme s'il s'agissait d'attaques. Le SOC se retrouvait à trier des faux positifs IA tout en passant à côté du véritable mineur en arrière-plan.
Pourquoi c'est important
L'incident formalise un risque déjà pressenti : la réponse à incident reste un domaine où l'autonomie d'un agent IA peut empirer la situation. Un agent qui « nettoie » sans contexte forensique peut détruire des artefacts utiles, masquer des persistances et fournir un faux sentiment de sécurité, ce qui dans certains contextes (RGPD, NIS2, DORA) bloque la qualification de l'incident et l'horloge réglementaire de notification à 72 h.
Pour les RSSI et les équipes SOC, le message est clair : les agents IA généralistes ne remplacent pas un EDR managé ni un analyste DFIR, en particulier face à plusieurs acteurs simultanés. Codex et ses équivalents (Claude Code, Gemini Agent, Mistral Agent) doivent être encadrés par une politique d'usage interne, et exclus des phases de réponse à incident sensibles tant que des garde-fous forensiques ne sont pas intégrés.
Ce qu'il faut retenir
- Ne pas confier la réponse à incident à un agent IA généraliste : isoler la machine, capturer la mémoire, puis appeler un analyste DFIR.
- Documenter en politique interne les usages interdits des agents IA, notamment lors de la phase de containment.
- Ajuster les règles EDR pour distinguer commandes générées par IA et tradecraft offensif réel, afin d'éviter le bruit qui masque les vraies attaques.
Un agent IA peut-il quand même aider lors d'un incident de sécurité ?
Oui, mais en mode lecture seule et sous supervision : analyse de logs, corrélation d'IOC, suggestion d'hypothèses. La phase de containment (kill processes, suppression de fichiers, modification du système) doit rester sous contrôle humain ou confiée à un EDR éprouvé, pas à un agent IA généraliste qui peut détruire les artefacts forensiques.
Besoin d'un accompagnement expert ?
Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.
Prendre contactÀ propos de l'auteur
Ayi NEDJIMI
Auditeur Senior Cybersécurité & Consultant IA
Expert Judiciaire — Cour d'Appel de Paris
Habilitation Confidentiel Défense
ayi@ayinedjimi-consultants.fr
Ayi NEDJIMI est un vétéran de la cybersécurité avec plus de 25 ans d'expérience sur des missions critiques. Ancien développeur Microsoft à Redmond sur le module GINA (Windows NT4) et co-auteur de la version française du guide de sécurité Windows NT4 pour la NSA.
À la tête d'Ayi NEDJIMI Consultants, il réalise des audits Lead Auditor ISO 42001 et ISO 27001, des pentests d'infrastructures critiques, du forensics et des missions de conformité NIS2 / AI Act.
Conférencier international (Europe & US), il a formé plus de 10 000 professionnels.
Domaines d'expertise
Ressources & Outils de l'auteur
Articles connexes
Kelp DAO : 292 M$ volés via LayerZero, Lazarus suspecté
Le bridge Kelp DAO a perdu 116 500 rsETH (≈ 292 M$) via LayerZero. LayerZero attribue l'attaque au groupe nord-coréen Lazarus.
Vercel piraté via Context.ai : OAuth Workspace exploité
Vercel confirme une intrusion via Context.ai : un employé infecté par Lumma stealer a permis la prise de contrôle OAuth Google Workspace.
ShinyHunters revendique la compromission de Rockstar Games
Le groupe ShinyHunters a listé Rockstar Games sur son site de fuite mi-avril 2026 et menace de publier des données volées. Ni Rockstar ni Take-Two n'ont confirmé.
Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !
Laisser un commentaire