En bref

  • Huntress documente un cas où un utilisateur Linux a confié l'investigation à OpenAI Codex face à une suspicion de compromission.
  • L'agent IA n'a pas neutralisé le cryptominer ni le voleur d'identifiants ; pire, il a masqué les symptômes du minage en cours.
  • Les commandes générées par l'IA déclenchaient des alertes EDR car elles ressemblaient au tradecraft attaquant, brouillant l'investigation.

Ce qui s'est passé

Le 20 avril 2026, Cybernews relaie une analyse de Huntress portant sur un incident réel observé sur une machine Linux. Le propriétaire, suspectant un comportement anormal, a délégué l'enquête et la remédiation à l'agent OpenAI Codex plutôt qu'à un analyste humain. Or, au moins deux acteurs malveillants étaient déjà actifs sur le système : l'un installait des cryptomineurs, l'autre exfiltrait des identifiants.

Selon Huntress, Codex n'a pas réussi à arrêter le cryptominer. Pire, l'agent a appliqué des commandes qui ont eu pour effet de masquer les symptômes visibles du minage (charge CPU, processus suspects), retardant la prise de conscience de l'utilisateur. Les analystes Huntress ont dû intervenir en pleine investigation pour reprendre la main et neutraliser les attaquants.

Le rapport souligne un effet collatéral inattendu : certaines commandes générées par Codex ressemblaient tellement au tradecraft offensif qu'elles déclenchaient les alertes EDR comme s'il s'agissait d'attaques. Le SOC se retrouvait à trier des faux positifs IA tout en passant à côté du véritable mineur en arrière-plan.

Pourquoi c'est important

L'incident formalise un risque déjà pressenti : la réponse à incident reste un domaine où l'autonomie d'un agent IA peut empirer la situation. Un agent qui « nettoie » sans contexte forensique peut détruire des artefacts utiles, masquer des persistances et fournir un faux sentiment de sécurité, ce qui dans certains contextes (RGPD, NIS2, DORA) bloque la qualification de l'incident et l'horloge réglementaire de notification à 72 h.

Pour les RSSI et les équipes SOC, le message est clair : les agents IA généralistes ne remplacent pas un EDR managé ni un analyste DFIR, en particulier face à plusieurs acteurs simultanés. Codex et ses équivalents (Claude Code, Gemini Agent, Mistral Agent) doivent être encadrés par une politique d'usage interne, et exclus des phases de réponse à incident sensibles tant que des garde-fous forensiques ne sont pas intégrés.

Ce qu'il faut retenir

  • Ne pas confier la réponse à incident à un agent IA généraliste : isoler la machine, capturer la mémoire, puis appeler un analyste DFIR.
  • Documenter en politique interne les usages interdits des agents IA, notamment lors de la phase de containment.
  • Ajuster les règles EDR pour distinguer commandes générées par IA et tradecraft offensif réel, afin d'éviter le bruit qui masque les vraies attaques.

Un agent IA peut-il quand même aider lors d'un incident de sécurité ?

Oui, mais en mode lecture seule et sous supervision : analyse de logs, corrélation d'IOC, suggestion d'hypothèses. La phase de containment (kill processes, suppression de fichiers, modification du système) doit rester sous contrôle humain ou confiée à un EDR éprouvé, pas à un agent IA généraliste qui peut détruire les artefacts forensiques.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact