En bref

  • Braintrust, plateforme d'évaluation des modèles IA, a confirmé une intrusion dans un compte AWS contenant des clés API clients.
  • Box, Cloudflare, Dropbox, Notion, Ramp et Stripe figurent parmi les sociétés concernées et invitées à régénérer leurs secrets.
  • La startup demande à tous ses utilisateurs de tourner immédiatement les clés stockées chez elle, sans attendre la fin de l'enquête.

Ce qui s'est passé

Braintrust, qualifié par ses clients de « système d'exploitation pour ingénieurs construisant des produits IA », a notifié l'ensemble de sa base utilisateurs le 5 mai 2026 d'un incident de sécurité majeur. La startup, fondée en 2023 et soutenue par Andreessen Horowitz, a détecté la veille un comportement anormal dans l'un de ses comptes Amazon Web Services. Après quelques heures d'analyse, ses équipes ont confirmé un accès non autorisé. Le compte concerné stockait précisément les clés API que les clients utilisaient pour interroger les modèles d'OpenAI, d'Anthropic, de Google ou d'autres fournisseurs depuis la plateforme Braintrust.

D'après TechCrunch, qui a publié l'information le 6 mai après avoir consulté l'e-mail envoyé aux clients, l'attaquant a eu la main sur un environnement cloud isolé pendant plusieurs heures. Braintrust dit avoir verrouillé le compte compromis, audité l'accès aux systèmes voisins et tourné l'ensemble de ses propres secrets internes. La société précise n'avoir « à ce jour aucune preuve » d'une exploitation de masse, et n'avoir échangé qu'avec un seul client à propos d'une exposition confirmée. Mais elle assume une posture maximaliste : tous les clients sont invités à régénérer immédiatement les clés stockées sur la plateforme, qu'elles aient été touchées ou non.

Cette consigne couvre un périmètre vertigineux. Selon les éléments rapportés par TechCrunch et SecurityWeek, les clés API au niveau organisation potentiellement exposées appartiennent à des sociétés qui constituent l'épine dorsale de l'écosystème SaaS américain : Box, Cloudflare, Dropbox, Notion, Ramp, Stripe et plusieurs autres entreprises « AI-forward ». Toutes utilisent Braintrust pour évaluer en continu les performances de leurs propres applications dopées à l'IA générative et stockent à cette fin des secrets de fournisseurs LLM dans le service.

L'enjeu technique est double. D'une part, une clé API d'OpenAI ou d'Anthropic permet de consommer de la capacité de calcul facturée à l'organisation propriétaire — la facture peut s'envoler en quelques heures si un attaquant détourne la clé pour générer massivement du contenu. D'autre part, ces clés donnent accès à des paramètres de fine-tuning, à des historiques de conversations parfois sensibles et à des projets internes liés aux pipelines de données. La rotation imposée par Braintrust n'est donc pas un simple geste cosmétique : elle déclenche un travail d'inventaire chez chaque client, qui doit identifier tous les services dépendants des anciennes clés et les mettre à jour sans interruption de service.

Braintrust n'a pas communiqué publiquement la cause racine de l'intrusion. La startup parle d'une « investigation en cours », sans préciser s'il s'agissait d'identifiants compromis, d'une mauvaise configuration IAM, d'une faille dans une dépendance tierce ou de l'exploitation d'une vulnérabilité dans un service AWS. Sur les réseaux sociaux, plusieurs ingénieurs sécurité s'interrogent sur la présence de clés clients en clair dans un compte cloud accessible — une pratique courante dans les plateformes d'évaluation IA mais que les standards de cybersécurité tendent à proscrire au profit de schémas de chiffrement enveloppant.

Le moment est particulièrement délicat pour Braintrust. La société, qui aurait franchi les 50 millions de dollars de revenus annualisés, est en pleine levée de fonds avancée et son outil est devenu un standard de fait pour les équipes qui construisent des agents IA. Selon SecurityWeek, certains clients menacent désormais de migrer vers des alternatives comme LangSmith, Helicone ou Comet, qui proposent des architectures où les clés ne quittent jamais l'environnement du client. La firme a promis un rapport post-mortem détaillé, sans donner de calendrier.

La séquence rappelle l'incident Sourcegraph de 2023, où la startup avait dû notifier ses clients après qu'une clé d'accès interne avait fuité dans un commit Git public. Elle s'inscrit aussi dans une série noire pour les fournisseurs SaaS d'outillage IA : Hugging Face avait subi une intrusion en juin 2024, et Replit avait dû revoir son modèle de secrets après plusieurs incidents en 2025. À chaque fois, le même schéma : un service qui agit comme intermédiaire entre les développeurs et les modèles devient une cible privilégiée parce qu'il concentre des centaines de clés provenant de multiples organisations.

Braintrust a confirmé travailler avec Mandiant et avec l'équipe sécurité d'AWS pour cartographier l'étendue exacte de la compromission. La société dit également avoir signalé l'incident aux autorités fédérales américaines. Les clients européens sont, eux, dans l'attente d'une notification formelle au sens du RGPD, dans la mesure où certaines clés API peuvent transiter par des conversations contenant des données personnelles évaluées dans Braintrust.

Pourquoi c'est important

Au-delà du cas Braintrust, l'épisode confirme une tendance lourde : les plateformes d'observabilité et d'évaluation IA sont devenues les nouveaux concentrateurs de risque cyber. En 2023, on s'inquiétait des secrets stockés dans GitHub. En 2024, l'attention s'est déportée vers les coffres CI/CD comme CircleCI, Travis ou GitHub Actions. En 2026, ce sont les évaluateurs de modèles, les bibliothèques de prompts et les marketplaces d'agents qui captent le risque, parce qu'ils sont structurellement obligés de manipuler les clés des clients pour effectuer leur tâche. La promesse fonctionnelle — « confiez-nous vos clés, nous orchestrons l'évaluation » — entre frontalement en collision avec le principe de moindre privilège.

Le second enjeu est financier. Les clés OpenAI ou Anthropic exposées peuvent être abusées pour générer des appels coûteux, en particulier sur les modèles haut de gamme comme Claude Opus 4.7 ou GPT-5.5 thinking, dont les jetons coûtent plusieurs dizaines de dollars par million. Selon plusieurs analyses publiées en 2025, les détournements de clés API d'IA se traduisent typiquement par des factures de plusieurs dizaines de milliers de dollars par jour, avant détection. Pour des sociétés comme Stripe ou Cloudflare, le risque financier est marginal ; pour des startups plus modestes utilisant Braintrust, il peut être existentiel. Anthropic et OpenAI proposent désormais des alertes natives sur les pics de consommation, mais ces garde-fous ne couvrent pas systématiquement les comptes organisation distribués entre plusieurs équipes.

Sur le plan réglementaire, l'incident pourrait servir de cas d'école aux régulateurs européens travaillant sur l'AI Act et la directive NIS2. Le règlement européen sur l'IA, qui entre progressivement en application en 2026, n'impose pas encore d'obligations spécifiques aux outils d'évaluation, mais la directive NIS2, transposée en France depuis octobre 2025, qualifie certains acteurs SaaS de « fournisseurs de services numériques importants ». Une plateforme manipulant des clés d'accès au nom de centaines d'entreprises pourrait à terme tomber sous cette qualification, avec à la clé des obligations de notification d'incident sous 24 heures et un audit annuel obligatoire.

Enfin, l'épisode souligne la maturité encore insuffisante des contrôles d'accès dans l'écosystème IA. Plusieurs outils existent pour limiter le rayon d'explosion d'une clé API compromise — restrictions d'IP, plafonds de dépense, jetons à durée de vie courte, schémas de signature de requête. Selon une étude publiée par Wiz début 2026, moins de 30 % des utilisateurs d'API OpenAI activent un plafond de dépense sur leurs clés, et moins de 5 % utilisent des jetons à scope restreint. La leçon Braintrust devrait pousser DSI et RSSI à imposer ces garde-fous de manière systématique avant de connecter une nouvelle plateforme tierce à leurs comptes IA.

Ce qu'il faut retenir

  • Tout client Braintrust doit immédiatement régénérer ses clés API stockées sur la plateforme et auditer l'usage récent des modèles concernés.
  • L'incident remet en cause le modèle des plateformes IA tierces qui centralisent les secrets de plusieurs grands clients dans un même compte cloud.
  • Activer un plafond de dépense et une restriction d'IP sur chaque clé d'IA est désormais une exigence minimale, pas une option.

Mes données ont-elles forcément été exposées si j'utilise Braintrust ?

Non. Braintrust dit n'avoir confirmé qu'un seul client touché à ce stade, mais demande à tous une rotation par précaution. Les conversations stockées dans la plateforme à des fins d'évaluation sont également à considérer comme potentiellement consultées tant que l'investigation n'est pas close.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact