Intelligence Artificielle

AI Act 2026
Conformité Systèmes IA à Haut Risque

Guide complet pour se conformer au règlement européen sur l'intelligence artificielle : classification des risques, obligations, documentation technique et mise en conformité.

Ayi NEDJIMI 40 min de lecture 5 janvier 2026

Table des matières

1 Introduction à l'AI Act

Premier cadre juridique mondial sur l'IA

Le Règlement (UE) 2024/1689 sur l'intelligence artificielle, communément appelé AI Act, représente une avancée réglementaire majeure à l'échelle mondiale. Adopté en mars 2024 et publié au Journal Officiel de l'Union européenne en juillet 2024, ce règlement établit le premier cadre juridique complet régissant le développement, la mise sur le marché et l'utilisation des systèmes d'intelligence artificielle.

L'approche européenne repose sur une logique de proportionnalité : les obligations imposées aux acteurs varient selon le niveau de risque que présente le système IA concerné. Cette classification permet de concentrer les exigences les plus strictes sur les applications présentant les risques les plus élevés pour les droits fondamentaux et la sécurité des personnes.

En janvier 2026, nous nous trouvons dans une phase critique de mise en conformité. Les interdictions des pratiques à risque inacceptable sont effectives depuis février 2025, les obligations sur les modèles d'IA à usage général (GPAI) depuis août 2025, et l'ensemble des règles relatives aux systèmes à haut risque s'appliqueront pleinement à partir d'août 2026.

Champ d'application territorial

L'AI Act s'applique selon une logique d'effet territorial étendu, similaire à celle du RGPD. Sont concernés tous les fournisseurs de systèmes IA mis sur le marché ou mis en service dans l'Union, qu'ils soient établis dans l'UE ou dans un pays tiers. Les déployeurs (utilisateurs professionnels) établis dans l'UE sont également soumis au règlement.

De plus, l'AI Act couvre les fournisseurs et déployeurs établis hors de l'UE lorsque les résultats produits par leur système IA sont utilisés dans l'Union. Cette disposition capture notamment les services IA fournis à distance depuis des pays tiers mais utilisés par des personnes situées sur le territoire européen.

Certaines exclusions s'appliquent : les systèmes IA développés et utilisés exclusivement à des fins militaires, de défense ou de sécurité nationale échappent au règlement. De même, les activités de recherche et développement scientifique non commerciales bénéficient d'exemptions, ainsi que les utilisations purement personnelles et non professionnelles.

08/2026

Application complète des règles systèmes haut risque

35 M€

Amende maximale pour pratiques interdites

4

Niveaux de risque définis par le règlement

2 Classification des risques IA

L'architecture fondamentale de l'AI Act repose sur une pyramide des risques qui détermine le régime juridique applicable à chaque système d'intelligence artificielle. Cette approche graduée permet d'adapter les contraintes réglementaires à la dangerosité potentielle des applications.

Pyramide de Classification des Risques AI Act

Pyramide de classification des risques AI Act RISQUE INACCEPTABLE INTERDIT HAUT RISQUE Conformité obligatoire Annexe III AI Act RISQUE LIMITÉ Obligations de transparence Chatbots, deepfakes, IA émotionnelle RISQUE MINIMAL / NUL Pas d'obligations spécifiques Codes de conduite volontaires recommandés Exemples interdits : • Score social généralisé • Manipulation subliminale Exemples haut risque : • Recrutement IA • Diagnostic médical • Notation crédit Risque limité : • Chatbots • Deepfakes Risque minimal : • Filtres spam • Jeux vidéo IA

Figure 1 : Les quatre niveaux de risque définis par l'AI Act et leurs implications réglementaires

Risque inacceptable : l'interdiction

Au sommet de la pyramide se trouvent les systèmes IA dont le risque est jugé inacceptable et qui sont purement et simplement interdits. Cette catégorie inclut les techniques de manipulation subliminale ou trompeuse causant des préjudices, l'exploitation de vulnérabilités liées à l'âge, au handicap ou à la situation sociale, la notation sociale généralisée par les autorités publiques, et l'utilisation de la reconnaissance faciale en temps réel dans l'espace public par les forces de l'ordre (sauf exceptions strictes).

Haut risque : conformité obligatoire

Les systèmes IA à haut risque constituent le cœur du dispositif réglementaire. Ils sont soumis à un ensemble complet d'obligations préalables à leur mise sur le marché : système de gestion des risques, gouvernance des données, documentation technique, enregistrement des événements, transparence, supervision humaine, exactitude, robustesse et cybersécurité.

Risque limité : transparence

Les systèmes présentant un risque limité sont principalement soumis à des obligations de transparence. Les utilisateurs doivent être informés qu'ils interagissent avec un système IA (chatbots), que le contenu a été généré ou manipulé artificiellement (deepfakes), ou que leurs émotions sont analysées.

Risque minimal : liberté encadrée

La grande majorité des systèmes IA relèvent de la catégorie risque minimal et ne sont soumis à aucune obligation spécifique. Néanmoins, le règlement encourage l'adoption volontaire de codes de conduite intégrant les principes de l'AI Act.

3 Systèmes IA interdits

Application depuis février 2025

Les interdictions prévues par l'article 5 de l'AI Act sont effectives depuis le 2 février 2025. Tout déploiement de ces systèmes expose à des sanctions pouvant atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial.

Manipulation et exploitation des vulnérabilités

L'AI Act interdit les systèmes IA utilisant des techniques subliminales, manipulatrices ou trompeuses pour altérer significativement le comportement des personnes d'une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique. Cette interdiction couvre les interfaces conçues pour exploiter les biais cognitifs ou les dark patterns.

Sont également interdits les systèmes exploitant les vulnérabilités des personnes dues à leur âge, leur handicap ou leur situation sociale ou économique. Un système de publicité ciblée exploitant la précarité financière pour pousser à l'endettement serait typiquement concerné.

Notation sociale

Les systèmes de notation sociale par les autorités publiques évaluant ou classifiant les personnes physiques sur la base de leur comportement social ou de caractéristiques personnelles sont interdits lorsqu'ils conduisent à un traitement préjudiciable disproportionné ou déconnecté du contexte dans lequel les données ont été collectées.

Reconnaissance faciale et biométrique

L'AI Act interdit plusieurs usages de l'identification biométrique : la constitution de bases de données de reconnaissance faciale par collecte non ciblée (scraping), l'inférence des émotions sur le lieu de travail et dans les établissements d'enseignement (sauf raisons médicales ou de sécurité), et la catégorisation biométrique déduisant des caractéristiques sensibles (race, opinions politiques, orientation sexuelle).

L'identification biométrique à distance en temps réel dans les espaces publics par les forces de l'ordre est interdite sauf dans trois cas exceptionnels : recherche de victimes d'enlèvement ou de traite, prévention d'une menace terroriste imminente, et localisation de suspects de crimes graves. Ces exceptions sont strictement encadrées par des autorisations judiciaires préalables.

4 Systèmes IA à haut risque

Définition et périmètre

Les systèmes IA à haut risque sont définis selon deux critères alternatifs. Premièrement, les systèmes qui sont eux-mêmes des produits ou des composants de sécurité de produits couverts par la législation d'harmonisation de l'Union listée à l'Annexe I (machines, jouets, équipements médicaux, véhicules, etc.) et qui requièrent une évaluation de conformité par un tiers.

Deuxièmement, les systèmes listés à l'Annexe III du règlement, organisée en huit domaines : identification biométrique, gestion d'infrastructures critiques, éducation et formation professionnelle, emploi et gestion des travailleurs, accès aux services essentiels, forces de l'ordre, migration et asile, administration de la justice.

Les 8 Domaines de Systèmes IA à Haut Risque (Annexe III)

Les 8 domaines de systemes IA a haut risque selon Annexe III ANNEXE III AI Act Biométrie Identification Catégorisation Infrastructures Critiques Énergie, eau... Éducation Admission Évaluation Emploi Recrutement Évaluation Services Crédit, santé Assurance Police Prédiction Profilage Migration Asile Frontières Justice Aide décision Recherche

Figure 2 : Les huit domaines d'application des systèmes IA à haut risque selon l'Annexe III

Obligations des fournisseurs

Les fournisseurs de systèmes IA à haut risque doivent mettre en place un système de gestion des risques documenté et itératif, couvrant l'ensemble du cycle de vie du système. Ce système doit identifier et analyser les risques connus et prévisibles, estimer et évaluer les risques qui peuvent survenir lors d'une utilisation conforme ou d'un mésusage raisonnablement prévisible, et mettre en œuvre des mesures de gestion appropriées.

La gouvernance des données est une exigence centrale. Les jeux de données d'entraînement, de validation et de test doivent être pertinents, représentatifs, exempts d'erreurs et complets. Des mesures spécifiques doivent être prises pour détecter, prévenir et atténuer les biais potentiels, notamment ceux liés aux caractéristiques protégées (origine, genre, âge, handicap, etc.).

Les systèmes doivent être conçus pour permettre une supervision humaine effective. Selon le niveau de risque, cette supervision peut aller de la simple validation des résultats (human-on-the-loop) jusqu'à la possibilité d'intervention en temps réel (human-in-the-loop) ou de désactivation (human-in-command).

5 Obligations de transparence

Systèmes interagissant avec des personnes

Tout système IA conçu pour interagir directement avec des personnes physiques doit informer celles-ci qu'elles interagissent avec un système IA, sauf si cela ressort clairement des circonstances et du contexte d'utilisation. Cette obligation s'applique notamment aux chatbots, assistants virtuels et systèmes de recommandation interactifs.

L'information doit être claire, compréhensible et fournie au moment opportun. Elle peut être délivrée par différents moyens : message textuel, icône standardisée, mention vocale, selon le canal d'interaction utilisé.

Contenus générés ou manipulés

Les utilisateurs de systèmes IA générant des contenus synthétiques (texte, image, audio, vidéo) doivent marquer ces contenus comme générés artificiellement ou manipulés. Cette obligation vise particulièrement les deepfakes et les contenus générés par IA qui pourraient être confondus avec des contenus authentiques.

Le marquage doit être lisible par machine et permettre une détection automatisée. Les normes techniques pour ce marquage sont en cours de développement. Une exception s'applique aux usages artistiques, satiriques ou parodiques qui ne portent pas atteinte aux droits des tiers.

Reconnaissance d'émotions et catégorisation

Les personnes exposées à un système de reconnaissance d'émotions ou de catégorisation biométrique doivent être informées de ce traitement. Cette information doit préciser les catégories utilisées (émotions, caractéristiques déduites) et l'usage qui en est fait.

6 Évaluation de conformité

Auto-évaluation vs évaluation par un tiers

L'AI Act prévoit deux voies d'évaluation de la conformité pour les systèmes à haut risque. La majorité des systèmes peuvent faire l'objet d'une auto-évaluation par le fournisseur (contrôle interne). Cette procédure implique de vérifier que le système de management de la qualité est conforme, que la documentation technique est complète et que le système satisfait aux exigences applicables.

Certains systèmes nécessitent une évaluation par un organisme notifié (tiers indépendant). C'est le cas des systèmes d'identification biométrique à distance et des systèmes IA intégrés dans des produits déjà soumis à évaluation par un tiers selon la législation sectorielle applicable.

Processus de Mise en Conformité AI Act

Processus de mise en conformite AI Act 1 Identification Classification du risque 2 Gap Analysis Écarts vs exigences 3 Remédiation Documentation Mesures tech. 4 Évaluation Auto ou organisme 5 Marquage CE Déclaration conformité Surveillance post-marché et mises à jour 6 Enregistrement Base de données UE

Figure 3 : Les étapes clés du processus de mise en conformité AI Act

Système de management de la qualité

Les fournisseurs de systèmes à haut risque doivent mettre en place un système de management de la qualité documenté couvrant : la stratégie de conformité réglementaire, les techniques et procédures de conception et développement, les procédures de test et validation, les spécifications techniques, les systèmes et procédures de gestion des données, et le système de gestion des risques.

Ce système doit être proportionné à la taille de l'organisation et faire l'objet d'audits internes réguliers. Il peut s'appuyer sur des normes existantes (ISO 9001, ISO/IEC 42001 sur le management de l'IA) adaptées aux exigences spécifiques de l'AI Act.

7 Documentation technique

Contenu obligatoire

La documentation technique constitue la preuve de la conformité du système IA aux exigences du règlement. Elle doit être établie avant la mise sur le marché et maintenue à jour tout au long du cycle de vie du système. L'Annexe IV de l'AI Act détaille le contenu minimal requis.

Cette documentation comprend notamment : une description générale du système (finalité prévue, développeur, versions), une description détaillée des éléments du système et de son processus de développement, les informations sur les données d'entraînement et de test, les méthodes et métriques utilisées pour évaluer les performances, les mesures de gestion des risques, et les instructions d'utilisation.

Section Contenu Importance
Description générale Finalité, fonctionnalités, versions, développeur Critique
Architecture technique Modèle, algorithmes, composants, interfaces Critique
Données Sources, caractéristiques, préparation, biais Critique
Tests et validation Métriques, résultats, limites identifiées Élevée
Gestion des risques Identification, évaluation, mesures d'atténuation Critique
Instructions d'utilisation Guide déployeur, supervision humaine, maintenance Élevée

Conservation et mise à jour

La documentation technique doit être conservée pendant 10 ans après la mise sur le marché du système IA (ou la mise hors service pour les systèmes utilisés en continu). Toute modification substantielle du système nécessite une mise à jour de la documentation et potentiellement une nouvelle évaluation de conformité.

8 Marquage CE et mise sur le marché

Déclaration de conformité UE

Avant d'apposer le marquage CE, le fournisseur doit établir une déclaration de conformité UE écrite pour chaque système IA à haut risque. Cette déclaration contient l'identification du système et du fournisseur, une déclaration que le système est conforme au règlement, les références des normes harmonisées ou spécifications communes appliquées, et le cas échéant l'identification de l'organisme notifié ayant effectué l'évaluation.

La déclaration de conformité engage la responsabilité du fournisseur. Elle doit être tenue à disposition des autorités de surveillance du marché pendant au moins 10 ans et fournie aux déployeurs avec le système.

Cycle de Certification et Marquage CE

Cycle de certification et marquage CE AI Act CE Marquage Documentation Technique complète Évaluation Conformité validée Déclaration Conformité UE Enregistrement Base de données UE Le marquage CE atteste la conformité aux exigences essentielles de l'AI Act

Figure 4 : Éléments requis pour l'obtention du marquage CE AI Act

Base de données européenne

Les systèmes IA à haut risque listés à l'Annexe III doivent être enregistrés dans la base de données européenne avant leur mise sur le marché. Cette base de données, gérée par la Commission européenne, est publiquement accessible et contient des informations essentielles sur les systèmes : identification, finalité, statut de conformité, coordonnées du fournisseur.

L'enregistrement a un double objectif : permettre aux autorités de surveillance du marché de suivre les systèmes en circulation et offrir aux utilisateurs potentiels une visibilité sur les systèmes conformes disponibles. Les déployeurs dans le secteur public doivent également s'enregistrer.

9 Régime de sanctions

Amendes administratives

L'AI Act prévoit un régime de sanctions administratives gradué selon la gravité des infractions. Les sanctions les plus sévères concernent les pratiques interdites (article 5) : jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial total de l'exercice précédent, le montant le plus élevé étant retenu.

Pour les violations des obligations relatives aux systèmes à haut risque et autres exigences substantielles, les amendes peuvent atteindre 15 millions d'euros ou 3% du chiffre d'affaires mondial. La fourniture d'informations incorrectes, incomplètes ou trompeuses aux autorités est passible d'amendes jusqu'à 7,5 millions d'euros ou 1,5% du chiffre d'affaires.

Barème des sanctions AI Act

Pratiques interdites (Art. 5) 35 M€ / 7% CA
Obligations systèmes haut risque 15 M€ / 3% CA
Informations incorrectes aux autorités 7,5 M€ / 1,5% CA

Adaptations pour PME et startups

L'AI Act prévoit des plafonds adaptés pour les PME et les startups. Pour ces structures, les amendes sont plafonnées au montant le plus bas entre le pourcentage du CA et le montant fixe. Cette disposition vise à éviter que des sanctions disproportionnées ne mettent en péril la viabilité d'entreprises innovantes.

Les autorités de surveillance doivent également prendre en compte les circonstances atténuantes : premier manquement, mesures correctives prises, coopération avec les autorités, absence de faute intentionnelle. À l'inverse, les récidives et l'obstruction aux contrôles constituent des circonstances aggravantes.

10 Checklist de conformité

Phase 1 : Identification et classification

  • Inventorier tous les systèmes IA de l'organisation (développés ou utilisés)
  • Classifier chaque système selon les catégories de risque AI Act
  • Vérifier l'absence de pratiques interdites (article 5)
  • Identifier les systèmes relevant de l'Annexe III (haut risque)

Phase 2 : Gap analysis et planification

  • Évaluer les écarts entre l'existant et les exigences applicables
  • Définir un plan de remédiation priorisé avec échéances
  • Allouer les ressources nécessaires (budget, compétences)
  • Identifier les besoins en formation des équipes

Phase 3 : Mise en conformité (systèmes haut risque)

  • Mettre en place le système de gestion des risques
  • Documenter la gouvernance des données (sources, qualité, biais)
  • Établir la documentation technique complète (Annexe IV)
  • Implémenter la traçabilité et les logs
  • Concevoir les mécanismes de supervision humaine
  • Rédiger les instructions d'utilisation pour les déployeurs

Phase 4 : Évaluation et mise sur le marché

  • Réaliser l'évaluation de conformité (auto ou organisme notifié)
  • Établir la déclaration de conformité UE
  • Apposer le marquage CE
  • Enregistrer dans la base de données européenne
  • Mettre en place la surveillance post-marché

Besoin d'accompagnement AI Act ?

Nos experts vous accompagnent dans l'évaluation de vos systèmes IA, la classification des risques et la mise en conformité avec le règlement européen sur l'intelligence artificielle.

Articles connexes