| PROCÉDURE D'ÉVALUATION D'IMPACT IA (EIAD) | |||
| Référence | PRO-EIAD-001 | Version | 1.0 |
| Date de création | [JJ/MM/AAAA] | Date de révision | [JJ/MM/AAAA] |
| Auteur | [Nom, Fonction] | Approbateur | [Nom, Fonction — Direction] |
| Classification | Interne | Statut | [ ] Brouillon [X] Validé [ ] Archivé |
Modèle gratuit — ISO 42001
La présente procédure définit le processus d'Évaluation d'Impact de l'Intelligence Artificielle (EIAD) applicable à l'ensemble des systèmes IA dans le périmètre du SMIA. Elle vise à :
L'EIAD est obligatoire dans les cas suivants :
| Déclencheur | Description | Délai |
|---|---|---|
| Nouveau système IA | Tout nouveau système IA avant sa mise en production, quelle que soit sa classification de risque (proportionnalité de l'analyse selon le risque). | Avant le déploiement |
| Modification majeure | Changement significatif d'un système IA existant : nouvelle version du modèle, changement d'architecture, extension du périmètre d'utilisation, modification du niveau d'autonomie. | Avant la mise en production de la modification |
| Changement de données | Modification significative des données d'entraînement ou d'exploitation : nouvelles sources, changement de volume important, modification de la population couverte. | Avant l'utilisation des nouvelles données |
| Incident IA | Suite à un incident IA significatif : biais détecté, décision erronée à impact, faille de sécurité, plainte utilisateur fondée. | Sous 30 jours après l'incident |
| Revue périodique | Réévaluation planifiée des systèmes IA à haut risque. | Tous les 12 mois (haut risque) / 24 mois (autres) |
R = Responsable | A = Approbateur | C = Consulté | I = Informé
| Étape | RSMIA | Responsable système | DPO | RSSI | Data Science | Comité IA |
|---|---|---|---|---|---|---|
| Déclenchement de l'EIAD | R | R | I | I | I | I |
| Collecte d'information | C | R | C | C | R | I |
| Classification risque AI Act | R | C | C | I | C | I |
| Analyse des impacts | R | C | R | C | R | I |
| Mesures de mitigation | R | R | C | C | R | I |
| Évaluation risque résiduel | R | C | C | C | C | I |
| Décision | C | I | C | C | I | A |
| Documentation et suivi | R | C | I | I | I | I |
Objectif : Identifier le système IA concerné et le contexte de l'évaluation.
Actions :
Livrable : Fiche d'identification EIAD (Section 1 du registre EIAD)
Objectif : Rassembler toutes les informations nécessaires à l'analyse d'impact.
Actions :
Livrable : Dossier d'information complété (Section 2 du registre EIAD)
Objectif : Déterminer le niveau de risque du système IA selon le Règlement européen.
Actions :
Livrable : Classification AI Act documentée
Objectif : Évaluer les risques et impacts du système IA sur chaque catégorie.
Actions :
Livrable : Matrice des risques complétée (Section 3 du registre EIAD)
Objectif : Définir les mesures pour réduire les risques identifiés à un niveau acceptable.
Actions :
Livrable : Plan de mitigation
Objectif : Réévaluer le niveau de risque après application des mesures de mitigation.
Actions :
Livrable : Matrice des risques résiduels
Objectif : Prendre une décision formelle sur le déploiement ou le maintien du système IA.
Actions :
| Décision | Critère | Conséquence |
|---|---|---|
| APPROUVÉ | Tous les risques résiduels sont faibles ou modérés | Le système peut être déployé/maintenu. Surveillance standard. |
| CONDITIONNEL | Des risques élevés subsistent mais sont maîtrisables | Le système peut être déployé sous conditions strictes. Surveillance renforcée. |
| REFUSÉ | Des risques critiques persistent ou le système est non conforme | Le système ne peut pas être déployé. Retour en développement ou abandon. |
Livrable : Décision formelle signée (Section 4 du registre EIAD)
Objectif : Documenter l'intégralité de l'évaluation et assurer le suivi.
Actions :
Livrable : Registre EIAD complet et archivé
| Score | Niveau | Fréquence estimée | Description |
|---|---|---|---|
| 1 | Très improbable | < 1 fois / 5 ans | Événement exceptionnel, aucun précédent connu dans le secteur |
| 2 | Improbable | < 1 fois / an | Événement rare, quelques cas connus dans le secteur |
| 3 | Possible | Quelques fois / an | Événement occasionnel, déjà observé dans des contextes similaires |
| 4 | Probable | Plusieurs fois / mois | Événement fréquent, régulièrement observé dans le secteur |
| 5 | Très probable | Quotidien / Hebdo | Événement quasi certain si aucune mesure n'est prise |
| Score | Niveau | Sur les individus | Sur l'organisation |
|---|---|---|---|
| 1 | Négligeable | Désagrément mineur, facilement réversible | Impact financier négligeable, pas de perte de réputation |
| 2 | Mineur | Préjudice limité, réversible avec effort | Impact financier mineur, couverture médiatique locale limitée |
| 3 | Modéré | Préjudice significatif pour un nombre limité de personnes | Impact financier modéré, atteinte à la réputation locale |
| 4 | Majeur | Préjudice grave pour un nombre important de personnes | Impact financier important, couverture médiatique nationale, sanctions réglementaires |
| 5 | Critique | Atteinte irréversible aux droits fondamentaux | Impact financier critique, perte de confiance généralisée, sanctions majeures |
| Score de risque | Niveau | Action requise |
|---|---|---|
| 1 — 4 | Faible | Risque acceptable. Surveillance standard. Aucune mesure spécifique requise. |
| 5 — 9 | Modéré | Risque à surveiller. Mesures de mitigation recommandées. Revue périodique. |
| 10 — 16 | Élevé | Risque significatif. Mesures de mitigation obligatoires. Surveillance renforcée. Approbation Comité IA requise. |
| 17 — 25 | Critique | Risque inacceptable. Déploiement interdit tant que le risque n'est pas ramené à un niveau acceptable. Mesures immédiates requises. |
| Référence | Intitulé |
|---|---|
| POL-IA-001 | Politique de management de l'intelligence artificielle |
| REG-SIA-001 | Registre des systèmes IA (inventaire) |
| REG-EIAD-001 | Registre des évaluations d'impact IA (template) |
| PRO-INC-IA-001 | Procédure de gestion des incidents IA |
| SOA-SMIA-001 | Déclaration d'Applicabilité (SoA) |
| ISO/IEC 42001:2023 | Norme ISO — Systèmes de management de l'IA |
| Règlement (UE) 2024/1689 | Règlement européen sur l'intelligence artificielle (AI Act) |
Ce questionnaire permet une première évaluation rapide du niveau de risque d'un système IA. Répondre Oui ou Non à chaque question. Un nombre élevé de réponses « Oui » indique un niveau de risque plus élevé nécessitant une analyse approfondie.
| N° | Question | Oui | Non | Commentaire |
|---|---|---|---|---|
| 1 | Le système IA prend-il ou influence-t-il des décisions ayant un impact significatif sur des personnes physiques (emploi, crédit, santé, justice) ? | [ ] | [ ] | |
| 2 | Le système traite-t-il des données personnelles sensibles (origine, opinions politiques, santé, données biométriques) ? | [ ] | [ ] | |
| 3 | Le système IA fonctionne-t-il de manière entièrement automatisée, sans intervention humaine dans la décision ? | [ ] | [ ] | |
| 4 | Le système est-il utilisé dans un domaine listé à l'Annexe III du Règlement IA européen (biométrie, infrastructure critique, éducation, emploi, services essentiels, forces de l'ordre, migration, justice) ? | [ ] | [ ] | |
| 5 | Les données d'entraînement du modèle proviennent-elles de sources multiples dont la qualité n'est pas systématiquement vérifiée ? | [ ] | [ ] | |
| 6 | Le système IA est-il susceptible de produire des résultats discriminatoires envers certains groupes de personnes ? | [ ] | [ ] | |
| 7 | Le fonctionnement interne du modèle est-il difficile à expliquer (boîte noire, deep learning complexe) ? | [ ] | [ ] | |
| 8 | Le système IA interagit-il directement avec des utilisateurs finaux (chatbot, assistant, interface conversationnelle) ? | [ ] | [ ] | |
| 9 | Le système génère-t-il du contenu (texte, image, audio, vidéo) qui pourrait être confondu avec du contenu humain ? | [ ] | [ ] | |
| 10 | Le système traite-t-il un volume important de données (> 10 000 enregistrements ou > 1 000 décisions/mois) ? | [ ] | [ ] | |
| 11 | Le système dépend-il d'un fournisseur externe pour le modèle IA (API tierce, modèle cloud) ? | [ ] | [ ] | |
| 12 | Le système est-il exposé à des risques de sécurité spécifiques (injection adversariale, empoisonnement, vol de modèle) ? | [ ] | [ ] | |
| 13 | L'organisation a-t-elle une visibilité limitée sur les données d'entraînement utilisées par le modèle ? | [ ] | [ ] | |
| 14 | Le système pourrait-il avoir un impact sur l'emploi au sein de l'organisation (automatisation de tâches, remplacement de postes) ? | [ ] | [ ] | |
| 15 | Le système est-il utilisé pour du profilage ou de la segmentation de personnes physiques ? | [ ] | [ ] | |
| 16 | Le système pourrait-il produire des résultats erronés aux conséquences irréversibles ? | [ ] | [ ] | |
| 17 | Des mineurs ou des personnes vulnérables font-ils partie des utilisateurs ou des personnes impactées ? | [ ] | [ ] | |
| 18 | Le modèle IA nécessite-t-il un réentraînement régulier avec de nouvelles données ? | [ ] | [ ] | |
| 19 | L'empreinte environnementale du système IA (consommation énergétique, GPU) est-elle significative ? | [ ] | [ ] | |
| 20 | Le système IA est-il soumis à des obligations réglementaires sectorielles spécifiques (santé, finance, transport) ? | [ ] | [ ] |
Interprétation :
| Nombre de « Oui » | Niveau indicatif | Action |
|---|---|---|
| 0 — 4 | Faible | EIAD simplifiée |
| 5 — 9 | Modéré | EIAD standard |
| 10 — 14 | Élevé | EIAD approfondie |
| 15 — 20 | Critique | EIAD approfondie + validation Direction |
Cette grille fournit des critères détaillés pour évaluer chaque catégorie de risque.
| Catégorie | Score 1 (Négligeable) | Score 2 (Mineur) | Score 3 (Modéré) | Score 4 (Majeur) | Score 5 (Critique) |
|---|---|---|---|---|---|
| Biais / Discrimination | Pas de risque de biais identifié. Données représentatives. | Risque théorique de biais. Données majoritairement représentatives. | Biais possibles sur certaines populations. Tests partiels réalisés. | Biais avérés sur des critères protégés. Impact sur un grand nombre de personnes. | Discrimination systématique. Atteinte aux droits fondamentaux. |
| Vie privée | Pas de données personnelles traitées. | Données personnelles non sensibles, anonymisation possible. | Données personnelles, profilage limité. | Données sensibles, profilage étendu, transfert hors UE. | Surveillance de masse, identification biométrique, croisement de fichiers. |
| Sécurité | Système isolé, pas d'accès externe. | Exposition limitée, protection standard. | Système exposé, surface d'attaque modérée. | Système critique, vulnérabilités connues dans le type de modèle. | Système critique sans protection, risque de compromission avec impact majeur. |
| Transparence | Système simple, décisions facilement explicables. | Explications disponibles mais nécessitent expertise technique. | Boîte grise, explications partielles possibles. | Boîte noire, pas d'explication disponible, décisions impactantes. | Opacité totale, décisions critiques non explicables, aucune traçabilité. |
| Fiabilité | Performances stables, monitoring en place, fallback disponible. | Performances satisfaisantes, monitoring partiel. | Dérives occasionnelles, pas de monitoring automatisé. | Erreurs fréquentes, pas de mécanisme de fallback. | Système non fiable, hallucinations fréquentes, aucune surveillance. |
| Impact sociétal | Pas d'impact social identifié. | Impact limité et positif sur les conditions de travail. | Automatisation de tâches, plan d'accompagnement au changement prévu. | Suppression significative de postes, impact sur des groupes vulnérables. | Impact systémique sur l'emploi, renforcement d'inégalités structurelles. |
| Environnement | Empreinte carbone négligeable. | Consommation énergétique faible, infrastructure partagée. | Entraînement régulier, consommation GPU modérée. | Entraînement fréquent de grands modèles, infrastructure dédiée. | LLM massifs, entraînement intensif, empreinte carbone très élevée. |
| Dépendance fournisseur | Solution interne, pas de dépendance externe. | Fournisseur avec alternatives disponibles, données portables. | Dépendance modérée, clause de réversibilité. | Forte dépendance, pas de clause de réversibilité, données peu portables. | Vendor lock-in total, pas d'alternative, données non récupérables. |