PROCÉDURE D'ÉVALUATION D'IMPACT IA (EIAD)
RéférencePRO-EIAD-001 Version1.0
Date de création[JJ/MM/AAAA] Date de révision[JJ/MM/AAAA]
Auteur[Nom, Fonction] Approbateur[Nom, Fonction — Direction]
ClassificationInterne Statut[ ] Brouillon [X] Validé [ ] Archivé

Modèle gratuit — ISO 42001

1. Objectif

La présente procédure définit le processus d'Évaluation d'Impact de l'Intelligence Artificielle (EIAD) applicable à l'ensemble des systèmes IA dans le périmètre du SMIA. Elle vise à :

2. Périmètre d'application

L'EIAD est obligatoire dans les cas suivants :

DéclencheurDescriptionDélai
Nouveau système IATout nouveau système IA avant sa mise en production, quelle que soit sa classification de risque (proportionnalité de l'analyse selon le risque).Avant le déploiement
Modification majeureChangement significatif d'un système IA existant : nouvelle version du modèle, changement d'architecture, extension du périmètre d'utilisation, modification du niveau d'autonomie.Avant la mise en production de la modification
Changement de donnéesModification significative des données d'entraînement ou d'exploitation : nouvelles sources, changement de volume important, modification de la population couverte.Avant l'utilisation des nouvelles données
Incident IASuite à un incident IA significatif : biais détecté, décision erronée à impact, faille de sécurité, plainte utilisateur fondée.Sous 30 jours après l'incident
Revue périodiqueRéévaluation planifiée des systèmes IA à haut risque.Tous les 12 mois (haut risque) / 24 mois (autres)

3. Responsabilités

R = Responsable | A = Approbateur | C = Consulté | I = Informé

ÉtapeRSMIAResponsable systèmeDPORSSIData ScienceComité IA
Déclenchement de l'EIADRRIIII
Collecte d'informationCRCCRI
Classification risque AI ActRCCICI
Analyse des impactsRCRCRI
Mesures de mitigationRRCCRI
Évaluation risque résiduelRCCCCI
DécisionCICCIA
Documentation et suiviRCIIII

4. Processus d'évaluation d'impact

ÉTAPE 1
Identification
ÉTAPE 2
Collecte info
ÉTAPE 3
Classification
ÉTAPE 4
Analyse impacts
ÉTAPE 5
Mitigation
ÉTAPE 6
Risque résiduel
ÉTAPE 7
Décision
ÉTAPE 8
Documentation
1Identification du système IA

Objectif : Identifier le système IA concerné et le contexte de l'évaluation.

Actions :

Livrable : Fiche d'identification EIAD (Section 1 du registre EIAD)

2Collecte d'information

Objectif : Rassembler toutes les informations nécessaires à l'analyse d'impact.

Actions :

Livrable : Dossier d'information complété (Section 2 du registre EIAD)

3Classification du risque AI Act

Objectif : Déterminer le niveau de risque du système IA selon le Règlement européen.

Actions :

Livrable : Classification AI Act documentée

4Analyse des impacts

Objectif : Évaluer les risques et impacts du système IA sur chaque catégorie.

Actions :

Livrable : Matrice des risques complétée (Section 3 du registre EIAD)

5Identification des mesures de mitigation

Objectif : Définir les mesures pour réduire les risques identifiés à un niveau acceptable.

Actions :

Livrable : Plan de mitigation

6Évaluation du risque résiduel

Objectif : Réévaluer le niveau de risque après application des mesures de mitigation.

Actions :

Livrable : Matrice des risques résiduels

7Décision du Comité IA

Objectif : Prendre une décision formelle sur le déploiement ou le maintien du système IA.

Actions :

DécisionCritèreConséquence
APPROUVÉTous les risques résiduels sont faibles ou modérésLe système peut être déployé/maintenu. Surveillance standard.
CONDITIONNELDes risques élevés subsistent mais sont maîtrisablesLe système peut être déployé sous conditions strictes. Surveillance renforcée.
REFUSÉDes risques critiques persistent ou le système est non conformeLe système ne peut pas être déployé. Retour en développement ou abandon.

Livrable : Décision formelle signée (Section 4 du registre EIAD)

8Documentation et suivi

Objectif : Documenter l'intégralité de l'évaluation et assurer le suivi.

Actions :

Livrable : Registre EIAD complet et archivé

5. Critères de scoring

5.1 Échelle de probabilité

ScoreNiveauFréquence estiméeDescription
1Très improbable< 1 fois / 5 ansÉvénement exceptionnel, aucun précédent connu dans le secteur
2Improbable< 1 fois / anÉvénement rare, quelques cas connus dans le secteur
3PossibleQuelques fois / anÉvénement occasionnel, déjà observé dans des contextes similaires
4ProbablePlusieurs fois / moisÉvénement fréquent, régulièrement observé dans le secteur
5Très probableQuotidien / HebdoÉvénement quasi certain si aucune mesure n'est prise

5.2 Échelle d'impact

ScoreNiveauSur les individusSur l'organisation
1NégligeableDésagrément mineur, facilement réversibleImpact financier négligeable, pas de perte de réputation
2MineurPréjudice limité, réversible avec effortImpact financier mineur, couverture médiatique locale limitée
3ModéréPréjudice significatif pour un nombre limité de personnesImpact financier modéré, atteinte à la réputation locale
4MajeurPréjudice grave pour un nombre important de personnesImpact financier important, couverture médiatique nationale, sanctions réglementaires
5CritiqueAtteinte irréversible aux droits fondamentauxImpact financier critique, perte de confiance généralisée, sanctions majeures

6. Seuils de décision

Score de risqueNiveauAction requise
1 — 4FaibleRisque acceptable. Surveillance standard. Aucune mesure spécifique requise.
5 — 9ModéréRisque à surveiller. Mesures de mitigation recommandées. Revue périodique.
10 — 16ÉlevéRisque significatif. Mesures de mitigation obligatoires. Surveillance renforcée. Approbation Comité IA requise.
17 — 25CritiqueRisque inacceptable. Déploiement interdit tant que le risque n'est pas ramené à un niveau acceptable. Mesures immédiates requises.

7. Documents de référence

RéférenceIntitulé
POL-IA-001Politique de management de l'intelligence artificielle
REG-SIA-001Registre des systèmes IA (inventaire)
REG-EIAD-001Registre des évaluations d'impact IA (template)
PRO-INC-IA-001Procédure de gestion des incidents IA
SOA-SMIA-001Déclaration d'Applicabilité (SoA)
ISO/IEC 42001:2023Norme ISO — Systèmes de management de l'IA
Règlement (UE) 2024/1689Règlement européen sur l'intelligence artificielle (AI Act)

Annexe A — Questionnaire d'évaluation préliminaire

Ce questionnaire permet une première évaluation rapide du niveau de risque d'un système IA. Répondre Oui ou Non à chaque question. Un nombre élevé de réponses « Oui » indique un niveau de risque plus élevé nécessitant une analyse approfondie.

QuestionOuiNonCommentaire
1Le système IA prend-il ou influence-t-il des décisions ayant un impact significatif sur des personnes physiques (emploi, crédit, santé, justice) ?[ ][ ]
2Le système traite-t-il des données personnelles sensibles (origine, opinions politiques, santé, données biométriques) ?[ ][ ]
3Le système IA fonctionne-t-il de manière entièrement automatisée, sans intervention humaine dans la décision ?[ ][ ]
4Le système est-il utilisé dans un domaine listé à l'Annexe III du Règlement IA européen (biométrie, infrastructure critique, éducation, emploi, services essentiels, forces de l'ordre, migration, justice) ?[ ][ ]
5Les données d'entraînement du modèle proviennent-elles de sources multiples dont la qualité n'est pas systématiquement vérifiée ?[ ][ ]
6Le système IA est-il susceptible de produire des résultats discriminatoires envers certains groupes de personnes ?[ ][ ]
7Le fonctionnement interne du modèle est-il difficile à expliquer (boîte noire, deep learning complexe) ?[ ][ ]
8Le système IA interagit-il directement avec des utilisateurs finaux (chatbot, assistant, interface conversationnelle) ?[ ][ ]
9Le système génère-t-il du contenu (texte, image, audio, vidéo) qui pourrait être confondu avec du contenu humain ?[ ][ ]
10Le système traite-t-il un volume important de données (> 10 000 enregistrements ou > 1 000 décisions/mois) ?[ ][ ]
11Le système dépend-il d'un fournisseur externe pour le modèle IA (API tierce, modèle cloud) ?[ ][ ]
12Le système est-il exposé à des risques de sécurité spécifiques (injection adversariale, empoisonnement, vol de modèle) ?[ ][ ]
13L'organisation a-t-elle une visibilité limitée sur les données d'entraînement utilisées par le modèle ?[ ][ ]
14Le système pourrait-il avoir un impact sur l'emploi au sein de l'organisation (automatisation de tâches, remplacement de postes) ?[ ][ ]
15Le système est-il utilisé pour du profilage ou de la segmentation de personnes physiques ?[ ][ ]
16Le système pourrait-il produire des résultats erronés aux conséquences irréversibles ?[ ][ ]
17Des mineurs ou des personnes vulnérables font-ils partie des utilisateurs ou des personnes impactées ?[ ][ ]
18Le modèle IA nécessite-t-il un réentraînement régulier avec de nouvelles données ?[ ][ ]
19L'empreinte environnementale du système IA (consommation énergétique, GPU) est-elle significative ?[ ][ ]
20Le système IA est-il soumis à des obligations réglementaires sectorielles spécifiques (santé, finance, transport) ?[ ][ ]

Interprétation :

Nombre de « Oui »Niveau indicatifAction
0 — 4FaibleEIAD simplifiée
5 — 9ModéréEIAD standard
10 — 14ÉlevéEIAD approfondie
15 — 20CritiqueEIAD approfondie + validation Direction

Annexe B — Grille de scoring détaillée

Cette grille fournit des critères détaillés pour évaluer chaque catégorie de risque.

CatégorieScore 1 (Négligeable)Score 2 (Mineur)Score 3 (Modéré)Score 4 (Majeur)Score 5 (Critique)
Biais / Discrimination Pas de risque de biais identifié. Données représentatives. Risque théorique de biais. Données majoritairement représentatives. Biais possibles sur certaines populations. Tests partiels réalisés. Biais avérés sur des critères protégés. Impact sur un grand nombre de personnes. Discrimination systématique. Atteinte aux droits fondamentaux.
Vie privée Pas de données personnelles traitées. Données personnelles non sensibles, anonymisation possible. Données personnelles, profilage limité. Données sensibles, profilage étendu, transfert hors UE. Surveillance de masse, identification biométrique, croisement de fichiers.
Sécurité Système isolé, pas d'accès externe. Exposition limitée, protection standard. Système exposé, surface d'attaque modérée. Système critique, vulnérabilités connues dans le type de modèle. Système critique sans protection, risque de compromission avec impact majeur.
Transparence Système simple, décisions facilement explicables. Explications disponibles mais nécessitent expertise technique. Boîte grise, explications partielles possibles. Boîte noire, pas d'explication disponible, décisions impactantes. Opacité totale, décisions critiques non explicables, aucune traçabilité.
Fiabilité Performances stables, monitoring en place, fallback disponible. Performances satisfaisantes, monitoring partiel. Dérives occasionnelles, pas de monitoring automatisé. Erreurs fréquentes, pas de mécanisme de fallback. Système non fiable, hallucinations fréquentes, aucune surveillance.
Impact sociétal Pas d'impact social identifié. Impact limité et positif sur les conditions de travail. Automatisation de tâches, plan d'accompagnement au changement prévu. Suppression significative de postes, impact sur des groupes vulnérables. Impact systémique sur l'emploi, renforcement d'inégalités structurelles.
Environnement Empreinte carbone négligeable. Consommation énergétique faible, infrastructure partagée. Entraînement régulier, consommation GPU modérée. Entraînement fréquent de grands modèles, infrastructure dédiée. LLM massifs, entraînement intensif, empreinte carbone très élevée.
Dépendance fournisseur Solution interne, pas de dépendance externe. Fournisseur avec alternatives disponibles, données portables. Dépendance modérée, clause de réversibilité. Forte dépendance, pas de clause de réversibilité, données peu portables. Vendor lock-in total, pas d'alternative, données non récupérables.