| Référence document | POL-IA-001 |
| Version | 1.0 |
| Date d'approbation | [JJ/MM/AAAA] |
| Classification | [ ] Confidentiel [X] Interne [ ] Public |
| Approuvé par | [Nom, Fonction — Direction Générale] |
| Responsable SMIA | [Nom, Fonction] |
| Prochaine revue | [JJ/MM/AAAA] |
| Réf. : POL-IA-001 | Version : 1.0 | Date : [JJ/MM/AAAA] | Modèle gratuit — ISO 42001 |
La présente politique définit les principes, les règles et le cadre de gouvernance applicables à l'ensemble des activités liées à l'intelligence artificielle au sein de [Nom de l'organisation].
Cette politique s'applique à :
Le périmètre du Système de Management de l'Intelligence Artificielle (SMIA) est défini dans le document [Réf. : PER-SMIA-001].
| Référence | Intitulé | Application |
|---|---|---|
| ISO/IEC 42001:2023 | Systèmes de management de l'intelligence artificielle — Exigences | Cadre normatif principal du SMIA |
| ISO/IEC 23894:2023 | Management des risques liés à l'IA — Lignes directrices | Méthodologie d'évaluation des risques IA |
| Règlement (UE) 2024/1689 | Règlement européen sur l'intelligence artificielle (AI Act) | Obligations réglementaires par niveau de risque |
| Règlement (UE) 2016/679 | Règlement Général sur la Protection des Données (RGPD) | Protection des données personnelles traitées par les systèmes IA |
| ISO/IEC 27001:2022 | Systèmes de management de la sécurité de l'information | Sécurité des systèmes IA et des données |
| OCDE (2019) | Principes de l'OCDE sur l'intelligence artificielle | Principes directeurs pour une IA responsable |
| Terme | Définition |
|---|---|
| Intelligence Artificielle (IA) | Système informatique conçu pour fonctionner avec un certain niveau d'autonomie et qui, à partir de données d'entrée, génère des résultats tels que des prédictions, des recommandations, des décisions ou du contenu. |
| SMIA | Système de Management de l'Intelligence Artificielle — ensemble de politiques, procédures, processus et ressources permettant de gérer de manière responsable les systèmes IA. |
| EIAD | Évaluation d'Impact de l'Intelligence Artificielle — processus d'analyse des risques et impacts d'un système IA sur les individus, les groupes et la société. |
| Système IA à haut risque | Système IA relevant de l'Annexe III du Règlement IA européen, soumis à des obligations renforcées. |
| Dérive du modèle | Dégradation progressive des performances d'un modèle IA due à l'évolution des données en production. |
| Explicabilité | Capacité à fournir des explications compréhensibles sur le fonctionnement et les décisions d'un système IA. |
[Nom de l'organisation] s'engage à développer et utiliser l'intelligence artificielle de manière responsable, en respectant les principes suivants :
Un Comité IA est constitué pour piloter la stratégie IA de l'organisation et superviser le SMIA. Il se réunit [mensuellement / trimestriellement] et est composé de :
| Membre | Rôle dans le Comité |
|---|---|
| Directeur Général / Sponsor | Président du Comité — décisions stratégiques et allocation des ressources |
| Responsable SMIA | Secrétaire — coordination opérationnelle, reporting, suivi du plan d'action |
| DPO (Délégué à la Protection des Données) | Conformité RGPD, évaluation des impacts vie privée |
| RSSI (Responsable Sécurité SI) | Sécurité des systèmes IA, gestion des incidents de sécurité |
| Responsable Data Science / IA | Expertise technique, évaluation des modèles, bonnes pratiques |
| Direction juridique | Conformité réglementaire, contrats, responsabilité |
| Représentant(s) des directions métiers | Besoins métiers, retours d'usage, évaluation des impacts |
| Rôle | Responsabilités principales |
|---|---|
| Direction Générale | Engagement et leadership. Approbation de la politique IA. Allocation des ressources. Revue de direction. |
| Responsable SMIA | Pilotage du SMIA au quotidien. Maintien de la conformité ISO 42001. Coordination des évaluations d'impact. Gestion documentaire. Reporting au Comité IA. |
| DPO | Conformité RGPD des traitements IA. AIPD (Analyse d'Impact Protection des Données). Conseil sur la protection des données. |
| RSSI | Sécurité des systèmes IA. Gestion des incidents de sécurité IA. Tests de robustesse et de vulnérabilité. |
| Data Scientists / Développeurs IA | Développement responsable des modèles IA. Documentation technique. Tests de biais et de performance. Monitoring en production. |
| Directions métiers | Expression des besoins. Validation de la pertinence des systèmes IA. Supervision humaine des décisions IA. Remontée des incidents. |
Tous les systèmes IA doivent être classifiés selon le niveau de risque défini par le Règlement européen sur l'IA (AI Act) :
| Niveau | Critères | Obligations |
|---|---|---|
| Inacceptable | Systèmes menaçant la sécurité ou les droits fondamentaux | Interdiction totale. Le système ne peut pas être déployé. |
| Élevé | Impact significatif sur les droits ou la sécurité (Annexe III AI Act) | EIAD obligatoire. Supervision humaine. Documentation complète. Enregistrement UE. |
| Limité | Risque de manipulation ou tromperie (chatbots, deepfakes) | Obligation de transparence envers les utilisateurs. |
| Minimal | Risque négligeable | Bonnes pratiques volontaires. Code de conduite. |
La classification est réalisée lors de l'inventaire initial et réévaluée à chaque modification significative du système ou de son contexte d'utilisation.
Une Évaluation d'Impact de l'Intelligence Artificielle (EIAD) est obligatoire pour :
L'EIAD couvre les impacts sur les individus, les groupes et la société, incluant les risques de biais, d'atteinte à la vie privée, de sécurité, de transparence et d'impact sociétal. La procédure détaillée est définie dans le document [Réf. : PRO-EIAD-001].
Les données utilisées par les systèmes IA font l'objet d'une gouvernance spécifique :
L'organisation met en œuvre les mesures de transparence suivantes :
Tout incident lié à un système IA doit être signalé, documenté et traité selon la procédure de gestion des incidents IA [Réf. : PRO-INC-IA-001] :
L'organisation met en place un programme de formation et de sensibilisation à l'IA responsable :
La présente politique et le SMIA font l'objet d'une amélioration continue à travers :
Cette politique est revue au minimum une fois par an ou à l'occasion de tout changement significatif.
Le non-respect de la présente politique peut entraîner :
Tout collaborateur constatant un manquement à cette politique est tenu de le signaler au Responsable SMIA ou via le canal de signalement éthique de l'organisation.
R = Responsable (réalise) | A = Approbateur (valide) | C = Consulté | I = Informé
| Activité | Direction | RSMIA | DPO | RSSI | Data Science | Juridique | Métiers |
|---|---|---|---|---|---|---|---|
| Politique IA | A | R | C | C | I | C | I |
| Inventaire des systèmes IA | I | R | C | C | C | I | R |
| Classification des risques IA | I | R | C | C | C | C | I |
| Évaluation d'impact (EIAD) | A | R | R | C | C | C | C |
| Développement / Acquisition IA | A | C | C | C | R | C | R |
| Surveillance en production | I | C | I | C | R | I | C |
| Gestion des incidents IA | I | R | C | R | C | C | I |
| Formation IA responsable | A | R | C | C | C | I | I |
| Audit interne SMIA | A | R | C | C | C | I | I |
| Revue de direction | R | R | C | C | I | C | I |
| Gestion des fournisseurs IA | A | C | C | C | C | R | R |
| Communication / Transparence | A | R | C | I | C | C | C |
| Version | Date | Auteur | Modifications | Approuvé par |
|---|---|---|---|---|
| 0.1 | [JJ/MM/AAAA] | [Nom] | Création du document — version brouillon | — |
| 0.2 | [JJ/MM/AAAA] | [Nom] | Intégration des retours du Comité IA | — |
| 1.0 | [JJ/MM/AAAA] | [Nom] | Version approuvée par la Direction Générale | [Nom, Fonction] |