POLITIQUE DE MANAGEMENT
DE L'INTELLIGENCE ARTIFICIELLE
Système de Management de l'IA — ISO/IEC 42001:2023

Référence documentPOL-IA-001
Version1.0
Date d'approbation[JJ/MM/AAAA]
Classification[ ] Confidentiel   [X] Interne   [ ] Public
Approuvé par[Nom, Fonction — Direction Générale]
Responsable SMIA[Nom, Fonction]
Prochaine revue[JJ/MM/AAAA]

Table des matières

Réf. : POL-IA-001Version : 1.0Date : [JJ/MM/AAAA]Modèle gratuit — ISO 42001

1. Objet et périmètre

La présente politique définit les principes, les règles et le cadre de gouvernance applicables à l'ensemble des activités liées à l'intelligence artificielle au sein de [Nom de l'organisation].

Cette politique s'applique à :

Le périmètre du Système de Management de l'Intelligence Artificielle (SMIA) est défini dans le document [Réf. : PER-SMIA-001].

2. Références normatives et réglementaires

RéférenceIntituléApplication
ISO/IEC 42001:2023Systèmes de management de l'intelligence artificielle — ExigencesCadre normatif principal du SMIA
ISO/IEC 23894:2023Management des risques liés à l'IA — Lignes directricesMéthodologie d'évaluation des risques IA
Règlement (UE) 2024/1689Règlement européen sur l'intelligence artificielle (AI Act)Obligations réglementaires par niveau de risque
Règlement (UE) 2016/679Règlement Général sur la Protection des Données (RGPD)Protection des données personnelles traitées par les systèmes IA
ISO/IEC 27001:2022Systèmes de management de la sécurité de l'informationSécurité des systèmes IA et des données
OCDE (2019)Principes de l'OCDE sur l'intelligence artificiellePrincipes directeurs pour une IA responsable

3. Termes et définitions

TermeDéfinition
Intelligence Artificielle (IA)Système informatique conçu pour fonctionner avec un certain niveau d'autonomie et qui, à partir de données d'entrée, génère des résultats tels que des prédictions, des recommandations, des décisions ou du contenu.
SMIASystème de Management de l'Intelligence Artificielle — ensemble de politiques, procédures, processus et ressources permettant de gérer de manière responsable les systèmes IA.
EIADÉvaluation d'Impact de l'Intelligence Artificielle — processus d'analyse des risques et impacts d'un système IA sur les individus, les groupes et la société.
Système IA à haut risqueSystème IA relevant de l'Annexe III du Règlement IA européen, soumis à des obligations renforcées.
Dérive du modèleDégradation progressive des performances d'un modèle IA due à l'évolution des données en production.
ExplicabilitéCapacité à fournir des explications compréhensibles sur le fonctionnement et les décisions d'un système IA.

4. Principes directeurs de l'IA responsable

[Nom de l'organisation] s'engage à développer et utiliser l'intelligence artificielle de manière responsable, en respectant les principes suivants :

4.1 Éthique et respect des droits fondamentaux

Article 1 — Les systèmes IA déployés par l'organisation respectent les droits fondamentaux des personnes, la dignité humaine et les valeurs démocratiques. Aucun système IA ne peut être utilisé à des fins contraires à l'éthique ou aux droits humains.

4.2 Transparence

Article 2 — L'organisation s'engage à informer les utilisateurs et les personnes affectées de l'utilisation de systèmes IA, de leur finalité et de leurs limites. Les décisions significatives prises avec l'aide de l'IA sont explicables et documentées.

4.3 Équité et non-discrimination

Article 3 — Les systèmes IA sont conçus, développés et surveillés pour prévenir et détecter les biais discriminatoires. Des tests réguliers de biais sont réalisés sur les données et les résultats des modèles. Toute discrimination identifiée fait l'objet de mesures correctives immédiates.

4.4 Sécurité et robustesse

Article 4 — Les systèmes IA sont conçus pour être sûrs, robustes et résilients. Ils sont protégés contre les attaques adverses, les manipulations et les défaillances. Des mécanismes de surveillance et d'arrêt d'urgence sont mis en place.

4.5 Protection de la vie privée

Article 5 — Le traitement des données personnelles par les systèmes IA respecte le RGPD et les réglementations applicables. Les principes de minimisation, de limitation de la finalité et de protection dès la conception (privacy by design) sont appliqués.

4.6 Responsabilité et redevabilité (accountability)

Article 6 — Des responsabilités claires sont attribuées pour chaque système IA. La supervision humaine est assurée proportionnellement au niveau de risque. L'organisation rend compte de son utilisation de l'IA aux parties prenantes.

5. Gouvernance de l'Intelligence Artificielle

5.1 Comité IA

Un Comité IA est constitué pour piloter la stratégie IA de l'organisation et superviser le SMIA. Il se réunit [mensuellement / trimestriellement] et est composé de :

MembreRôle dans le Comité
Directeur Général / SponsorPrésident du Comité — décisions stratégiques et allocation des ressources
Responsable SMIASecrétaire — coordination opérationnelle, reporting, suivi du plan d'action
DPO (Délégué à la Protection des Données)Conformité RGPD, évaluation des impacts vie privée
RSSI (Responsable Sécurité SI)Sécurité des systèmes IA, gestion des incidents de sécurité
Responsable Data Science / IAExpertise technique, évaluation des modèles, bonnes pratiques
Direction juridiqueConformité réglementaire, contrats, responsabilité
Représentant(s) des directions métiersBesoins métiers, retours d'usage, évaluation des impacts

5.2 Rôles et responsabilités

RôleResponsabilités principales
Direction GénéraleEngagement et leadership. Approbation de la politique IA. Allocation des ressources. Revue de direction.
Responsable SMIAPilotage du SMIA au quotidien. Maintien de la conformité ISO 42001. Coordination des évaluations d'impact. Gestion documentaire. Reporting au Comité IA.
DPOConformité RGPD des traitements IA. AIPD (Analyse d'Impact Protection des Données). Conseil sur la protection des données.
RSSISécurité des systèmes IA. Gestion des incidents de sécurité IA. Tests de robustesse et de vulnérabilité.
Data Scientists / Développeurs IADéveloppement responsable des modèles IA. Documentation technique. Tests de biais et de performance. Monitoring en production.
Directions métiersExpression des besoins. Validation de la pertinence des systèmes IA. Supervision humaine des décisions IA. Remontée des incidents.

6. Classification des systèmes IA

Tous les systèmes IA doivent être classifiés selon le niveau de risque défini par le Règlement européen sur l'IA (AI Act) :

NiveauCritèresObligations
InacceptableSystèmes menaçant la sécurité ou les droits fondamentauxInterdiction totale. Le système ne peut pas être déployé.
ÉlevéImpact significatif sur les droits ou la sécurité (Annexe III AI Act)EIAD obligatoire. Supervision humaine. Documentation complète. Enregistrement UE.
LimitéRisque de manipulation ou tromperie (chatbots, deepfakes)Obligation de transparence envers les utilisateurs.
MinimalRisque négligeableBonnes pratiques volontaires. Code de conduite.

La classification est réalisée lors de l'inventaire initial et réévaluée à chaque modification significative du système ou de son contexte d'utilisation.

7. Évaluation d'impact obligatoire

Une Évaluation d'Impact de l'Intelligence Artificielle (EIAD) est obligatoire pour :

L'EIAD couvre les impacts sur les individus, les groupes et la société, incluant les risques de biais, d'atteinte à la vie privée, de sécurité, de transparence et d'impact sociétal. La procédure détaillée est définie dans le document [Réf. : PRO-EIAD-001].

8. Gestion des données

Les données utilisées par les systèmes IA font l'objet d'une gouvernance spécifique :

9. Transparence et communication

L'organisation met en œuvre les mesures de transparence suivantes :

10. Gestion des incidents IA

Tout incident lié à un système IA doit être signalé, documenté et traité selon la procédure de gestion des incidents IA [Réf. : PRO-INC-IA-001] :

11. Formation et sensibilisation

L'organisation met en place un programme de formation et de sensibilisation à l'IA responsable :

12. Revue et amélioration continue

La présente politique et le SMIA font l'objet d'une amélioration continue à travers :

Cette politique est revue au minimum une fois par an ou à l'occasion de tout changement significatif.

13. Sanctions

Le non-respect de la présente politique peut entraîner :

Tout collaborateur constatant un manquement à cette politique est tenu de le signaler au Responsable SMIA ou via le canal de signalement éthique de l'organisation.

Annexe A — Matrice RACI

R = Responsable (réalise) | A = Approbateur (valide) | C = Consulté | I = Informé

Activité Direction RSMIA DPO RSSI Data Science Juridique Métiers
Politique IAARCCICI
Inventaire des systèmes IAIRCCCIR
Classification des risques IAIRCCCCI
Évaluation d'impact (EIAD)ARRCCCC
Développement / Acquisition IAACCCRCR
Surveillance en productionICICRIC
Gestion des incidents IAIRCRCCI
Formation IA responsableARCCCII
Audit interne SMIAARCCCII
Revue de directionRRCCICI
Gestion des fournisseurs IAACCCCRR
Communication / TransparenceARCICCC

Annexe B — Historique des versions

VersionDateAuteurModificationsApprouvé par
0.1[JJ/MM/AAAA][Nom]Création du document — version brouillon
0.2[JJ/MM/AAAA][Nom]Intégration des retours du Comité IA
1.0[JJ/MM/AAAA][Nom]Version approuvée par la Direction Générale[Nom, Fonction]