| N° | Nom du système IA | Description / Finalité | Type | Données utilisées | Niveau de risque AI Act | Département | Responsable | Fournisseur | Date mise en prod. | Statut | Dernière évaluation | Observations |
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| SIA-001 | Chatbot RH — AssistRH | Assistant conversationnel pour répondre aux questions des collaborateurs sur les congés, la paie, les avantages sociaux et les procédures RH internes. | GenAI / NLP | Base documentaire RH, historique conversations, données salariés (anonymisées) | Limité | Ressources Humaines | Marie DUPONT | Externe (OpenAI API + dev interne) | 15/03/2025 | Production | 10/01/2026 | Obligation de transparence : information utilisateurs que c'est une IA. Revue trimestrielle des réponses. |
| SIA-002 | Scoring Crédit — CreditScore AI | Modèle de scoring automatisé pour l'évaluation de la solvabilité des demandeurs de crédit, incluant calcul de probabilité de défaut. | ML (XGBoost) | Données financières clients, historique de remboursement, données socio-démographiques, données BCE | Élevé | Direction Financière | Jean-Pierre MARTIN | Interne (équipe Data Science) | 01/09/2024 | Production | 15/12/2025 | Système à haut risque AI Act (Annexe III). EIAD obligatoire. Supervision humaine requise pour toute décision de refus. |
| SIA-003 | Détection Fraude — FraudGuard | Système de détection de transactions frauduleuses en temps réel sur les opérations bancaires et e-commerce. | ML (Deep Learning / LSTM) | Transactions financières, comportements utilisateurs, géolocalisation, données terminaux | Limité | Sécurité / Conformité | Sophie BERNARD | Externe (Featurespace) | 01/06/2024 | Production | 20/11/2025 | Taux de faux positifs à surveiller (objectif < 2%). Alertes soumises à validation humaine. |
| SIA-004 | Recommandation Produits — RecoEngine | Moteur de recommandation personnalisée de produits sur le site e-commerce basé sur l'historique de navigation et d'achat. | ML (Filtrage collaboratif) | Historique achats, navigation, profils clients, catalogue produits | Minimal | Marketing / E-commerce | Lucas PETIT | Externe (Algolia Recommend) | 01/01/2025 | Production | 05/02/2026 | Risque minimal. Pas d'obligation spécifique AI Act. Surveillance biais de popularité. |
| SIA-005 | Analyse CV — TalentScreen | Pré-sélection automatisée des candidatures par analyse sémantique des CV et correspondance avec les fiches de poste. | GenAI / NLP | CV candidats, fiches de poste, critères de sélection, historique recrutements | Élevé | Ressources Humaines | Marie DUPONT | Interne (fine-tuning modèle open source) | En développement | — | Système à haut risque AI Act (emploi). EIAD requise AVANT mise en production. Tests de biais obligatoires (genre, origine, âge). |
| Niveau de risque | Définition | Exemples de systèmes IA | Obligations principales |
|---|---|---|---|
| Inacceptable | Systèmes IA présentant une menace claire pour la sécurité, les moyens de subsistance ou les droits des personnes. Interdits. | • Scoring social par les autorités publiques • Manipulation subliminale • Exploitation de vulnérabilités (âge, handicap) • Identification biométrique en temps réel dans l'espace public (sauf exceptions) |
• Interdiction totale • Aucune dérogation possible (sauf cas strictement définis pour biométrie) |
| Élevé | Systèmes IA ayant un impact significatif sur les droits fondamentaux ou la sécurité des personnes. Listés à l'Annexe III du règlement. | • Scoring de crédit • Tri de CV / recrutement • Diagnostic médical assisté • Véhicules autonomes • Notation scolaire automatisée • Évaluation de l'éligibilité aux prestations sociales |
• Évaluation d'impact obligatoire (EIAD) • Système de gestion des risques • Gouvernance des données • Documentation technique • Supervision humaine • Transparence • Enregistrement dans la base UE |
| Limité | Systèmes IA présentant des risques spécifiques de manipulation ou de tromperie. Obligations de transparence. | • Chatbots • Deepfakes • Systèmes de détection d'émotions • Catégorisation biométrique • Génération de contenu IA |
• Obligation de transparence : informer que l'utilisateur interagit avec une IA • Étiquetage des contenus générés par IA • Information sur les deepfakes |
| Minimal | Systèmes IA à risque négligeable. Pas d'obligation spécifique, mais bonnes pratiques encouragées. | • Filtres anti-spam • Recommandation de produits • Traduction automatique • Optimisation logistique • Jeux vidéo avec IA |
• Pas d'obligation légale spécifique • Codes de conduite volontaires encouragés • Application des principes d'IA responsable recommandée |
| Indicateur | Valeur |
|---|---|
| Nombre total de systèmes IA inventoriés | 5 |
| Systèmes en production | 4 |
| Systèmes en développement | 1 |
| Systèmes à risque élevé (AI Act) | 2 — Évaluation d'impact obligatoire |
| Systèmes à risque limité | 2 — Obligations de transparence |
| Systèmes à risque minimal | 1 |
| Prochaine revue globale prévue | [JJ/MM/AAAA] |