Hallucination IA
iaDéfinition
Phénomène où un modèle de langage génère des informations factuellement incorrectes, inventées ou incohérentes avec une apparence de confiance et de cohérence linguistique.
Types d'hallucinations
- Hallucinations factuelles : informations fausses présentées comme vraies (dates, noms, événements)
- Hallucinations logiques : raisonnements incohérents malgré une apparence de logique
- Confabulation : invention de sources, citations ou références inexistantes
Causes
Les hallucinations proviennent de la nature probabiliste des LLM : ils génèrent le token le plus probable, pas le plus véridique. Le manque de grounding (ancrage dans des données réelles) amplifie le problème.
Mitigations
- RAG pour ancrer les réponses dans des documents vérifiés
- Chain-of-Verification pour l'auto-vérification
- Guardrails et fact-checking automatisé
Besoin d'un expert sur ce sujet ?
Audit, pentest, conformité ISO 27001, développement IA sécurisé — demandez un devis gratuit.
Demander un devis