L’explicabilité de l’IA à l’ère de l’apprentissage profond
Rédigé par Nicolas Berkouk, Mehdi Arfaoui et Romain Pialat
-
08 juillet 2025
Chatbots, voitures autonomes, médecine personnalisée, détection de fraude ou même maintenant « agents », le renouveau de l’Intelligence Artificielle qui a eu lieu au milieu des années 2010 avec le succès des techniques d’apprentissage profond a permis d’automatiser des tâches qui était pourtant jugées très dures à traiter à l’aide d’ordinateurs. Cette augmentation du degré d’automatisation, associée à des performances toujours plus élevées, rend incontournable la question de la maîtrise et de la compréhension de ces systèmes.
Un champ de recherche est rapidement apparu afin de proposer des solutions techniques pour répondre à ces questions : l’IA explicable (ou Explainable AI ou xAI). L’éventail des méthodes proposées est extrêmement vaste, mais il semble qu’après plus de dix ans de recherche, aucune d’entre elle ne fasse ni consensus, ni controverse. A mesure que les domaines d’utilisation des systèmes d’IA s’étendent, et que le cadre juridique de l’explicabilité se renforce avec les nouveaux règlements européens, la mobilisation de ces techniques soulève des questions importantes à l’interface entre le droit, la technique et la société.
Dans ce dossier, nous vous proposons dans un premier article [1/3] de resituer la question de la production d’explication des systèmes basés sur l’apprentissage profond dans l’histoire longue de l’intelligence artificielle , afin de mettre en lumière comment le succès de cette technologie renouvelle fondamentalement la façon dont on peut accéder à la logique des calculs d’une IA. Nous présentons dans un deuxième article [2/3] les techniques les plus populaires de ce domaine et soulignons leur hétérogénéité ainsi que, pour certaines d’entre elles, leur manque de robustesse. Cela nous amène ensuite à la nécessité de comprendre comment ces techniques sont produites, c’est-à-dire à l’étude du contexte social et institutionnel qui permet leur développement. Nous concluons dans un troisième article [3/3] en proposant l’hypothèse que si ce domaine de recherche n’a pas encore atteint un statut de production scientifique consensuel, c’est parce qu’il fonctionne comme un espace frontière entre le « cœur » du développement de l’IA, et le domaine public, et que cette position le soumet à des injonctions hétérogènes qui n’incitent pas au développement de fondements scientifiques communément partagés.
- L'explicabilité de l'IA : un problème renouvelé par le succès du deep learning [1/3]
- Les techniques d’Explainable AI (xAI) [2/3]
- Pourquoi faire une sociologie du domaine de l’xAI ? [3/3]