Lancement d’un projet sur l’explicabilité dans le domaine de l’intelligence artificielle.

Rédigé par Romain Pialat

 - 

01 août 2024


Les systèmes d’intelligence artificielle, et plus généralement les algorithmes, sont parfois opaques et leurs résultats peuvent être complexes à interpréter.  Un champ de recherche, jeune mais prolifique, est dédié à leur explicabilité. L’objectif du projet est de comprendre la manière dont ces recherches sont structurées à partir d’analyses mathématiques des techniques utilisées, croisées avec des éléments quantitatifs et qualitatifs issues des sciences sociales. Dans le cadre de cette étude, la CNIL utilisera une base de données des publications scientifiques relatives à l’explicabilité de l’intelligence artificielle, obtenue via un moteur de recherche spécialisé dans la littérature scientifique.

Quel est l’objectif de cette étude ?

L’explicabilité de l’intelligence artificielle, explainable AI en anglais ou simplement xAI, est un champ scientifique développant des méthodes et techniques pour expliquer les informations, les prédictions ou les décisions générées par des systèmes d’intelligence artificielle. Cette explication est nécessaire lors d’utilisation de ces systèmes dans des contextes critiques (médecine, militaire, transports, …). Depuis 2016 et le lancement par la DARPA du Explainable AI Program, on observe une apparition soudaine et massive de publications scientifiques contenant le terme Explainable AI.

Cette discipline, encore majoritairement rapportée à l’informatique (ou « computer sciences »), ne fait pour autant pas consensus, tant sur le plan des techniques utilisées, que sur l’objectif de l’explication ou encore sur ce qui fait l’explication. Cette absence de consensus ne semble pas, ou peu, problématisée à l’intérieur du champ de l’xAI. Cette étude a donc pour but de mieux saisir les enjeux sous-jacents régulant le milieu de l’Explainable AI.

Quelles données pour quelles utilisations ?

Pour dresser une typologie des techniques d’xAI, et afin de ne pas produire une étude trop rapidement obsolète d’un point de vue technique compte tenu de la rapidité de l’évolution de ce champ de recherche, nous nous intéressons ici aux principes et mécanismes sociaux à l’origine de l’organisation et de la production des techniques. Pour cela, nous souhaitons comprendre et identifier des régularités dans les positions institutionnelles, académiques ou sociales, des acteurs de l’xAI.

Dans ce but, une large base de données, environ 12 000 publications thématiques de cette discipline, sera exploitée en utilisant le moteur de recherche de SemanticScholar. Cette base de données est composée des titres des papiers, des noms des auteurs, et d’autres caractéristiques inhérentes à une publication telles que l’année de publication, la revue ou la conférence dans laquelle la publication a été faite, les citations de la publication, etc.

Nous traiterons donc toutes ces données, ainsi que des données relatives à la vie professionnelle des personnes présentes dans notre base, et disponibles publiquement sur Internet, telles que :

  • La position académique.
  • L’université de rattachement.
  • Les précédentes publications ou précédents champs de recherche.

Nous procéderons à des études similaires dans d’autres champs de recherches moins récents, afin d’avoir des bases de données de contrôle pour comparer nos résultats. Pour le moment, un seul champ de recherche est concerné, celui de l’équité (ou « fairness ») dans l’intelligence artificielle.

Comment les droits des personnes sont-ils respectés ?

Les données traitées durant ce projet sont obtenues en effectuant la requête suivante sur SemanticScholar :

query = '"Model interpretability" | "Models interpretability" | "model explanations" | "models explanations" | "explanations of models" | "explaining models" | "Explainable Artificial Intelligence" | "XAI" | "explainable AI" | "interpretable AI" | "interpretable artificial intelligence"'

fields = "paperId,corpusId,url,title,venue,publicationVenue,year,authors,externalIds,abstract,referenceCount,citationCount,influentialCitationCount,isOpenAccess,openAccessPdf,fieldsOfStudy,s2FieldsOfStudy,publicationTypes,publicationDate,journal,citationStyles"
url=“http://api.semanticscholar.org/graph/v1/paper/search/bulk?query={query}&fields={fields}&year=1970-"

Vous pouvez accéder et obtenir une copie de vos données, vous opposer au traitement de ces données, les faire rectifier ou effacer. Vous disposez également du droit de limiter le traitement de vos données.

Vous pouvez contacter le Laboratoire d'innovation numérique de la CNIL (ip@cnil.fr ) ou le délégué à la protection des données (DPO) de la CNIL pour toute demande d'exercice de vos droits sur ce traitement. Les coordonnées du DPO sont au bas de la page.

Si vous estimez, après nous avoir contactés, que vos droits « Informatique et Libertés » ne sont pas respectés, vous pouvez adresser une réclamation à votre autorité de protection des données.

 

Comment ce projet est-il encadré ?

Ce projet relève de la mission d’intérêt public dont est investie la CNIL en application du règlement général sur la protection des données et de la loi Informatique et Libertés modifiée. Il s’inscrit dans la mission d’information de la CNIL telle que définie dans l’article 8.I.1 de la loi Informatique et Libertés mais également dans la mission de suivi de l’évolution des technologies de l’information telle que définie dans l’article 8.I.4.

Seuls les membres du Laboratoire d’innovation numérique de la CNIL (LINC) et du service de l’intelligence artificielle (SIA), en charge de cette étude, auront accès aux données personnelles collectées puis traitées dans le cadre de l’expérimentation.

Combien de temps durera cette étude ?

Ce projet prendra fin en septembre 2025. Á l’issue du projet les données traitées seront supprimées. Il donnera lieu à plusieurs publications sur le site du LINC.  

 

 

 

 

 

Contacter le DPO de la CNIL

 

Contacter le DPO par voie électronique

Contacter le DPO par voie postale :

Le délégué à la protection des données

CNIL 3 Place de Fontenoy

TSA 80715

75334 PARIS CEDEX 07

France


Romain Pialat
Article rédigé par Romain Pialat , Ingénieur Recherche & Développement au LINC