La CNIL norvégienne s'interroge aussi sur les liens entre IA et vie privée
Rédigé par Geoffrey Delcroix
-
19 février 2018La CNIL n'est pas la seule autorité de protection des données à s'intéresser à la question des algorithmes et de l'intelligence artificielle : après le rapport français sur les enjeux éthiques des algorithmes et de l’intelligence artificielle "Comment permettre à l’Homme de garder la main ?" et le rapport de l'ICO au Royaume-Uni "Big data, artificial intelligence, machine learning and data protection", c'est au tour de notre homologue norvégien de porter son regard dans la boite noire de l'intelligence artificielle.
Ce document, intitulé sobrement "Artificial intelligence and privacy" et publié en janvier 2018 se divise en 4 parties :
- Comment fonctionne l'intelligence artificielle?
- Quand l'intelligence artificielle rencontre le Règlement européen à la protection des données (RGPD)
- Comment contrôler les algorithmes?
- Quelles solutions et recommandations pour les développeurs, vendeurs et utilisateurs de solutions intégrant de l'intelligence artificielle?
Expliquer les différentes formes des intelligences artificielles
La première partie du document est marquée par un effort très notable de pédagogie. L'autorité de protection des données norvégienne (datatilsynet) a déployé de considérables efforts de médiation pour distinguer et expliquer les différents types d'outils d'intelligence artificielle, des arbres de décisions à l'apprentissage profond (deep learning) à grands renforts de représentations visuelles.
Cette approche permet aux auteurs de repérer des situations finalement assez différentes entre différentes méthodes pourtant généralement étiquetées "intelligence artificielle". Par exemple, il sera plus ou moins aisé de vérifier les résultats d'un modèle d'apprentissage machine (machine learning) selon qu'il s'appuie sur des arbres de décisions ou des réseaux neuronaux. Dans le premier cas, le processus de décision est très aisé à reproduire et à suivre, alors que dans le second, il sera très difficilement auditable directement.
Grâce à cet effort de typologie de l'intelligence artificielle, le rapport parvient simplement à distinguer des grandes caractéristiques utiles pour s'interroger sur l'application du droit à la protection des données personnelles. Selon les auteurs, deux sujets distincts sont à considérer :
- ce qui concerne l'utilisation de données personnelles pour développer les modèles d'intelligence artificielle et
- les questions liées aux conséquences de l'utilisation d'outils d'IA pour analyser et prendre des décisions concernant des individus.
Le document discute sur cette base ce qui se base quand on confronte les caractéristiques des intelligences artificielles aux principes du RGPD : la loyauté, la minimisation des données, la limitation des finalités, la transparence ou le droit à l'explication. Le rapport, tout comme les travaux français ou britanniques, montre que les oiseaux de mauvaise augure n'ont pas forcément raison : aucun principe du RGPD n'est à ce point orthogonal à la nature même des outils d'IA qu'il les condamnerait à l'illégalité de fait. En revanche, l'application intelligente et efficiente des principes peut être malaisée et demander beaucoup d'efforts, de ressources et de compétences techniques : ouvrir "la boite noire" des IA n'a rien de trivial.
Ouvrir la boîte noire ne sera possible que si on conçoit des IA avec l'objectif de les rendre redevables
C'est pourquoi le document insiste à juste titre sur l'importance d'une réflexion très en amont sur des techniques et méthodes "privacy by design". Le rapport en distingue trois sortes :
- Les méthodes permettant de réduire le besoin en données d'apprentissage pour construire le modèle : le rapport cite les "Generative Adversarial Networks" permettant par la production de données synthétiques de renforcer les capacités de décision des algos en les rendant plus robustes et en réduisant leurs erreurs, le "federated learning" qui est en fait une forme de distribution de l'amélioration dynamique des modèles, par exemple sur les smartphones de nombreux utilisateurs ou encore une nouvelle forme de réseaux neuronaux appelés "matrix capsules".
- Les méthodes permettant de renforcer la protection des données sans pour autant réduire le volume de données traitées, à savoir les méthodes de differential privacy (qui "bruitent" les données afin de préserver la confidentialité des données individuelles sans dégrader la qualité générale de la base) ou le chiffrement homomorphe (qui permet d'effectuer des opérations sur des données chiffrées) qui sont deux pistes très prisées des chercheurs comme des autorités, tout en étant encore parfois difficile à industrialiser. Le rapport cite également d'autres outils, comme le "transfert d'apprentissage", quand un modèle construit est réutilisé dans un autre cas, permettant de s'abstenir de refaire l'apprentissage ou la solution "RAIRD" développée par des chercheurs norvégiens.
- Les méthodes permettant d'ouvrir la boite noire, comme le concept "XAI" pour "explainable AI" : les outils d'intelligence artificielle étant capable d'interactions complexes avec les humains, ils devraient être développés pour être en mesure de répondre de manière compréhensible et de nature à susciter la confiance à des interrogations sur leur mode de décision.
Au final, ces recommandations norvégiennes s'inscrivent très bien en complément des propositions de la CNIL visant en particulier à l'affirmation de deux principes fondateurs, la loyauté et la vigilance.
Retrouver le rapport "AI and privacy" (en anglais) sur le site de l'Autorité norvégienne
Illustration : sur Pixabay, licence creative commons CC 0