Comment parler d’éthique dans la langue de HAL 9000 ?

Rédigé par Geoffrey Delcroix

 - 

14 novembre 2016


Dans 2001, l’Odyssée de l’espace, les dialogues entre l’intelligence artificielle HAL9000 et l’équipage du vaisseau sur le bien et le mal ne se passent pas très bien… Mais, est-il si aisé de mettre les mots qu’il faut sur les sujets éthiques dans ce domaine des systèmes autonomes intelligents ? Avant de devoir régler le problème directement avec les IA, le travail de Elish et Hwang pour le centre Data & Society donne des outils pour appréhender les enjeux éthiques et les mettre en débat public. 

23585830722_c2700c2871_o_the_mad_macrographer_hal_9000_reimagined_flickr23585830722_ccby.jpg

Selon Elish et Hwang, auteurs du rapport An AI pattern language, les ingénieurs, managers, commerciaux, designers et investisseurs du secteur considèrent que les implications sociétales des systèmes intelligents sont en dehors de leur périmètre d’action et de responsabilité. Dès lors, quelles voies emprunter pour construire malgré tout un langage commun et construire un débat éthique sérieux?

« There is a whole team of lawyers I never see who deal with that stuff » (Verbatim extrait des entretiens des auteurs de “An AI pattern language”).

Voitures autonomes, assistants intelligents ou exploits du deep learning et des réseaux neuronaux : si l’ « intelligence artificielle » fait le buzz,  ce sujet apparait souvent comme excessivement technique et flou. Cette dissonance entre notre fascination pour l’IA et son aridité engendre de grandes difficultés dans la médiation de ses enjeux éthiques et sociétaux (De Elon Musk à Stephen Hawking en passant par la Maison Blanche).

Deux auteurs du think-tank Data & Society, M.C. Elish et Tim Hwang pensent que cela conduit à ce que « les conversations grand public autour de l’IA soit plus souvent modelées par Hollywood que par le savoir empirique ». Dès lors, il faudrait s’interroger sur la manière dont les différents professionnels parties prenantes au développement de l’intelligence artificielle conceptualisent et parlent  de ces enjeux.

Les différentes communautés de ce domaine  (praticiens industriels, entrepreneurs, chercheurs, experts, …) utilisent en effet des mots et des concepts largement déconnectés les uns des autres. Il est donc indispensable de rendre les implications éthiques et sociétales de ces technologies mutuellement compréhensibles, et donc plus susceptibles d’alimenter un débat public censé et efficace.

Illustration pour « An AI pattern language » par Sarah Nicholls

Illustration pour « An AI pattern language », par Sarah Nicholls

Défi  1 : s’assurer que les utilisateurs perçoivent les bonnes intentions derrière le système intelligent

Le premier défi est de montrer les bonnes intentions des systèmes et de leurs concepteurs. L’objectif, louable, est évidemment de générer de la confiance -- objectif d’ailleurs habituel dans le domaine des technologies numériques. Malheureusement, cette tendance s’incarne aussi souvent dans un discours paternaliste des experts vers les utilisateurs : si vous avez peur, c’est parce que ce que nous faisons est trop sophistiqué et que vous êtes au mieux incompétents pour les juger, au pire traversés de réflexes archaïques dont nous devons vous aider à vous débarrasser. L’impasse est alors de rechercher une vaine « acceptabilité sociale » par l’euphémisation des risques et l’enrobage des rapports humains-technologies dans un discours édulcoré et mièvre (par exemple, donner à un robot une voix d’enfant car cela le rend plus innocent est surtout une manière d’infantiliser les interlocuteurs humains de ce robot…).

Pour autant, les auteurs repèrent trois schémas de langage pouvant efficacement ouvrir des pistes de solution.

Le premier est de faire un effort pour « montrer les humains cachés derrière le rideau ». En effet, la recommandation personnalisée est devenue le graal des industriels, à tel point que la seule explication disponible au plan du marketing sur ce qui fait tourner la recommandation finie par être un discours éthéré sur « la magie des algorithmes ». Dans notre cahier IP3, nous en appelions donc à une contrepartie au discours sur la souhaitable « disparition des technologies » : rendre visible l’humain, en créant des frictions désirables entre un service et son utilisateur. C’est exactement ce qui transparait lorsque, à propos d’une fonctionnalité de découverte de nouvelles musiques, un product manager travaillant pour une entreprise de recommandation musicale  explique aux auteurs qu’ils devaient faire en sorte que le produit ne soit pas inquiétant mais « devait sembler humain, « powered by people ».

Montrer que de l’autre côté de la technologie, il y a des humains est donc un premier schéma de solution pertinent pour créer de la confiance. Un deuxième est « d’ouvrir la boite noire ». Cette stratégie est évoquée par les interlocuteurs de Elish et Hwang comme une stratégie délibérée de design, à l’exemple de ce qu’évoque un des responsables de Cortana, l’assistant intelligent de Microsoft : « le notebook de Cortana, accessible en permanence, est un endroit où toutes les inférences que nous utilisons sont stockées et sont visibles. L’utilisateur peut les consulter, les ajuster, les désactiver ou les effacer ». Ce responsable ajoutant d’ailleurs qu’ils n’avaient pas réalisé auparavant que tant de gens souhaitaient pouvoir régler et contrôler ce type de données… . Ce sujet de la boite noire est omniprésent dans le domaine des technologies : boite noire « magique » des algorithmes, smartphone « boite noire » (cette image était d’ailleurs à l’origine du projet de recherche commun entre Inria et le laboratoire de la CNIL « mobilitics ».

Enfin, le troisième schéma de réponse évoqué est de donner des éléments permettant de démontrer un traitement juste et équitable de la personne par le système intelligent.

(i) Rappeler que derrière la technologie il y a toujours des humains, (ii) ouvrir la boite noire et (iii) lever le voile qui pèse sur une technologie pour prouver que le système traite les personnes équitablement : voilà des objectifs complémentaires qui décrivent d’une manière très acceptable un trajet d’encadrement éthique des systèmes intelligents. Ces axes sont très proches de la philosophie qui préside aux plus récents instruments de la régulation des données personnelles, que ce soit dans le Règlement général à la protection des données européen (transparence du traitement, promotion du Privacy by design, encadrement des décisions individuelles automatisées, y compris le profilage, …) ou dans la Loi pour une République Numérique en France (principe de loyauté des plateformes, …)

Défi 2 : protéger la vie privée

Les auteurs ont également identifié un défi spécifique sur la protection de la vie privée. En effet, comme nous le relevions dans notre article sur la robotique, un objet intelligent et autonome est en fait extraordinairement dépendant aux données, ou comme le résume les auteurs : « l’intelligence est construite à partir des données ».

Les auteurs ont identifié 5 schémas de réponse assez orthogonaux.

Pour certains interlocuteurs, la pierre angulaire de la « vie privée » dans l’IA sera d’assurer la sécurité des données (ce qui est également un principe fondamental dans le cadre de la Loi Informatique et Libertés et du Règlement européen). Il suffirait d’assurer cette sécurité pour que les inquiétudes concernant la vie privée puissent être écartées de la route qui mène à l’adoption du produit ou du service. D’autres interlocuteurs pensent qu’il faut plutôt ne pas détenir les données, ou en tout cas à les détenir pour un temps très court et organiser ensuite l’amnésie du système intelligent. L’idée est de ne pas réellement enregistrer les données personnelles, mais de les traiter en « temps réel » ou très rapidement (« à la volée ») et les effacer dès l’appareil de captation. Il s’agit finalement de reproduire une autre capacité du cerveau humain : celle qui distingue et organise différentes sortes de mémoires. Ces deux approches sont très différentes, mais restent toutes les deux très marquée par la logique du privacy by design et renvoient toutes les deux très directement à des éléments constitutifs du régime légal européen actuel. Les trois autres schémas identifiés sont forts différents, et dénotent plutôt d’une attitude tactique vis-à-vis d’une préoccupation qui perturbe culturellement les praticiens de l’IA. Ces schémas alternatifs sont en effet de s’adapter sur mesure en fonction des attentes et du contexte car la notion de vie privée est très marquée culturellement, d’être patient et d’attendre pour voir si cette préoccupation ne s’efface pas progressivement toute seule, voire d’ignorer purement et simplement cette anxiété à propos de la vie privée qui ne serait qu’une diversion, un « construit historique » considéré, à tort comme important aujourd’hui.

« yes, there’s a sense of impatience on my part. We will adapt to new technology and we will evolve.” (…) “I believe all the advocacy for privacy that’s currently taking place is a terrible, horrible, bad idea. I think that the only logical construction of society going forward is one of transparency and post-privacy.” (Verbatims extraits des entretiens des auteurs de “An AI pattern language”).

Défis 3 et 4 : établir un chemin d’adoption réussie, viable à long terme, et démontrer la précision, la justesse et la fiabilité du système

Ces deux derniers défis tiennent beaucoup plus à la capacité des promoteurs de systèmes intelligents à prouver la valeur ajoutée de leur système par rapport à des systèmes certes plus archaïques, mais finalement parfois très efficients. Pour résumer cette idée, il suffit de poser ces questions : tout le monde présuppose qu’une voiture autonome sera moins susceptible de causer un accident qu’une voiture conduite par un humain. Est-ce si certain ? Et si au lieu d’une voiture, nous parlions d’un médecin robot ? Sera-t-il vraiment meilleur qu’un médecin humain ? Comment le démontrer ? Comment comparer les résultats ? Comment faire travailler ensemble humains et systèmes intelligents ?

Alors que la CNIL s’est vue confiée en octobre 2016 par la Loi pour une République numérique la mission de conduire « une réflexion sur les problèmes éthiques et les questions de société soulevés par l'évolution des technologies numériques », ce travail  de recherche publié par Data & Society montre en tout cas l’ampleur du chemin à parcourir pour construire, malgré les différences de cultures et d’opinions, un langage commun entre professionnels, chercheurs, grand public, régulateur, responsables politiques,… Un tel agenda parait une manière originale et efficace d’aborder le défi de la construction d’un espace public autour des enjeux éthiques et sociétaux de l’intelligence artificielle.

 


Illustration présentation : The Mad Macrographer, HAL 9000 Reimagined Flickr cc by

Illustration dans le texte : Sarah Nicholls pour An AI language pattern


geoffrey delcroix
Article rédigé par Geoffrey Delcroix, Chargé des études prospectives