Chatbots: des humains comme les autres ?
Rédigé par Olivier Desbiey
-
03 February 2017La multiplication des interactions intermédiées par des formes d’intelligence artificielle pose la question de nos relations avec les machines.
Nous documentons régulièrement sur LINC les progrès dans le domaine de l’intelligence artificielle, en particulier ceux de DeepMind qui ne cesse de dépasser les humains sur certaines tâches : comme par exemple reconnaitre des visages, lire sur les lèvres, etc.
La dernière performance en date de l’IA de Google a été de battre 50 des meilleurs joueurs mondiaux de Go lors de parties en ligne (sur les serveurs de Tygem et FoxGo). Le jeu de Go est un terrain d’expérimentation très prisé des intelligences artificielles, en raison des stratégies combinatoires complexes permises par la grande taille du plateau. L’une des particularités de la dernière démonstration d’AlphaGO est la réalisation de parties en ligne sous les noms d’utilisateur « Magister » et « Master », sans indiquer à ses adversaires que ces derniers jouaient en réalité contre une machine…
Certaines voix se sont élevées pour savoir s’il fallait que les robots et plus généralement les intelligences artificielles se signalent aux humains pour lever toute ambiguïté possible, en référence au drapeau rouge de Turing voulant que tout système autonome doive s’identifier (en tant que tel) dès la première interaction avec un autre agent.
Cette question fait d’ailleurs écho à des débats plus vastes sur l’éthique dans le développement des intelligences artificielles en France comme dans la silicon valley.
IA, ma belle IA, dis-moi qui est le plus (ro)beau ?
Parmi les exemples d’interactions entre des IA et des humains où l’ambigüité pourrait particulièrement se manifester, on peut citer les chatbots. Ces robots conversationnels établissent de nouvelles modalités d’interaction – généralement au sein des applications de messagerie – permettant de commander une course Uber directement depuis l’app messenger de Facebook ou de trouver des « idées pour occuper son temps libre » autour de soi avec des services comme Jam. Les secteurs des médias, du commerce et de manière plus générale des services de proximité sont les premiers concernés par ces nouvelles formes d’interaction. Elles permettent de faciliter l’accès à l’information, pour les plus simples, jusqu’à des recommandations personnalisées, pour les fonctions les plus évoluées.
Le développement de ces chatbots va naturellement conduire à se poser de plus en plus régulièrement la question de la destination et l’exploitation des conversations, sans que la réponse ne soit d’ailleurs évidente.
Sommes-nous plus à l’aise pour divulguer des informations intimes en sachant qu’elles ne seront lues que par une machine ? Ou, à l’inverse, faisons-nous plus confiance à des humains plus à même d’éprouver de l’empathie ? En fonction de la réponse, on pourrait même inverser le problème, à savoir : devrait-on recevoir une information spécifique lorsque nous interagissons directement (ou indirectement) avec un humain ?
En effet, si la thématique de l’IA est particulièrement débattue en ce moment, certaines des révolutions attendues demeurent encore à l’état de promesses. La frontière entre ce qui relève de l’intervention humaine et de celle d’autres formes d’intelligence n’est pas si nette, et dans bien des cas, nos interactions avec des chatbots se retrouvent finalement supervisées par un humain… Ces interrogations sont d’autant plus prégnantes que l’un des principes de base des interactions avec les robots conversationnels est la communication en langage naturel, ce qui peut conduire à transmettre davantage d’informations sur ses émotions que dans un environnement où les requêtes sont plus codifiées (comme sur un moteur de recherche).
Quid des décisions fondées sur un traitement automatisé ?
Si l’on place ces débats dans une perspective informatique et libertés, le principal enjeu va concerner l’information communiquée à l’utilisateur pour indiquer clairement la manière dont les données sont susceptibles d’être traitées, et le cas échéant offrir des possibilités de limiter ces traitements ou s’y opposer.
Les décisions qui seraient prises dans un tel contexte sont encadrées par l’article 10 de l’actuelle loi I&L et l’article 22 du règlement européen dès lors qu’elles sont susceptibles d’avoir des effets juridiques sur l’individu.
Extrait de l'article issu du règlement européen sur la protection des données :
Article 22 - Décision individuelle automatisée, y compris le profilage
La personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire.Extrait Article 22 du Règlement européen
L’idée que les individus puissent connaitre la logique qui sous-tend le traitement et qu’aucune décision ne puisse être prise sur le fondement exclusif d’un traitement automatisé de données. Au-delà, en application des principes de transparence et de loyauté, il peut être important qu’une personne soit en mesure de savoir si elle parle à un humain ou à une machine.
La loyauté et la transparence des algorithmes ont d’ailleurs été introduites par la loi pour une République numérique (article 4) et ces sujets font également l’objet d’une série de débats animés par la Cnil dans le cadre de sa nouvelle mission de réflexion sur l’éthique et le numérique.
Finalement, de la même manière que nous sommes avertis dans certains contextes que nos données sont susceptibles de faire l’objet de captation (i.e : appel téléphonique à une hotline, caméra de vidéosurveillance, etc.), devrait-on prévoir des mécanismes d’informations spécifiques lorsque nous interagissons avec des machines ?