De Darwin au véhicule autonome, l’évolution de la captation des émotions du visage

Rédigé par Régis Chatellier

 - 

12 juillet 2018


Comprendre ce qui se passe dans la tête de son interlocuteur : l’idée n’est pas nouvelle, mais elle revient par l’affective computing et par des méthodes de reconnaissance des émotions, dans la voix ou dans les expressions du visage.

duchenne-facialexpressions.jpg

Déjà en 1872, Charles Darwin publiait un ouvrage consacré à « L’expression des émotions chez l’homme et les animaux ». Il y présentait sa théorie sur l’origine de la gestuelle et des expressions faciales, universels selon lui : « les jeunes et les vieux d'un très grand nombre de races, que cela soit chez les animaux ou les humains, expriment le même état d'esprit avec les mêmes mouvements ». A sa manière, il avait déjà mis en œuvre une forme d’apprentissage sur la base de l’accumulation de données, il se basait en effet sur des réponses à des questionnaires et des photos de visages reçus du monde entier. L’apprentissage n’était pas le fait de la machine, mais bien celui d’une intelligence « non-artificielle ».

 

Dans sa version moderne, comme le rappelle Olivier Ezratty dans un article de French Web (Où en est l’IA émotionnelle ?), la reconnaissance des émotions du visage par des caméras fut standardisée très tôt par le système de description FACS pour Facial Action Coding System, créé en 1978 par les psychologues américains Paul Ekman et Wallace Friesenen. Mais un siècle et demi après Darwin, nous cherchons toujours à percer les émotions dans l’expression de nos contemporains, cette fois aidés par la collecte d’image en quantité toujours plus importante, et par le biais d’algorithmes d’intelligence artificielle.

 

 
Le magazine l’ADN recensait en mai 2018 une série de projets qui vont dans ce sens. Affectiva propose un dispositif de reconnaissance facial inséré dans des écrans, des assistants connectés ou des véhicules, qui vous promet de capter, analyser, enregistrer et analyser les sentiments des personnes qui se trouvent dans la pièce ou dans l’habitacle. L’objectif, selon les cas, est de capter les émotions du conducteur automobile pour des raisons de sécurité (détecter les signes de fatigue ou de colère), des passagers pour adapter la musique ou à des fins marketing en observant la manière dont les personnes réagissent à des contenus numériques (à noter que cette startup utilise autant le son que la vidéo). D’autres entreprises proposent des systèmes similaires, comme la Suisse Nviso, qui analyse les mouvements des micro-muscles du visage pour y déceler et prédire les comportements des individus. En plus de l’usage dans les véhicules, le service est proposé dans la santé pour assister le diagnostic et notamment la gestion de la douleur, mais aussi dans la finance, afin de mesurer la manière dont réagissent les clients face à des projets financiers, et notamment la tolérance au risque. Des usages qui peuvent devenir très intrusifs si l’on n’y prête pas garde. 

 

L’ordinateur sera empathique avant d’être quantique

 

L’affective computing est donc un champ où s’engouffrent de nombreux services, avec toujours la promesse de mieux reconnaître et comprendre les individus. La cofondatrice de Affectiva, Rana el Kaliaby, pourtant fervente promoteuse de ces technologies, souligne les risques de ces technologies dans une tribune publiée sur MIT Tech Review, « It’s hard to get more personal than data about your emotions. People should have to opt in for any kind of data sharing, and they should know what the data is being used for. We’ll also need to figure out if certain applications cross moral lines. We’ll have to figure out the rules around privacy and ethics. We’ll have to work to avoid building bias into these applications » (« Il est difficile de recueillir des données plus personnelles que les émotions. Les individus devraient pouvoir consentir préalablement à la collecte, et connaître les usages pour lesquels ces données sont collectées. Nous devons également déterminer si certaines applications franchissent des règles morales, déterminer quelles sont les règles en termes de vie privée et d’éthique. Nous devons travailler à éviter de construire des biais avec ces applications »).

 

Profilage et traitement automatisé

 

Identifier un visage pour adapter la playlist d’un autoradio n’est pas comparable à l’analyse des émotions à des fins de profilage marketing, et encore moins dans le cas de l’évaluation d’une personne dans le cadre de la relation avec son banquier. Défini à l’article 4 du RGPD, le profilage est un traitement utilisant les données personnelles d’un individu en vue d’analyser et de prédire son comportement, comme par exemple déterminer ses performances au travail, sa situation financière, sa santé, ses préférences, ses habitudes de vie... ou en l'occurrence, ses émotions. Il vise à évaluer certains de ses aspects personnels, en vue d’émettre un jugement ou de tirer des conclusions sur elle. Dès lors que ce profilage mène à une prise de décision automatisée, l’article 22 du RGPD encadre ces processus lorsqu’ils produisent des effets juridiques ou des effets significatifs. Si par principe, ce type de décision automatique est interdit, il peut cependant être possible sous certaines exceptions, dont notamment le « consentement explicite des personnes concernées » (ainsi que l’exécution d’un contrat, ou si elle est encadrée par des dispositions légales spécifiques). Les personnes concernées devront pouvoir être informées lors de la collecte de leurs données et à tout moment sur leur demande, de l’existence d’une telle décision, de la logique sous-jacente ainsi que de l’importance et des conséquences prévues de cette décision. Un droit à l’intervention humaine devra également leur être accordé, notamment afin d’obtenir un réexamen de sa situation, d’exprimer son propre point de vue, d'obtenir une explication sur la décision prise ou de contester la décision. 

 

Il en va pour l’affective computing comme pour toutes les nouvelles promesses de reconnaissance de comportement, de l’intime, ou de profilage par le traitement algorithmique. Les responsables de traitements doivent appliquer, au-delà de la seule conformité au RGPD, un principe de vigilance et de réflexivité, pour toujours être en mesure de réévaluer le système mis en œuvre, « une réponse directe aux exigences qu’imposent ces objets technologiques […] et de la confiance excessive à laquelle ils donnent souvent lieu. »



Régis Chatellier
Article rédigé par Régis Chatellier, Chargé des études prospectives