Affective computing : des casques qui analysent le cerveau

Rédigé par Régis Chatellier

 - 

25 June 2018


En Chine, l’usage de casques capteurs des réactions du cerveau se répand dans les entreprises. Si l’objectif affiché est celui de la sécurité et de l’amélioration de la productivité, les risques d’atteintes à la vie privée sont évidents.

Affective Computing - Construction Workers helmet - LINC CNIL maxpixel cc0

Dans un article du South China Morning Post, repéré par MIT Technology Review, on découvre la dernière nouveauté en termes de surveillance des travailleurs. En Chine, des ouvriers, des militaires et des conducteurs de trains sont désormais équipés de casques ou casquettes munis de capteurs afin de mesurer le niveau de stress au travail, pour, par exemple, adapter le rythme de production. Les capteurs sans fil surveillent en permanence le rythme du cerveau et envoient les données vers des serveurs sur lesquels tournent des algorithmes d’intelligence artificielle, en mesure de détecter des pics émotionnels, comme l’anxiété, la colère, voire la dépression. 

Ce type de technologie est déjà déployé dans de nombreux secteurs : une entreprise de 40 000 employés, Ningbo Shenyang Logistics, l’utilise notamment dans le cadre de la formation des nouveaux employés afin de simuler différents scénarios dans l’environnement de travail. Le dispositif a permis, selon un manager de l’entreprise, de réduire de manière significative les erreurs des ouvriers, grâce à une « meilleure compréhension » entre employeurs et employés. Pour Jin Jia, professeur en science du cerveau et psychologie cognitive à la Ningbo University’s Business School, un employé trop émotif pourrait affecter l’ensemble d’une chaine de production, mettant en danger sa propre sécurité comme celle des autres. Il reconnait cependant que les employés avaient d’abord accueilli avec suspicion ces dispositifs, dont ils avaient peur qu’ils « lisent dans leurs pensées », occasionnant « résistance et inconfort », mais « ils ont fini par s’y habituer et le portent désormais tous les jours ». 

Selon le South China Morning Post, la Chine, dont la panoplie des technologies de surveillance est déjà très large, est le seul pays qui emploie massivement ce type de technologie ; aux  Etats-Unis, seuls des archers qui cherchaient à améliorer leur concentration en vue des compétitions de tir à l’arc s’en sont servi, mais cela n’a jamais été utilisé dans le monde du travail. On trouve tout de même en Occident des tentatives de captation des émotions de salariés, comme nous le relations dans un article de LINC : une startup propose par exemple de capter les émotions des clients et téléconseillers dans les centres d’appel

Le champ de l’affective computing reste l’un des nouveaux eldorados à conquérir dans le numérique, avec les risques évidents qu’il comporte pour la protection de la vie privée, d’autant plus que ces technologies restent encore balbutiantes et ne sont pas toujours fiables. Selon un groupe de chercheurs chinois, le comportement du cerveau humain est très complexe et reste difficile à interpréter. Bien que de plus en plus de chercheurs essaient de démontrer les liens entre, par exemple, la courbe d’encéphalogramme et une émotion perçue par le biais de la reconnaissance faciale, les relations entre les émotions humaines et l’activité du cerveau sont encore loin d’être clairement établies. Il convient d’autant plus de rester prudent avec ce type de dispositif. 

En Chine comme ailleurs, ce type de technologie pose des questions. Qiao Zhian, professeur de psychologie à l’université de Pékin fait part de ses inquiétudes. Admettant que ces dispositifs pourraient effectivement permettre de gagner en compétitivité, il craint que certaines entreprises en abusent pour contrôler les esprits et porter atteinte à la vie privée des individus, suscitant le spectre d’une « police de la pensée ». « Il n’y a pas de loi qui limite l’usage de ces équipements en Chine. Alors que les entreprises peuvent être fortement incitées à l’usage de ces technologies pour leurs profits, les employés sont de leur côté en situation de faiblesse qui ne leur permet pas de refuser ». 

En Europe, la collecte de telles données et par ce type de dispositif serait très encadrée par le RGPD, mais aussi par le Droit du travail. L’article L. 1121-1 du code du travail pose un principe général d’interdiction de prendre des mesures restreignant les droits et libertés des personnes qui ne seraient pas justifiées ni proportionnées par rapport à l’objectif poursuivi. Il s’agirait alors pour l’employeur de justifier la pertinence du dispositif sur le fondement du RGPD comme du droit du travail. En termes de protection des données, de telles captations et traitements de données entreraient dans le cadre du «profilage», soit « toute forme de traitement automatisé de données […] pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail (art.4) ». Certains employeurs pourraient être tentés de recourir à ce type de dispositif pour des besoins paraissant légitimes, par exemple pour détecter et prévenir la somnolence d’un employé qui pourrait mettre en danger la vie d’autres personnes. Toutefois, cet outil devrait être considéré comme disproportionné, et ne pourrait donc pas être mis en œuvre, dans la mesure où l’employeur pourrait vraisemblablement recourir à d’autres outils, plus fiables et moins intrusifs pour parvenir à cette même finalité. Les européens sont ainsi à l’abri de la généralisation de casque capteurs de données. 

 



Régis Chatellier
Article rédigé par Régis Chatellier, Chargé des études prospectives