Algorithme : comment nous soustraire au comportementalisme numérique ?

Rédigé par Régis Chatellier

 - 

15 mars 2016


Face à l'émergence du Big Data et au traitement dynamique de la donnée, nous nous interrogions dans le cahier IP1, Vie Privée à l’horizon 2020 , sur un risque de dictature de l'algorithme. Serons-nous demain tous calculés ?

Le règne du calcul ne date pas de l'hyperlien. Dominique Cardon rappelle dans son récent ouvrage, "A quoi rêvent les algorithmes", que c'est à partir des années 80 et du développement des politiques néolibérales que l'on a assisté à "une généralisation de la calculabilité et à une systématisation des indicateurs." Les statistiques étaient devenues une technique de gouvernement, les indicateurs "se sont répandus dans la société pour fournir à ceux qui étaient mesurés des chiffres destinés à orienter leurs comportements."

On assiste aujourd'hui à l'extension de la calculabilité dans le "calcul algorithmique embarqué à l'intérieur des machines". La juriste et chercheuse Antoinette Rouvroy porte un regard très critique sur l’algorithme, qui s’insère selon elle dans "le contexte global du capitalisme informationnel" au sein duquel on sur-valorise le caractère prédictif des données. Le règne de la prise de décision par la machine ne peut pas tout prendre en compte, notamment les causes. On passe "du déductif à un inductif purement statistique en ne retenant que ce que l’on peut mesurer, dans une sorte de réductionnisme informationnel." Tout ce qui passe par la conscience humaine devient de fait suspect, certains pans de la réalité nous échappent car ce qui n’est pas mesurable n’existe plus.

 

Micro-physique des comportements

 

Antoinette Rouvroy estime que le Big Data favorise le « comportementalisme numérique » permettant d’anticiper des comportements, des appartenances, de classifier les personnes en fonction des risques et opportunités qu’elles présentent sans plus avoir à les faire comparaître ou à les entendre. Dominique Cardon qualifie ce comportementalisme de "radical",  les concepteurs d'algorithmes prédictifs disent se baser sur des comportements passés pour effectuer des recommandations. Ils le renvoient constamment à sa seule responsabilité, plus certainement à son statut et même à ses origines. Les grands systèmes de détermination ont laissé place à une "micro-physique des comportements et des interactions, décodés par des capteurs de bas niveau" (Alex Pentland, Social Physics, How Good Ideas Spread , MIT 2014). Le logiciel de police prédictive Predpol en est l'illustration. En test à Los Angeles en 2014, il analysait les données des familles (casier judiciaire, drogue, scolarité, pour prédire le risque pour les enfants de tomber dans la délinquance. Pour Dominique Cardon, "le comportementalisme numérique, c'est ce qui reste de l'habitus lorsque l'on a fait disparaître les structures sociales."

Le  data-mining et le profilage permettent d’individualiser les offres de service et d’information, mettant le citoyen-consommateur-utilisateur « au centre » des dispositifs, tout en ne lui donnant plus l’occasion de faire entendre quelles sont ses intentions, ses désirs, ses motivations, ses préférences, inférés automatiquement par les dispositifs numériques. Les travaux menés dans le cadre du cahier IP consacré aux industries créatives ont démontré le développement croissant des systèmes de recommandations. Des acteurs comme Netflix pour la vidéo ou Spotify pour la musique parviennent maintenant à affiner toujours plus finement le profiling de leurs utilisateurs. On entre dans ce que Dominique Cardon décrit comme le paradoxe de la société des calculs, qui "amplifie les phénomènes de coordination et de hiérachisation du mérite, tout en permettant aux individus de se sentir plus libre de leurs choix." En apparence.

 

Pour une démarche éthique

 

Le recueil de données pour de mauvais usages était l’enjeu à la naissance de la CNIL. L’interopérabilité est aujourd’hui une question centrale. "Une vision et une démarche éthique des TIC sont plus que nécessaires," considère Antoinette Rouvroy). Le professeur de droit Yves Poullet souligne que "l’individu est aujourd’hui réduit à ses données et à des construits faits à partir de ces données, ces avatars algorithmiques sont une construction statistique dangereuse des personnes."

Le traitement statistique permet de brasser des informations qui ne sont pas intrinsèquement personnelles : "elles parlent des gens sans être nominatives". Les sciences autour des données vont progresser et on ne fera plus le détour par l’identification ou par l’espionnage du sujet (comme connaître son orientation politique). Si le pouvoir devient totalement abstrait, invisible, statistique et probabiliste, alors la protection des libertés devrait peut-être le devenir.

Antoinette Rouvroy propose d’encadrer le data-mining et le profilage en immunisant certains secteurs et en incluant la gestion des traces numériques dans les enjeux relevant de la responsabilité sociétale des entreprises. Celles-ci pourraient ainsi s’intéresser à la minimisation de leur impact sur l’environnement informationnel dans "une approche comparable à celle qui prévaut concernant le respect de l’environnement..."

Document reference

Cahier IP1 - Vie privée à l'horizon 2020


Illustration : Pixabay cc-by Aitoff


 


Article rédigé par Régis Chatellier , Chargé des études prospectives