Angèle Christin : « Les méthodes ethnographiques nuancent l’idée d’une justice prédictive et entièrement automatisée »

Rédigé par Antoine Courmont

 - 

09 juillet 2020


A partir de ses travaux sur les algorithmes prédictifs dans la justice pénale aux États-Unis, la sociologue Angèle Christin présente les apports des approches ethnographiques pour étudier les « algorithmes en pratique ». Ceux-ci nuancent les effets des algorithmes en les replaçant dans leurs contextes organisationnels et en mettant en évidence les résistances dont ils font l’objet.

Les institutions pénales aux Etats-Unis connaissent depuis quelques années une multiplication des usages d’algorithmes prédictifs (« risk-assessment tools ») permettant l’estimation probabiliste des risques de récidive. Plusieurs travaux examinent de façon critique les méthodes de construction de ces algorithmes, ainsi que leurs effets en termes de reproduction des inégalités socio-économiques et raciales dans un système pénal déjà caractérisé par de fortes discriminations, mais on en sait peu sur la façon dont ces algorithmes prédictifs sont utilisés dans les tribunaux américains.

Pour étudier ces algorithmes en pratique, la sociologue Angèle Christin a conduit un terrain ethnographique dans plusieurs tribunaux aux Etats-Unis. Elle a effectué plus de 70 heures d’observations ethnographiques en suivant les juges, les procureurs, les greffiers, les administrateurs des tribunaux et les analystes de données dans leurs activités quotidiennes. En plus de ces observations, elle a mené près de 40 entretiens avec des agents de probation, des juges, des procureurs, des avocats de la défense, des greffiers, des administrateurs de tribunaux et des développeurs impliqués dans la construction d'outils d'évaluation des risques de récidives. A partir de ce terrain, Angèle Christin examine les pratiques décisionnelles des juges et procureurs à l’heure des algorithmes. Ses résultats témoignent de l’écart entre les usages des algorithmes, souhaités par leurs promoteurs, ou critiqués par leurs détracteurs, et leurs usages réels, dont les effets sur l’activité judiciaire sont nuancés.

 

Vous défendez une approche ethnographique qui étudie les « algorithmes en pratique ». Quels sont les apports de cette méthodologie par rapport aux autres modalités d’études des algorithmes ?

Les algorithmes sont souvent décrits comme des « boîtes noires » qui ne peuvent être analysées et comprises par des observateurs extérieurs. Pour remédier à ce problème, les chercheurs travaillant sur les algorithmes ont privilégié plusieurs méthodes : des approches computationnelles, qui permettent d’ « auditer » les algorithmes en leur soumettant des données souvent factices ; des approches théoriques critiques, qui soulignent l’inscription des algorithmes dans des systèmes d’inégalités et de surveillance plus larges ; et des approches ethnographiques, qui s’appuient sur des observations et des entretiens pour mieux comprendre les usages qui sont fait des algorithmes.

Chaque approche a des avantages et des inconvénients. Selon moi, les méthodes ethnographiques permettent de dépasser cette idée d’une « boîte noire » algorithmique. Quand on regarde de plus près, on se rend compte que les humains, leurs valeurs professionnelles, les organisations dont ils sont membres, etc., jouent toujours un rôle crucial dans la construction, la diffusion, et la réception des systèmes algorithmiques. Les ethnographes peuvent donc mieux analyser les interactions fines qui prennent place entre algorithmes et humains lorsque de nouveaux outils sont utilisés. Mais cela vient avec certains inconvénients, par exemple des problèmes d’accès : ce n’est pas facile d’obtenir la permission d’accéder aux terrains où s’élaborent et s’utilisent de nombreux algorithmes, par exemple les GAFA ou les start-ups de la Silicon Valley… Cela prend donc un certain temps de trouver puis de mener des terrains ethnographiques sur la technologie, ce qui fait que les ethnographes sont souvent sur un rythme d’analyse et de publication plus lent que d’autres chercheurs. Ceci dit, cette lenteur n’est peut-être pas complètement négative, elle offre un recul et une réflexivité sur l'objet étudié et permet des observations plus fines !

 

Vous replacez les algorithmes de prédiction des risques de récidive dans une histoire longue de l’usage des statistiques dans le système judiciaire américain. Pouvez-vous revenir sur ces principales étapes avec leurs continuités mais également leurs différences ?

C’est une histoire en trois étapes principales. Tout d’abord, il faut noter que l’analyse des déterminants de la criminalité est une question au cœur de la naissance de la discipline sociologique aux Etats-Unis. Ainsi, comme le montre Bernard Harcourt dans son livre Against Prediction, dès les années 1930, des sociologues de l’Ecole de Chicago se sont associés avec des juridictions afin de mener des analyses statistiques pour déterminer le profil statistique de futurs criminels. Ces questions ne sont pas nouvelles.

La deuxième étape de cette histoire remonte aux années 1970 et 1980, au moment de l’explosion du contentieux correctionnels et de l’incarcération de masse aux Etats-Unis. C’est également une période qui voit le développement de nouvelles disciplines universitaires comme la criminologie, qui connaît un grand succès sur de nombreux campus américains. De nombreux criminologues s’intéressent à la question de la réinsertion et de la réhabilitation des délinquants dans le corps social. Certains d’entre eux se mettent alors à travailler en partenariat avec des juridictions afin de développer les premiers « risk-assessment tools » (outils d’estimation du risque) s’appuyant sur des analyses statistiques de bases de données de cas où des jugements ont été rendus afin d’identifier les profils de délinquants qui étaient les plus à même de récidiver. Les premiers outils s’appuyaient principalement sur des analyses statistiques assez limitées, ainsi que sur des variables dites « statiques », c’est-à-dire des variables n’évoluant pas au cours du temps. Le produit final consistait généralement en une formule que des travailleurs sociaux pouvaient remplir sur une feuille papier comportant des chiffres et des formules que l’on devait utiliser afin de mesurer le « score » des prévenus en termes de risque de défaut de comparution au tribunal ou bien de risque de récidive violente. Au cours des années 1980-1990, ces instruments prédictifs sont devenus de plus en plus complexes, prenant en compte des variables « dynamiques », susceptibles d'évoluer au cours du temps. Leur nombre s’est également multiplié aux Etats-Unis et au Canada.

On arrive alors au troisième moment de cette histoire, les années 2010 et 2020, qui s’inscrivent dans un contexte plus large de remise en cause généralisée de la politique d’incarcération de masse mise en oeuvre aux Etats-Unis. Mais comment peut-on mettre fin à la surpopulation carcérale, ainsi que dépasser plusieurs décennies d’institutionnalisation de politiques pénales répressives fondées sur le tout-carcéral ? C’est un enjeu politique majeur qui explique en partie l’engouement de nombreux réformateurs pour les instruments de prédictive du risque. Les algorithmes étant décrits comme plus « objectifs » que les humains, certains réformateurs pensent que cela permettra de réformer le système en évitant de multiplier les comportements et décisions discriminatoires. On peut donc observer de nombreuses initiatives qui visent à s’appuyer sur des bases de données massives et des modèles computationnels sophistiqués issus de l’apprentissage automatique pour développer des outils de prédiction de pointe. Mais bien évidemment ces algorithmes s’appuient sur des données qui sont issues d’un système judiciaire lui-même façonné par des siècles d’inégalité et de biais… et donc reproduisent ces structures discriminantes dans leurs prédictions, ce qui s’avère contraire aux ambitions réformatrices. C’est le cœur du débat soulevé par l’article « Machine Bias » publié par Julia Angwin et ses collègues de ProPublica, ainsi que des nombreuses réponses que leur analyse a suscitées.

 

Quels sont les principaux outils de calcul des risques de récidive utilisés par les juridictions américaines ? Comment sont-ils mis en œuvre ?

Il existe actuellement plus d’une soixantaine d’outils d’estimation des risques. Certains portent sur l’estimation du risque de défaut de comparution au tribunal (au moment de la mise en détention provisoire) ; d’autres visent le risque de récidive violente (afin d’être utilisés au moment du jugement ainsi que par l’administration pénitentiaire et les services de probation). Il existe également de nombreux outils qui prédisent des risques de récidive plus délimités, par exemple dans le cas des violences domestiques ou des violences sexuelles.

C’est un écosystème très fragmenté : il n’existe pas de standard ou de norme au niveau fédéral pour développer et commercialiser ces outils, qui s’appuient donc sur des méthodes, des données, et des partis pris très différents. On retrouve la même fragmentation au niveau des juridictions. Certains tribunaux utilisent des dizaines d’outils prédictifs, d’autres n’en utilisent aucun. En fonction des chambres d’audiences et des magistrats auxquels vous posez la question, vous obtenez souvent des réponses contradictoires. En bref, l’utilisation de ces outils se fait le plus souvent au petit bonheur la chance, sans politique centralisée, en fonction des centres d’intérêt et des démarches des magistrats et des responsables administratifs de telle ou telle juridiction.

J’ai observé cela de près lorsque j’ai mené mon enquête ethnographique dans plusieurs tribunaux des Etats-Unis. Dans la plupart des cas, j’ai observé des réponses contradictoires : en fonction du magistrat auquel je parlais, j’obtenais des informations différentes sur les algorithmes prédictifs utilisés dans le tribunal ! Certains en mentionnaient un, d’autres deux, certains ne voyaient pas de quoi je parlais… Au final, j’ai trouvé que les outils étaient utilisés de façon peu systématique : un magistrat allait s’appuyer largement sur les scores de récidive, mais d’autres allaient complètement les ignorer.

 

Alors que les critiques adressées à ces modèles prédictifs portent essentiellement sur leur opacité, votre recherche révèle les résistances des magistrats à ces algorithmes. Pouvez-vous nous préciser quel est l’usage réel des outils de prédiction de la récidive ?

L’image qui se dégage de mon analyse ethnographique soulève la question de la résistance des magistrats aux algorithmes. De nombreux juges et substituts du procureur m’ont en effet expliqué qu’ils ne voyaient pas l’intérêt de se servir de ces outils, qu’ils voyaient d’un œil critique pour un ensemble de raisons : les magistrats les trouvaient opaques, critiquaient leur commercialisation par des entreprises privées cherchant à gagner de l’argent en rognant sur la qualité des outils, se plaignaient de n’avoir pas été formé aux méthodes statistiques, et faisaient finalement plus confiance aux méthodes « traditionnelles », c’est-à-dire la lecture du dossier et l’audience avec le prévenu, pour prendre leur décision. Ce faisant, les magistrats défendaient souvent leur expertise professionnelle contre l’automatisme des algorithmes. Cela pouvait en amener certains à ignorer volontairement les scores de risque de récidive. Ceci dit, et c’est une des limites de la méthode ethnographique, je n’ai observé que quelques tribunaux aux Etats-Unis ; mes résultats ne sont donc pas représentatifs. Mais cela permet en tout cas de nuancer l’idée d’une justice prédictive et entièrement automatisée…

 

Ces résultats témoignent de l’écart entre les usages souhaités (et critiqués) des algorithmes et leurs usages réels et nuancent leurs effets sur l’activité judiciaire. Toutefois, vous indiquez qu’au travers de la mise en œuvre de ces algorithmes se joue un déplacement du pouvoir discrétionnaire des magistrats vers les travailleurs sociaux. En quoi ce déplacement est problématique ?

L’un des éléments frappants qui ressort de mon enquête tient en effet aux formes de déplacements du pouvoir discrétionnaire que l’on observe lorsque les outils algorithmiques sont mis en place. Lors de mes entretiens avec les travailleurs sociaux des services de mise en détention provisoire, il est clairement apparu qu’ils savaient très bien comment manipuler l’algorithme afin d’obtenir le résultat qu’ils pensaient approprié. A force d’utiliser ces instruments, ces travailleurs sociaux avaient acquis un savoir pratique précieux : ils comprenaient quelles étaient les variables qui comptaient le plus pour le calcul du score. Mais les magistrats, eux, étaient généralement démunis face aux algorithmes, dont ils ne comprenaient pas le fonctionnement. C’est finalement à ce niveau-là que s’effectue la transformation la plus problématique : en essayant de « rationaliser » un point précis de la chaîne pénale (ici, la décision judiciaire prise par les magistrats) via les algorithmes, on se retrouve face à un déplacement du pouvoir discrétionnaire vers des segments de l’institution qui sont finalement moins visibles que ceux que l’on essayait de réformer. C’est l’une des ironies de nombreux projets de réformes par les algorithmes, et c’est également pour cette raison qu’il est important de regarder de près ce que j’appelle les « algorithmes en pratiques ».


Pour aller plus loin :

 

Angèle Christin

Angèle Christin est assistant professor au département de Communication et professeure affiliée au département de Sociologie et au programme en Sciences, Technologie et Société de l’Université Stanford ; et chercheure associée de l’institut Data & Society. Elle est également titulaire de la Chaire Sorbonne Université – IEA de Paris « Changements majeurs » au titre de l'année 2019-2020. Angèle Christin est l’une des spécialistes du champ des études algorithmiques aux Etats-Unis qu’elle étudie au travers d’une approche ethnographique pour analyser comment les algorithmes transforment les valeurs professionnelles, l’expertise et les pratiques de travail.


Illustration - cc-by djfrandango (pixabay.com)


Article rédigé par Antoine Courmont , Chargé d’études prospectives