En quête de reconnaissance faciale

Rédigé par Martin Biéri

 - 

25 juin 2019


Alors que les usages de la reconnaissance faciale à des fins sécuritaires se multiplient, de plus en plus de voix s’élèvent pour que ces nouvelles technologies soient mieux maîtrisées, encadrées et régulées.

Caméras

En Chine, des systèmes de reconnaissance faciale sont utilisés pour cibler une minorité ethnique ; outre-manche, un britannique se retrouve à payer une amende pour n’avoir pas voulu dévoiler son visage à la caméra ; à San Francisco, la municipalité décide de bannir ces dispositifs : l’actualité récente nous gratifie d’un ensemble représentatif des questions autour de cette nouvelle technologie. C’est l’occasion de faire le point sur les différents enjeux qui y sont liés.

 

Comment fonctionne cette technologie ?

Le domaine de la vidéo intelligente, c’est-à-dire les systèmes qui permettent une analyse et une aide à la décision à travers une vidéo ou un capteur vidéo, est donc en plein expansion, autant en termes de recherche et de possibilités que d’applications concrètes. Ce qui n’est pas sans soulever un certain nombre d’enjeux, que ce soit au niveau juridique, économique, sociétal ou encore technique. Parmi ses usages (détection de présence, détection de comportements suspects, reconnaissance de véhicules, détection d’objets, etc.), la reconnaissance faciale occupe une place prédominante dans les interrogations et les inquiétudes.

Deux cas d’usages sont possibles avec la reconnaissance faciale : la vérification (authentification) ou l’identification. La nuance peut paraître fine, mais elle est pourtant importante. Dans le premier cas, il s’agit de savoir s’il s’agit bien de la personne qui déclare son identité (= « est-ce bien moi ? »). Le deuxième cas, en revanche, suppose d’avoir préalablement une base de gabarits ou modèles biométrique des individus à retrouver. Le système va alors effectuer un test sur chaque personne qui passe dans le champ de la caméra pour générer un gabarit biométrique et vérifier si celui-ci correspond à une personne connue. Cette méthode reste probabiliste, avec une marge d’erreur plus ou moins forte selon le réglage de certains paramètres du système. A travers ces deux cas d’usage de la reconnaissance faciale, il y a deux grandes applications : d’un côté les contrôles d’accès (i.e. l’accès à une zone sécurisée) ; de l’autre l’identification dans un espace public (reconnaître un individu dans une foule).

 

Des technologies qui ne sont pas infaillibles

Faux positifs, nécessité d’un contrôle humain… les machines ne sont pas infaillibles : on appelle faux positif une correspondance entre deux visages différents mais qui sont considérés identiques par la machine (autrement dit, la machine pense qu’il s’agit de moi) et l’inverse, un faux négatif (autrement dit, la machine ne me reconnait pas). Lorsque des technologies d’intelligence artificielle sont utilisées, d’autres biais existent, et sont notamment décrits dans le rapport Ethique sur les algorithmes de la CNIL. Certains portent directement la trace de l’homme : il est difficile de construire une machine ou une intelligence neutre et objective, soit parce que le concepteur favorise volontairement ou non des chemins discutables, soit parce que l’apprentissage a introduit des biais. La technologie a également des limites : à titre d’exemple, une technologie de reconnaissance faciale des conducteurs traversant le pont de New-York s’est récemment avérée être incapable de reconnaitre les visages.

Aux Etats-Unis toujours, la chercheuse Clare Garvie du Center on Privacy & Technology à Georgetown Law vient de publier son rapport sur les risques associés à l’utilisation des technologies de reconnaissance faciale dans certaines grandes villes. Dans ce rapport, elle revient sur plusieurs points : d’abord sur ces biais de la technologie (biais techniques, biais de conception, biais embarqués, biais liés aux bases de données, etc.), mais aussi sur le changement de paradigme que l’utilisation de ces dispositifs génère. Lorsque la reconnaissance faciale est utilisée dans un contexte de vidéosurveillance, elle souligne la portée invasive de ce nouveau mode de surveillance, le manque d’encadrement juridique, le manque de contrôle et d’audit de ces systèmes. L’équilibre existant entre libertés individuelles et sécurité/efficacité des enquêtes est bouleversé par ces nouvelles utilisations. Elle conclut qu’« il est temps de mettre sur pause la reconnaissance faciale ».

 

Quelles libertés dans l’espace public ?

L’incident en Angleterre cité en introduction est symptomatique d’une nouvelle contradiction : la volonté de ne pas être filmé (et/ou reconnu) a été jugée par les policiers britanniques comme étant un geste suspect, amenant à l’interpellation du passant. L’utilisation de la reconnaissance faciale lors de manifestations pour identifier et arrêter certains individus soulève des interrogations sur le plan juridique ; c’est pourtant ce qu’a fait la police du Maryland pendant les manifestations qui ont suivi la mort de Freddy Gray en 2015 ou encore la police anglaise à Notting Hill, où 94% des individus « reconnus » étaient des faux positifs. En France, ce type d’usage ne pourrait être permis en France que sur la base, a minima, d’un décret en Conseil d’Etat pris après avis de la CNIL.

 

La technologie pour juguler la technologie ? 

Des dispositifs pour rendre la reconnaissance automatique plus difficile existent déjà : des casquettes avec des matériaux réfléchissants, des motifs spécifiques, du maquillage… Tout ce qui permettra de tromper les algorithmes est déjà à portée de main… Les moyens de contourner la technologie évolueront sûrement en parallèle de celle-ci.

De même, la technologie peut permettre de se protéger de la technologie. C’est notamment ce que promet l’entreprise D-ID, qui permet de modifier une image de telle manière qu’elle reste identique pour l’œil humain, mais illisible pour les machines. Comment cela fonctionne-t-il ? Très schématiquement, deux réseaux de neurones, dits adversaires, s’affrontent : l’un qui identifie, l’autre qui brouille ou qui soumet au premier de fausses images toujours réalistes pour améliorer sa capacité d’apprentissage. En pratique, les deux s’enrichissent mutuellement. En aboutissant à la production d’images très similaires de celles d’origine, mais dont le contenu ne permet pas l’extraction de caractéristiques fines des traits de visage, l’objectif est de protéger les images, les rendant inutilisables pour des finalités qui n’ont pas été précisées.

En parallèle de la solution technologique, il y a les solutions réglementaires. C’est le choix fait par la ville de San Francisco, de manière radicale, par un bannissement pur et simple de la technologie dans son aspect policier. Du côté des régulateurs, la CNIL a appelé dès l’automne 2018 à un débat public pour encadrer les utilisations des nouveaux usages vidéo. L’avis de l’ICO tombé fin mai 2019 n’est pas différent : l’autorité anglaise demande un encadrement.

 

Pour aller plus loin :



martin.jpg
Article rédigé par Martin Biéri, Chargé d'études prospectives