Nous voyons des pixels, l’intelligence artificielle reconnaît des visages

Rédigé par Saba Rebecca Brause

 - 

04 octobre 2016


Une étude révèle que les images camouflées par pixellisation, floutage ou selon la méthode "p3", ne protègent pas toujours efficacement notre vie privée.

Un trio de chercheurs de l‘Université du Texas à Austin et de la Cornell University ont publié en septembre une étude dans laquelle ils montrent que la dissimulation des images ne protège pas toujours efficacement notre vie privée. Des résultats qui rejoignent les observations des chercheurs du Max-Planck-Institut, qui avaient pu identifier des personnes sur des photos camouflées tirées de Facebook.

Cette étude apporte cependant un nouvel éclairage : les chercheurs utilisent une technique d’apprentissage profond (deep learning), accessible librement, qui d’après les auteurs, serait utilisable par des personnes mal intentionnées dotées seulement des connaissances techniques de base. Ils n’ont pas modifié et optimisé un nouvel algorithme, mais n’ont eu qu’à alimenter une technique déjà existante, disponible en ligne, et pour laquelle sont on trouve des tutoriels. Cette technique ne consiste ainsi pas à reconstruire "from scratch"  une image ou à retourner le processus d’obfuscation, mais plutôt à rechercher dans celle-ci des éléments qu’elle aurait déjà croisé auparavant. L’apprentissage se fait donc par l’accumulation de données avec lesquelles comparer une photo.

 

 
Exemples de pixellisation et de P3
Figure 1 - Techniques de pixellisation et P3© Richard McPherson, Reza Shokri, and Vitaly Shmatikov
 

 

Les chercheurs ont d’abord alimenté la base de données en images « nettes » de célébrités. Ils testaient ensuite la reconnaissance des personnes sur des nouveaux clichés « nets ». Tant que le taux de réussite n’était pas satisfaisant, ils alimentaient la base de données. Lorsque l’IA avait atteint les 90% de taux de réussite, le test pouvait commencer. L’algorithme se voyait alors proposé de reconnaître des clichés inédits, sur lesquels on avait appliqué une de ces trois techniques de dissimulation des visages : la pixellisation, le floutage utilisé par Youtube et le « P3 » (voir figures 1 et 2). Les résultats démontrent qu’il est souvent possible de réidentifier la personne.

 

 

Exemple de floutage Youtube
Figure 2 - Floutage utilisé par Youtube © Richard McPherson, Reza Shokri, and Vitaly Shmatikov

 

Le taux de réussite dépend de la technique de dissimulation et de l’importance des bases de données d‘images utilisées pour alimenter l’algorithme. Même pour le test dont le taux de réussite est le plus faible, sur des images chiffrées par le P3, l’IA parvient dans 17% des cas à identifier la personne lors de la première tentative (et dans 34% au bout de 5 tentatives). A titre indicatif, les chances lors d’une estimation aléatoire y auraient été de 0,19%.  Pour l’œil humain, l’identification est pratiquement impossible. Pour la pixellisation, le taux de réussite dépassait même souvent les 80%.

Cette étude illustre bien les défis pour protéger la vie privée (ou la sécurité) des personnes sur les images. Au-delà de la question de l’efficacité des protections technologiques, les personnes doivent s’engager dans des pratiques de partage prudentes des images.

 


 Illustration : Pixabay CC0 by geralt


Article rédigé par Saba Rebecca Brause , Stagiaire au sein du pôle études, innovation & prospective