Quand les assistants vocaux entendent des voix
Rédigé par Régis Chatellier
-
17 mai 2018En 2017, Burger King avait fait sensation en insérant dans une publicité ce message : « O.K., Google, what is the Whopper burger?”. L’assistant vocal se réveillait alors pour lire la page Wikipedia du célèbre sandwich. Une expérience qui a pris fin au moment où des petits malins ont modifié la page Wikipedia afin d’y insérer des blagues. Dans cette expérience, c’est le comédien qui prononçait la phrase, audible par les téléspectateurs, mais il est maintenant possible de déclencher les assistants de manière « inaudible».
Plusieurs études menées par des chercheurs, aux Etats-Unis et en Chine, ont permis de démontrer que des messages inaudibles par l’oreille humaine peuvent être envoyés à des assistants vocaux, qui non seulement les entendent, mais leur obéissent. C’est ce que révèle un article publié le 10 mai 2018 dans le New-York Times, Alexa and Siri Can Hear This Hidden Command. You Can’t.
Alors que l’on associe une approche anthropomorphiste aux interfaces dites naturelles, en attribuant aux machines des capacités d’écoute similaires aux humains, la réalité est très différente… Dans les systèmes dits de speech-to-text, le son est traduit en lettres, mots et phrases par un logiciel de retranscription de la parole. En effectuant des légères modifications sur des fichiers audio, les chercheurs parviennent à neutraliser la traduction telle qu’elle aurait dû être effectuée pour la remplacer par une version traduite différemment par la machine, sans que l’oreille humaine ne perçoive quoi que ce soit.
Les équipes de chercheurs de l’université de Berkeley ont ainsi pu cacher des messages de commande dans des bruits blancs qu’ils jouaient par-dessus le son de vidéo Youtube, pour faire appeler des numéros de téléphone ou ouvrir des pages web. Ils auraient pu tout aussi bien activer des fonctions plus gênantes, déjà disponibles via la commande à distance, comme ouvrir des portes ou transférer de l’argent. Un exemple qui démontre qu’il est encore aisé de tromper et manipuler certaines intelligences artificielles.
S’il est possible de modifier des sons pour en changer le message, on peut également diffuser des sons blancs, complètement imperceptibles, sans avoir recours à la couverture d’un quelconque habillage sonore, tel de la musique. En septembre dernier, une équipe chinoise a mis au point le système dit DolphinAttack, qui envoie de faux messages, dans un apparent silence, et désactive les réponses de l’assistant vocal. Il devient alors possible de le contrôler sans risque de se faire repérer par son propriétaire.
Si les fabricants d’assistants connectés, Google, Amazon et Apple annoncent tous mettre en place des mesures de sécurité pour prévenir de telles pratiques, les outils de reconnaissance vocale peuvent comporter des vulnérabilités. Les exemples sont déjà nombreux, comme autant de démonstrations de la nécessaire prise en compte de ces risques dans le développement et l’utilisation des assistants vocaux. Comme nous l’indiquions dans un article LINC : « les impacts du consentement à la collecte de nos données par de tels dispositifs ne sont pas que personnels, mais aussi collectifs, dans la mesure où nous entrainons nos proches dans cette collecte sans qu’ils en aient nécessairement conscience ». Quid d’un faux consentement recueilli par l’intermédiaire d’un dispositif ayant pour but de tromper l’IA de l’assistant vocal, qui pourraient engendrer du point de vue de l’utilisateur une forme de violation de ses données par l’entremise d’un tiers. In fine le fabricant d’assistants personnels doit se prémunir et protéger ses systèmes, notamment au regard du principe de sécurité des données, inscrit dans l’article 5 du Règlement européen.
Illustration : Anomalie Glitch Art Distorsion - cc-by 5187396 (Pixabay)