Le « Cycle de hype » et les enjeux de protection de la vie privée

Rédigé par Régis Chatellier

 - 

09 septembre 2016


La livraison 2016 du « Cycle de hype » par l’institut Gartner liste les sujets à fort enjeux stratégiques pour l’innovation et les nouvelles technologies. Comment lire cette courbe sous le prisme du respect de la vie privée et des libertés ?

Hype Cycle

Depuis 2005, l’Institut Gartner publie chaque année une version actualisée du « cycle de hype », un mode de représentation proposant de visualiser la place des innovations dans le cycle de vie des nouvelles technologies.

 

Qu’est-ce que le Cycle de Hype ?

 

Hype Cycle By NeedCokeNowOlga Tarkovskiy.

 

Ce cycle se décompose en 5 parties :

  • Percée de de la technologie : émergence sur le marché et premières applications concrètes.
  • Pics des espérances exagérées : le moment où la technologie envahit les médias et les esprits, les start-ups s’en emparent pour chacune « révolutionner » un segment de marché.
  • Gouffre des désillusions : lorsque la bulle éclate, les trop grandes attentes sont déçues et les médias se détournent du sujet.
  • Pente des clarifications : une phase de pré-maturité où, le vent médiatique passé, les applications concrètes commencent à être développées, un marché se construit.
  • Plateau de productivité : la technologie trouve sa place et son marché.

Cette courbe n’est pas un outil scientifique mais plutôt une représentation du chemin d’adoption des technologies. Le Hype Cycle tient davantage de la stratégie médiatique et commerciale de l’agence qui la produit, il n’en reste pas moins une cartographie intéressante à suivre dès lors qu’on l’analyse sous le prisme « Informatiques et libertés ».
 

34 technologies à enjeux stratégiques, presque autant à enjeux « privacy »

La dernière livraison du Cycle publiée en août 2016 a été largement diffusée et partagée dans les médias. Le site Aruco propose notamment une très bonne description en français de chacune des 34 technologies que Gartner considère « à fort enjeu stratégique ».

 

Hype Cycle By Gartner 2016

 

Réalité augmentée

La réalité augmentée, que Gartner positionne au fond du gouffre des désillusions, a pourtant vécu un été chargé grâce au succès mondial de Pokémon Go. Cette technologie qui consiste à superposer des modèles virtuels 2D ou 3D à la perception que nous avons de la réalité, le plus souvent au travers de la caméra de notre smartphone, requiert a minima pour fonctionner la position géographique de l’appareil. Dans le cas de Pokemon Go, nous relèvions dès juillet 2016 qu'elle aura été le moyen pour les éditeurs du jeu de récolter beaucoup plus de données personnelles de ses utilisateurs que la seule fonction de RA ne le nécessite. Si le jeu a déjà perdu 10 millions d’utilisateurs après seulement un mois d’existence, certains dont Olivier Ertzscheid prédisent que d’ici 25 ans, la réalité augmentée fera partie de notre quotidien. Il convient ainsi de prendre gare à ce que la RA ne soit pas le cheval de Troie par lequel les utilisateurs se voient contraints, consciemment ou inconsciemment, à ouvrir des flux de leurs données personnelles vers les serveurs des éditeurs de jeux, comme nous l’avions démontré dans notre projet Mobilitics.

 

Assistants à commande vocale de questions/réponses

Très à la mode il y a quelques années, les applications comme Siri (chez Apple), Google Now, ou Alexa (Amazon) tombent lentement vers le gouffre des désillusions. Elles n’en demeurent pas moins des aspirateurs à données si celles-ci ne sont pas correctement configurées. Nous évoquions le sujet dès 2013 dans le cahier IP, Vie privée à l’horizon 2020 (p.22), avec l’exemple de Google Now, qui pour prédire vos « besoins » vous demande de vous géolocaliser en permanence, voire enregistre vos paroles. 

 

Véhicules autonomes

Les véhicules autonomes sont au plus haut de la « Courbe de la Hype ». Quel que soit l’avenir de ces promesses, le véhicule bientôt autonome et déjà connecté ne se meut que grâce à la collecte et l’analyse d’un large spectre de données, parmi lesquelles de nombreuses données personnelles. Nous publiions en juin 2016 un dossier consacré à ce véhicule, porteur d’enjeux autour des données personnelles. Le décès au mois de juin 2016 du conducteur d’un véhicule Tesla dont le mode pilotage automatique était enclenché avait révélé au grand public le dilemme éthique posé par la voiture autonome, que fera l’algorithme lorsqu’il sera confronté au choix entre tuer dix piétons, et tuer le conducteur du véhicule ? Au-delà, les conducteurs sont amenés à ne devenir que de simples usagers de ce qui sera devenu, selon la chercheuse Freyja van den Boom, une "seconde maison mobile […] où les gens mangent, dorment et se divertissent. Si nous commençons à considérer notre voiture autonome comme une maison, cela sera acccompagné d’une attente en termes de privacy”. Parmi, les enjeux repérés par Joshua Schoonmaker, on retrouve la sécurité des données (le véhicule, à l’inverse du smartphone, n’est pas un objet de l’intime, il peut être accessible à d’autres personnes que son propriétaire), la limitation à une collecte raisonnable de données, les politiques de conservation et d’effacement de données, l’exactitude des données, et la transparence envers les consommateurs concernant le traitement de leurs données.

 

Machine Learning

Utilisé dans de nombreux champs d’application, l’une des promesses du Machine Learning (apprentissage automatique), consistant à alimenter des algorithmes prédictifs, reste un champ dans lequel la protection des libertés est en jeu. Ces algorithmes, pour se développer, nécessitent d’accumuler et d’analyser des stocks de données toujours plus importants, parmi celles-ci des données personnelles dont la finalité n’est pas toujours précisée aux personnes concernées, c’est là l’un des enjeux Informatique et Libertés soulevés par ces nouvelles technologies liées au big data. En parallèle, se pose également des questions éthiques : de nombreux chercheurs et critiques de ces algorithmes prédictifs craignent le développement de  véritables « machines à biais », notamment dans le champ de la sécurité, où les algorithmes pourraient reprendre les préjugés pour mieux stigmatiser, à l’image des résultats constatés sur les logiciels de préventions des risques de récidive testés aux Etats-Unis. L’article 10 de la loi informatique et libertés prohibe toute décision produisant des effets juridiques, prise à l’égard d’une personne sur le seul fondement d’un traitement destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité, or, le risque pour Antoinette Rouvroy est de créer une forme de comportementalisme numérique, de classifier les personnes sans plus avoir à les faire comparaître ou les entendre.

 

Maison connectée

La maison connectée se positionne selon Gartner sur le haut de la vague de la « hype », les entreprises se pressant pour proposer des nouveaux produits et services dans ce secteur. Pourtant, la maison intelligente et la domotique ont déjà hanté les rêves des innovateurs depuis près d’un demi-siècle. Cette fois sera peut-être la bonne, des applications concrètes investissent la maison, depuis le compteur communicant Linky - pour lequel la CNIL a examiné les conditions de stockage local des données expliqué comment devait être mis en place le stockage des données - au thermostat Nest (racheté par Google), en passant par la télévision connectée et les différents capteurs que chacun peut installer. Chacun de ces objets capte et stocke des données pour un usage et une finalité donnée. Cependant, différents acteurs tentent de devenir   la « plateforme de l’Internet des objets » (autre enjeu pointé par Gartner) dédiée à la maison connectée. Google (Alphabet), avec Nest lançait en octobre 2015 sa plateforme d’interconnexion « Nest Weave », ainsi que des partenariats avec des industriels « non technologiques », assurant que « les développeurs pourront faire parler, les serrures, les ampoules etc.  [Mais qu’en] revanche, personne n'aura accès aux données des utilisateurs ». En parallèle, Samsung voit sa télévision connectée comme le nœud de tous les échanges de données, des tv déjà très friandes de données personnelles… Même Apple se lancerait sur ce marché, Tim Cook annonçait lors de son keynote 2016 que l'iPhone 7 pourrait bientôt faire tourner Home Kit, un logiciel de reconnaissance vocale basé sur Siri, pour gérer tous les objets connectés de la maison. La collecte et la centralisation de données personnelles liées aux objets de la maison – lieu de l’intime par excellence - est à n’en pas douter l’un des enjeux à surveiller pour la protection de la vie privée.

 

Drones à usage professionnel

Depuis longtemps dans le radar du pôle innovation et prospective de la CNIL, nous avions publié une Lettre IP « Drones, innovations, vie privée et libertés individuelles » (pdf) en décembre 2013. Ces objets volants connectés sont de véritables « plateformes de capteurs ». Ces objets volants sont sortis du cadre militaire et de loisirs pour être utilisés dans le cadre professionnel, par exemple pour la prise de vue ou la livraison d’objets. De nombreux scénarios, décrits dans l’article « Les drones, symboles des imaginaires d'un monde robotisé », montrent à quel point l’enjeu de la protection des données personnelles sera crucial dans ce secteur.

 

Analytique personnelle

A la suite du quantified self, que nous avions étudié dans notre cahier IP2, « Le corps connecté » (pdf), l’analytique personnelle envisage le partage des données personnelles (fréquence cardiaque, tension, poids, trajets à pied ou à vélo, etc.), associées à des données issues de capteurs extérieurs (météo, pollution, etc.) afin de se prendre en main et d’adapter ses comportements, voire de les partager avec des tierces personnes. Ces pratiques  posent la question du statut de ces données et de leur caractère sensible selon qu’elles soient collectées et utilisées dans le cadre médical, elles peuvent entrer alors dans le cadre de traitements de données relatives à la santé. Nous imaginions dans le cahier IP 2 un scénario prospectif dans lequel Léa, salariée, voyait son entreprise prendre la main sur sa vie personnelle, 24h sur 24, dans le but d’améliorer ses performances professionnelles… Le partage de données sensibles comme la prise de contrôle par un tiers pose alors des questions de libertés des individus, en l’occurrence vis-à-vis de leurs employeurs qui peuvent alors s’immiscer dans la vie privée de leurs employés.

 

Courtiers en données personnelles

Les courtiers en données personnelles, ou Data brokers Paas, sont devenus en quelques années des poids lourds du numérique. Les quatre entreprises leaders du marché mondial affichent des chiffres d’affaires supérieurs au milliard de dollars, presque 5 milliards pour la plus importante. Ces entreprises captent des données personnelles auprès d’entreprises, souvent des grands comptes, ou des start-ups qui disséminent des cookies, d’où l’intérêt de s’en protéger. Ces courtiers les dissèquent, les analysent puis les agrègent pour ensuite les revendre sous forme de segments marketing très fins à des annonceurs en quête de futurs clients - lire Le business secret des data-brokers -. Les data-brokers jouent le plus souvent avec la notion de consentement pour flirter avec les limites de la loi, dont le caractère éclairé s’assombrit avec la longueur des CGU. En 2013, le sénateur Jay Rockefeller – à la tête de la commission du commerce du Sénat américain –, estimait que "la NSA porte moins atteinte à la vie privée des gens que ces groupes de data-brokers". C’est là l’un des enjeux majeurs lié à l’entrée en vigueur du Règlement européen, avec l’harmonisation des règles relatives au consentement, dont la demande doit être « présentée […] sous une forme compréhensible et aisément accessible, et formulée en des termes clairs et simples. » Cette question du consentement ne peut plus être résolue par la seule « case à cocher » dont les conséquences sont noyées dans les conditions d’utilisation. Comme nous l’indiquions dans l’article Comment les technologies nous influencent – et pourquoi les neurosciences sont utiles ?, le design des interfaces peut « influencer les actions des utilisateurs en les incitant par exemple à fournir toujours plus d’informations personnelles – parfois plus qu'ils ne le souhaiteraient réellement » ; il pourrait à l’inverse permettre d’éclairer le consentement. L’enjeu réside maintenant dans la capacité à dynamiser ce consentement par des actions au cas par cas, selon les objectifs et les finalités.

 

Robots intelligents

Les robots, en tant que machines autonomes, sont complètement dépendants de leur capacité à accumuler et traiter des données. Comme nous le signalions dans l’article « quelles libertés dans un monde robotisé ? »,  ceci « révèle un paradoxe éthique fondamental dans le domaine de la protection des données : pour être plus autonome, une machine doit être en réalité plus dépendante aux données personnelles. » Et plus ces robots tendrons vers l’intelligence artificielle, plus ils nous demanderont de partager notre vie privée avec eux.

 

Au même titre que le machine learning, l’intelligence artificielle, les véhicules autonomes et les algorithmes prédictifs, la robotisation de la société porte en elle la remise en cause des libertés dans nos sociétés, laisser la main à des machines programmées par d’autres revient à renoncer au libre-arbitrage pour se conformer aux décisions « magiques » des algorithmes. En ce sens, la transparence des algorithmes constitue un des véritables enjeux à court et moyen terme, afin que chacun puisse garder une part de contrôle sur la collecte et l’usage de ses propres données, et veiller à préserver ses libertés d’autre part.

 

 


Illustration : principale Flickr – cc-by Céline Nadeau

Hype Cycle - CC BY SA By NeedCokeNowOlga Tarkovskiy, via Wikimedia Commons
Hype Cycle Gartner 2016, copyright Institut Gartner


Régis Chatellier
Article rédigé par Régis Chatellier, Chargé des études prospectives