[IP6] Pouvoir et libertés au pays des interfaces


Ces textes sont tirés de la troisième partie du cahier IP 6, "La Forme des choix - Données personnelles, design et frictions désirables".

partie3_vladislav-klapin-297996-unsplash_test.jpg

Le design de levier de pouvoir pour les (grandes) plateformes

 

L’efficacité des techniques de design, en termes de captation de l’attention des internautes et d’orientation de leurs comportements, conduit nécessairement à tourner le regard vers les structures qui mettent en oeuvre ces stratégies de la manière la plus frappante, au premier rang desquelles les grands industriels de la donnée.

Le design comme outil de soft power

Les choix des plateformes en termes de conception de leurs interfaces et de leurs services joue un rôle important pour la définition du champ des possibles (par les fonctionnalités disponibles ou non), des actions (qui peuvent être encouragées ou au contraire rendues plus difficiles) et in fine des préférences des utilisateurs (puisque l’on tend à privilégier ce à quoi on est habitué).

La capacité d’influence des plateformes est d’autant plus importante que leur audience est extrêmement large et fidélisée, du fait de la captivité d’une grande partie des utilisateurs sur leurs interfaces. Il ne s’agit évidemment pas d’affirmer que de cette puissance découle un usage nécessairement manipulateur des techniques, mais force est de constater que le modèle économique de ces plateformes est en général largement sous-tendu par des revenus issus du domaine publicitaire et qui reposent en partie – les services réellement offerts l’explique également - sur des techniques efficaces de rétention des internautes déjà décrites dans ce cahier.

Chaque mois, presque un tiers de l’humanité (2,27 milliards de personnes) se connecte à Facebook (pour une durée moyenne mensuelle de 18 heures et 24 minutes), et 6 milliards d’heures de vidéos sont visionnées sur YouTube. Amazon effectue plus de 5 milliards de livraison par an. Tous supports et contenus confondus, les Français ont passé en 2018 en moyenne 4 heures et 48 minutes par jour sur internet, dont presque une heure et demie sur les réseaux sociaux.

Parallèlement à l’effet direct exercé sur leurs utilisateurs, les grandes plateformes sont également en mesure de se servir de leur position centrale dans l’écosystème numérique afin de s’ériger en références incontournables pour l’ensemble de leur secteur, à travers des standards utilisés par tous.

Le cas du format kml (utilisé pour la géolocalisation) créé par Keyhole Inc., rachetée par Google en 2004, est à ce titre exemplaire tant il est devenu la norme. Le KML est désormais le format le plus utilisé par l’ensemble des outils ayant recours à la géolocalisation. Le Material Design de Google entre quant à lui dans une stratégie d’influence B2B. Sur une plateforme dédiée, et sur la base de travaux menés en grande partie en interne, l’entreprise prodigue conseils et astuces pour « soutenir des innovateurs dans [leur] domaine ». Ce projet, lancé en 2014, propose ainsi de fusionner au sein d’une charte graphique et ergonomique « les principes classiques du bon design avec les innovations de la technologie et de la science ». Il s’agit, en mettant à disposition différents outils tels que des systèmes d’icônes, ou des palettes de couleurs, de permettre le développement, selon Google, d’un « système de base unique qui harmonise les expériences utilisateur entre les plateformes et dispositifs ».

Rendus accessibles aux autres acteurs sous forme de kits directement utilisables, ces outils sont donc à-même de se muer en leviers de soft power particulièrement efficaces, puisqu’ils façonnent l’univers numérique à l’image des grandes plateformes.

Les mises en garde des repentis

Des figures de repentis de la Silicon Valley s’érigent de plus en plus en lanceurs d’alertes contre les stratégies de captation de l’attention mises en oeuvre par les entreprises. Pour eux, les technologies qu’ils ont contribué à concevoir seraient à l’origine de troubles à la fois individuels et sociaux, que les plateformes sont peu susceptibles de vouloir résoudre puisqu’elles en profitent sur le plan économique.

S’exprimant à propos de la fonctionnalité like, Chamath Palihapitiya, ancien cadre de Facebook, estime ainsi que « les boucles de rétroaction court-termistes stimulées par la dopamine que nous avons créées détruisent la façon dont notre société fonctionne ». Pour lui, la meilleure solution est l’abstinence (ce qui est sans doute peu réaliste dans la société d’aujourd’hui) car il préconise de ne plus utiliser ces services car « si vous nourrissez la bête, elle vous détruira ».

D’autres cherchent à rendre la technologie plus éthique, à l’instar du Center for Human Technology fondé par Tristan Harris, ancien employé de Google. Avec pour objectif de « réaligner la technologie avec les meilleurs intérêts de l’humanité », cette organisation cherche à sensibiliser les citoyens aux soi-disant dangers de la tech ; elle promeut un design protecteur face à nos vulnérabilités intrinsèques (biais cognitifs…) et en encourage les initiatives politiques s’orientant en ce sens. Il s’agit ainsi d’éviter l’ « érosion des piliers de notre société », à savoir « la santé mentale, la démocratie, les relations sociales et les enfants », que la « course pour la monétisation de notre attention » serait en train de compromettre.

Il faut toutefois rester prudent face aux discours des repentis de la tech, qui ne font qu’alimenter la croyance en l’omnipotence d’entreprises qu’il serait dès lors vain de tenter de réguler. Quand Jaron Lanier milite pour la déconnexion de réseaux sociaux qui feraient « ressortir les pires défauts de la nature humaine, [et] nous [rendraient] agressifs, égocentriques et fragiles », plutôt que de réellement encourager l’exode, il est possible que cela favorise au contraire l’impression d’impuissance des utilisateurs, et d’impossibilité d’encadrement de ces plateformes, pour au final les laisser s’autoréguler… La réponse du RGPD consiste au contraire à donner aux utilisateurs les moyens de contrôler l’usage qui est fait de leurs données, faisant le pari de l’innovation responsable plutôt que de l’autorégulation.

Essai-erreur (try-fail-fix) comme méthode de conception ?

Les préoccupations croissantes face aux capacités d’influence des plateformes tendent en effet à se traduire subrepticement en discours sur la toute-puissance des grandes entreprises de la tech, dont les stratégies seraient parfaitement orchestrées.

Pourtant, ce récit prométhéen, pour ne pas dire complotiste, se heurte aux réalités des modes de développement de ces services, qui, basés sur des techniques souvent expérimentales, révèlent fréquemment leur faillibilité. Il arrive que, prétendant qu’elles ne savent pas très bien ce qu’elles font ni pourquoi, les grandes plateformes se disent aussi incapables d’expliquer les raisons pour lesquelles les choses fonctionnent ou ne fonctionnent pas comme prévu… ce qui ne serait pas nécessairement plus rassurant.

Certaines décisions des plateformes, notamment celles liées à la manière de concevoir et présenter des interfaces, sont largement inspirées et influencées par les réactions des utilisateurs et leurs façons de prendre en main les outils qui leur sont proposés. Ainsi, le mur de Facebook n’était au départ qu’une fonctionnalité très limitée, il fallait aller sur la page d’un utilisateur pour visualiser son mur, ça n’est qu’en 2011 que la fonctionnalité « fil d’information » a été introduite. C’est parce que les utilisateurs ont interagi, détourné et joué avec, que le mur a évolué. De même, le fameux hashtag de Twitter a été inventé par des utilisateurs et non par l’entreprise qui s’est contentée de surfer intelligemment sur cette création. Ce développement par tâtonnements est facilité par la possibilité de mettre en oeuvre des expérimentations grandeur nature sur un large vivier de cobayes-utilisateurs. L’accès à des panels captifs a permis à Google de tester 40 nuances de bleu différentes pour ses liens hypertextes, ou encore à la plateforme de rencontres OkCupid de mesurer l’influence réelle de son « pourcentage de match » en faisant croire à des membres qu’ils étaient très compatibles alors qu’ilsn’avaient pas grand-chose en commun… (voir encadré).

Ces stratégies d’expérimentations sont symboliques de la démarche itérative qui caractérise les grandes plateformes. Gretchen Sloan, un représentant de Facebook, explique ainsi dans un article qu’il s’agit d’« une approche très commune [..] : lancer un produit/une fonctionnalité, voir comment les personnes l’utilisent, et ensuite l’améliorer sur la durée. Cela nous aide (comme d’autres entreprises autour de nous) à concevoir et mettre en oeuvre rapidement les nouvelles fonctionnalités que les gens veulent ».

Il semble toutefois peu souhaitable que la société se mue en une expérimentation de psychologie comportementale géante et à ciel ouvert au service des grandes entreprises du web, et c’est aussi pour cette raison qu’une régulation sereine et responsable est importante, car on ne peut seulement se contenter de corrections par de nouvelles itérations d’essais et (nouvelles) erreurs.

Les limites de l’autorégulation

De fait, aujourd’hui, que ce soient pour les infox (fake news) ou la gestion de l’attention, les plateformes sont présentées – ou se présentent elles-mêmes – comme l’antidote idéal pour remédier aux maux qu’elles génèrent.

Pour répondre aux critiques et aux accusations de « vol de l’attention » ou de « vol de temps », selon la formule de Tristan Harris, les plus grands acteurs du marché ont lancé en 2018 leur propre outil de gestion du temps passé sur leurs différentes applications.

Dans une forme de quantified self appliquée aux écrans, l’outil Android P de Google, propose aux utilisateurs un tableau de bord qui leur permet de voir le temps passé sur leur téléphone, le nombre de notifications reçues, la répartition du temps passé par application et leur utilisation heure par heure. La quantité de données captées est cependant absente de ce tableau de bord. L’application suggère ensuite à l’utilisateur de fixer des temps limites pour chacun des usages, associés à des alarmes à la manière d’un contrôle parental que l’on s’appliquerait à soi-même. Apple, Facebook et Instagram ont lancé des outils similaires entre juin et aout 2018. Les effets bénéfiques de ces outils seront à évaluer sur la durée, d’autant qu’une étude thaïlandaise a montré que les personnes utilisant le plus les outils d’autorégulation étaient également les plus susceptibles de présenter des comportements proches de l’addiction.

Une hypothèse crédible du point de vue économique est que ces outils sont cohérents avec leur stratégie de gardiens de l’attention puisque ces acteurs se positionnent en passage obligé pour les annonceurs, des sortes de péages pour l’accès à nos dispositifs attentionnels. Il ne faut donc pas sous-estimer l’efficacité d’un discours commercial consistant à dire aux annonceurs : « je sais quand il ne faut pas déranger l’individu car il utilise mes outils de gestion de son attention ; je suis donc le seul à pouvoir éviter à votre marque d’être associé à une irritation ».

En laissant aux plateformes le soin de réguler leurs propres défauts – dans la lignée d’une communication sur leur propre responsabilité, comme une forme d’excuse –, ces solutions opèrent en outre une forme de transfert de responsabilité des structures vers les individus. Comme le disait Antoinette Rouvroy dans l’avant-propos de notre cahier IP2, ces logiques ont tendance à faire des individus des entrepreneurs de leur bien-être, seuls responsables de leurs mauvaises habitudes, dédouanant de fait les acteurs économiques ou la société de ses responsabilités. Si vous succombez aux « hameçons » cognitifs ou émotionnels des concepteurs au point d’en subir des conséquences proches d’états addictifs pathologiques, c’est finalement un peu de votre faute. La preuve : on vous donne les outils nécessaires pour vous autoréguler !

Ainsi, le numérique est à la fois le poison et le remède selon l’analyse classique de Bernard Stiegler, et cette logique de « Pharmakon » n’a jamais été aussi explicitement intégrée aux modèles économiques. Mais en l’espèce, elle l’est dans une logique assignant essentiellement à l’individu la responsabilité de trouver les doses qui séparent l’un de l’autre, avec l'aide supposée bienveillante de béquilles du comportement produites par ceux-là mêmes qui construisent les pièges attentionnels…

 

Quand la collecte de données personnelles devient biaisée

 

Mauvais design, dark patterns et données personnelles

Lorsque les différentes techniques présentées précédemment sont mises en oeuvre dans l’objectif d’accumuler plus de données que nécessaire sur les individus, clients ou citoyens, celles-ci ne posent plus seulement de questions d’éthique et de responsabilité des services numériques face à la captation de l’attention notamment, mais elles viennent se confronter aux principes de bases du RGPD, qui donne aux individus des droits plus importants sur l’exploitation qui est faite des données qui les concernent.

Plusieurs auteurs se sont penchés sur cette question, de même que des associations de protection des consommateurs norvégiennes (voir infra.), et bien sûr la CNIL. Comment ces différents stratagèmes passent-ils le tamis auxquels sont soumis les acteurs du numérique ?

Comme nous l’avons vu précédemment, les individus sont confrontés à des biais qui peuvent être autant d’instruments, ce qu’ont bien compris certains acteurs et qui peut avoir des impacts significatifs du point de vue de la protection des données. Woodrow Harztog classe ainsi ces pratiques selon trois catégories, chacune pouvant contrevenir à la règlementation, mais à des niveaux plus ou moins importants pour les utilisateurs :

  • Design abusif : utilise les limites et les biais cognitifs des individus pour les amener à effectuer des actions sur lesquels ils n’ont pas de contrôle. Que ce soit par les dark patterns (voir infra.), des techniques de rétentions de l’attention, voire l’utilisation de jargon difficilement compréhensible, de termes vagues ou de doubles négations, autant de méthodes de prestidigitation qui auront pour conséquence d’influencer ou de manipuler les utilisateurs.
  • Design trompeur : désigne des pratiques visant à représenter des éléments de telle manière qu’ils pourraient induire l’individu en erreur. Par exemple, l’utilisation d’indicateurs de protection de la vie privée, tels que des logos spécifiques, des icônes, ou des badges sans que le service soir réellement vertueux ou sécurisé. Il désigne également la tromperie par omission, lorsqu’une application collecte certaines données sans que l’utilisateur en ait conscience.
  • Design dangereux : correspondent ici à des méthodes qui vont nous rendre vulnérables, soit directement, soit indirectement.

Une autre approche est celle mise en avant par Harry Brignull en 2010 avec le concept de dark patterns : à force de rechercher la captation de l’attention des individus d’une part, et la collecte toujours plus importante de leurs données personnelles, les plateformes et les designers d’interfaces des services numériques en sont venus à créer des modèles trompeurs pour les individus qui agissent sur des phénomènes psychologiques propres à chacun d’entre nous. Du point de vue de la protection de la vie privée, il existe plusieurs types de pièges à utilisateurs et d’abus de design, décrits dans plusieurs travaux dont ceux de Harry Brignull, d’associations norvégiennes de défense des consommateurs (dans leur rapport Deceived By Design), ou encore de Lothar Fritsch (université de Darmstadt).

À nous de proposer une typologie non exhaustive de ces pratiques, qui ont un impact direct sur la protection des données, que vous trouverez sur la page suivante.

Ces pratiques peuvent avoir des conséquences sur la capacité des individus à protéger efficacement leurs données personnelles et à effectuer des choix en conscience. En complément de politiques de confidentialité qui se doivent d’être complètes et conformes du point de vue juridique, il est important de ne pas négliger les mises en oeuvre et en scène de ces différents moments dans lesquels les designers d’interfaces cherchent à influencer les individus. On ne saurait se contenter d’une mention « photo non contractuelle », telle que ces mentions figurant sur les emballages de produits alimentaires ; l’emballage a cette fois des incidences directes sur les droits des individus et devrait être pris en compte pour juger de la conformité de l’ensemble du service : des propositions sur lesquelles nous reviendrons dans la partie suivante…

Le consentement, un libre arbitre pas si illusoire

L’avènement du RGPD et la survalorisation du consentement dans la manière dont celui-ci a été présenté ont créé l’émergence de critiques appuyées de la notion même de consentement.

Le psychologue Barry Schwartz avait notamment théorisé le paradoxe du choix (The Paradox of choice, 2004) : « alors même que l’autonomie et la liberté de choix sont des valeurs humaines essentielles, trop de choix et trop de contrôle peuvent nous submerger et nous induire en erreur ».

Helen Nissenbaum, professeure de sciences de l’information à Cornell Tech, va plus loin en pointant ce qu’elle appelle la farce du consentement qui maintiendrait les utilisateurs dans une fausse impression de contrôle : « même si vous souhaitiez créer un consentement totalement transparent, vous ne le pourriez pas ». De son point de vue, même les entreprises les mieux intentionnées ne savent pas tout ce qui se passe avec les données qu’elles collectent. S’il est vrai que le consentement n’est pas toujours éclairé, le problème de cette critique tient au fait qu’elle peut déresponsabiliser les entreprises par rapport aux données qu’elles traitent. Or le RGPD est clair : à elles de savoir comment seront utilisées les données, charge pour elles de mettre en place les moyens de protection des individus, de cartographie et de sécurisation des données ainsi que de gestion du cycle de vie des données. Donner son consentement ne revient pas à signer un chèque en blanc à une entreprise ou une organisation, mais au contraire à lui imposer certaines règles de respect des droits des individus.

Sur le lien du design des interfaces et des choix des individus, Woodrow Hartzog souligne qu’à trop faillir dans l’attention portée au design des technologies et des interfaces, nous risquons de faire porter sur les individus seuls les conséquences des choix du design. La fétichisation du contrôle est selon lui l’une des faiblesses majeures. Certaines entreprises vont ostensiblement donner à leurs utilisateurs toutes les options possibles de paramétrage afin de de pouvoir ensuite revendiquer que le design de leur interface est privacy and user friendly, l’amoncellement de choix peut nous submerger et nous distraire (de l’essentiel), le choix « devient alors une illusion d’empowerment et se mue au contraire en fardeau ». Le chercheur critique ainsi l’attention excessive portée à la manufacture du consentement, reprise par des plateformes dont les GAFAM pour qui tous les problèmes de protection de la vie privée pourraient être résolus en donnant plus de contrôle aux utilisateurs, alors que le contrôle réel ne croit pas en proportion de la multiplication des choix possibles, et alors que le consentement n’est par ailleurs pas une sorte de carte joker au sein des principes de protection des données, qui permettraient de tout faire.

Pourtant il ne s’agirait pas de jeter le consentement avec l’eau du bain, d’abord parce qu’il n’est pas la seule base légale possible pour le traitement des données, mais aussi et surtout parce que ce consentement s’effectue toujours, quoiqu’en disent Nissenbaum et Hartzog, dans un espace contraint. Le vrai risque n’est pas celui du consentement lui-même, mais serait de croire et d’appeler à un principe d’autodétermination informationnelle absolu dans lequel chacun serait maitre et surtout responsable de l’ensemble de ses agissements. Le consentement, s’il doit être libre, spécifique, éclairé et univoque (selon l’article 4 (11) du RGPD), n’en reste pas moins contraint dans son périmètre et dans les obligations légales qui lui sont associées. Certains parlent d’approximations raisonnables, ou de fiction raisonnable, on pourrait plutôt parler de périmètre cohérent de responsabilité et de contrôle par les individus. Le consentement donné par un individu ne dispense pas un fournisseur de service de respecter l’ensemble des règles par ailleurs applicables, dont notamment les règles de sécurité, de loyauté, de transparence, de limitation des finalités, ainsi que l’ensemble des droits des utilisateurs.

Le consentement libre est pour l’utilisateur une arme pour la protection de ses droits, dans la mesure où il reste juridiquement un principe opposable : on peut argumenter, débattre et statuer sur la validité de son recueil... À ce titre, le fait d’user et d’abuser de stratégie de détournement de l’attention ou de dark patterns peut aboutir à rendre le consentement non valide.

Le design pourrait apporterdes réponses à ces enjeux

Plutôt que d’être défaitiste en remettant en cause la notion même de consentement et d’invoquer l’incapacité pour les individus à agir en pleine conscience des enjeux posés par la collecte de leurs données, il conviendrait de s’intéresser à la manière dont les acteurs pourraient se saisir des solutions offertes par le design afin de, non plus cacher, obfusquer ou soustraire, mais plutôt de mettre en lumière et accompagner positivement les utilisateurs dans la compréhension du mécanisme des services numériques.

Dès 2013, le professeur de droit Ryan Calo, dans son article Against Notice Skepticism, propose que le design soit utilisé et mis en oeuvre afin de permettre d’informer d’une façon qui permette un consentement plus éclairé des individus. Les solutions et les responsabilités ne doivent selon lui pas toujours porter sur les individus : « Vous pouvez poser des affiches partout dans la ville afin de rappeler aux piétons que les véhicules électriques sont silencieux, ou alors vous pouvez demander aux constructeurs automobiles d’introduire un bruit de moteur dans leur véhicule » ; de la même manière, « vous pouvez rédiger des politiques de confidentialité complètes et très longues que peu de personnes liront, ou alors vous pouvez concevoir votre site (ou application) de telle manière que les utilisateurs puissent être sur leurs gardes au moment de la collecte de leurs données, ou alors de pouvoir démontrer la manière dont leurs données sont effectivement utilisées ». S’il ne faut pas opposer ces deux principes de manière aussi catégorique, c’est cependant aussi dans l’expérience utilisateur que doivent être diffusées les informations qui permettront à l’utilisateur d’agir en conscience et de comprendre tout en se préservant des risques de surcharge informationnelle que pourrait provoquer la tentation de la politique de confidentialité exhaustive. Si celle-ci doit toujours être présente, comme point de référence, elle devra être accompagnée par le design.

La juriste et designer Margaret Hagan, directrice du Legal Design lab à l’université de Stanford fait ce lien sur la nécessaire convergence entre le juridique et le design. Dans une interview au TTC labs de Facebook, elle précise que si la loi nait d’une expérience humaine, elle n’est pas toujours pensée en termes d’expérience, avec une attention portée à la manière dont les personnes pensent, ce qu’elles ressentent et comprennent. Selon elle, les individus souhaitent rester stratèges, comprendre les options qui leur sont présentées, et protéger leurs droits, mais trop souvent selon elle, « le système juridique produit l’effet inverse, les personnes ne sont pas en confiance et peuvent avoir la sensation de n’avoir aucun pouvoir ». C’est là où le travail du designer doit intervenir pour produire, avec le régulateur, les méthodologies qui permettront d’assurer cette plus grande confiance des utilisateurs, des travaux que la CNIL a déjà entamé et que nous décrivons dans notre partie suivante.

 

Une typologie non exhaustique de pratiques de design potentiellement trompeur

 

Nous classons ces pratiques en quatre catégories (et colonnes) du point de vue de la protection des données pour lesquelles différentes tactiques de designs peuvent être mises en oeuvre : profiter / séduire / leurrer / compliquer / interdire. Ces pratiques peuvent pour certaines rester conformes du point de vue du RGPD, mais selon le moment, la manière et les données concernées, elles peuvent soit poser des questions éthiques, soit devenir non conformes.

Pousser l'individu à accepter de partager plus que ce qui est strictement nécessaire

- CHANTAGE À LA SÉCURITÉ [PROFITER]
Demander, au moment de la connexion, des informations additionnelles à celles strictement nécessaires au service, dans des situations où les utilisateurs sont sous pression, au moment où ils viennent d’entrer ou renouveler leur mot de passe, qu’ils ont mis à jour des éléments de profils ou effectuer une commande. L’utilisateur est engagé dans un process et souhaite arriver rapidement au bout, il aura tendance à tout accepter sans prendre le temps d’analyser la requête, surtout s’il la relie à un besoin (réel) de sécurité. Par exemple, faire croire que la collecte du numéro de téléphone servira à la livraison, ou à l’authentification à deux facteurs, alors qu’en réalité elle servirait à de la prospection commerciale téléphonique.

- ÇA RESTE ENTRE NOUS [SÉDUIRE]
Demander des données additionnelles et pas strictement nécessaires à l’exécution du service avec la promesse que ces données resteront « invisibles » et sous le contrôle de l’utilisateur ou qu’elles permettront un meilleur service, par exemple lorsqu’un réseau social vous demande de compléter des informations sur votre vie passée, l’école que vous avez fréquentée ou le club de sport auquel vous étiez inscrit.

- FAUSSE CONTINUITÉ [LEURRER]
Demander à l’internaute de donner son mail afin de pouvoir lire l’article (titre) sans le prévenir assez clairement qu’il s’agit en fait d’une inscription à une newsletter (ou alors en caractères suffisamment petits pour ne pas être lus).

- AMÉLIORER L’EXPÉRIENCE [SÉDUIRE]
Utiliser l’argumentaire de personnalisation et d’amélioration de l’expérience utilisateur pour le pousser à partager plus de données.

- PARTAGE PAR DÉFAUT [PROFITER]
Pré-cocher des options de partage d’information, qui ne seront pas toujours décochées lors de l’inscription ;

Influencer le consentement

- QUESTION PIÈGE [LEURRER]
Rédiger une question de telle manière qu’une lecture rapide ou peu attentive peut vous conduire à croire que l’option de réponse produit l’inverse de ce que vous pensez accomplir. Par exemple, un usage de double négation peut conduire à accepter un refus… Par exemple, le bouton accepter est sous-titré « Oui, envoyez moi le programme alimentaire », quand le bouton refuser dit « Non merci, je n’apprécie pas la délicieuse nourriture ».

- CONSENTEMENT DE DERNIÈRE MINUTE [PROFITER]
Demander le consentement pour la collecte de données à un moment spécifique où l’on sait que  l’individu est en situation de faiblesse, car pressé ou impatient de terminer. Par exemple intégrer un opt-in de prospection commerciale partenaires dans les ultimes étapes de validation d’une commande…

- DÉTOURNEMENT D’ATTENTION [PROFITER]
Attirer l’attention vers un point du site ou de l’écran afin de vous distraire d’autres points qui auraient pu vous être utiles. Par exemple, travailler sur la couleur d’un bouton « continuer » en laissant en petit et en gris le « en savoir plus » ou « paramétrer ».

- OBFUSCATION DE COMPARAISON [COMPLIQUER]
Rendre toute comparaison difficile : entre un service et un autre, ou lors de changement dans les  paramètres ou les règles. Par exemple, changer les formulations sur des paramètres de confidentialité /publicité de contenu sur un média social pour que l’utilisateur n’adopte pas facilement une routine permanente de réduction du périmètre de visibilité de ces publications.

- FAUX SIGNAL [LEURRER]
Utiliser un code graphique compris « universellement » dans un sens contraire créant une confusion chez l’utilisateur sur le choix qu’il fait. Par exemple, ajouter un cadenas sur une interface pas spécialement sécurisée.

Créer de la friction aux actions de protection des données

- CULPABILISER L’INDIVIDU [PROFITER]
Faire culpabiliser l’utilisateur pour ses choix, par les mots utilisés. Cet exemple se retrouve très souvent par exemple pour les médias dont le modèle économique repose essentiellement sur la publicité lorsqu’un utilisateur refuse le tracking publicitaire ou utilise un bloqueur de publicité.

- MUR INFRANCHISSABLE [INTERDIRE]
Bloquer l’accès à un service par un mur de cookie ou de création de compte alors que cela n’est pas nécessaire pour l’utilisation du service en tant que tel (aussi appelé take it or leave it). Aucune alternative sans tracking n’est disponible.

- RENDRE FASTIDIEUX LE RÉGLAGE DES PARAMÈTRES DE CONFIDENTIALITÉ [COMPLIQUER]
Faciliter le consentement par une action simple, et rendre le process de protection des données plus long et complexe. Par exemple, permettre une continuité simple pour tout accepter en opt in (un bouton « continuer ») alors que les options plus fines et les réglages impliquent un chemin alternatif, sinueux, fait de « en savoir plus » et de barres de défilement.

- INCITATION RÉPÉTITIVE [COMPLIQUER]
Insérer des incitations, au cours de l’expérience utilisateur, de demande de partage de données s’immiscent dans le parcours de façon récurrente.

- OBFUSQUER LES RÉGLAGES [COMPLIQUER]
Créer une processus délibérément long et fastidieux pour atteindre les réglages les plus fins, ou les rendre tellement fins et compliqués qu’ils vont inciter l’utilisateur à abandonner avant d’avoir atteint son objectif initial.

Dérouter l'individu

- APPÂTER ET CHANGER [LEURRER]
Un paramètre ou un choix effectué par l’individu produit un autre résultat que celui désiré. Par exemple, donner valeur d’acceptation à un bouton avec une croix, qui dans l’esprit des utilisateurs est synonyme de « fermer et passer à autre chose ». Cette méthode a par exemple été utilisée par Microsoft pour « inciter » les utilisateurs de version précédente de son système d’exploitation Windows de passer à Windows 10. Devant les réactions publiques, Microsoft a reconnu avoir commis une erreur et fait machine arrière36.

- STRATÉGIE DU CAMÉLÉON [LEURRER]
Un service tiers endosse le style et le visuel du site sur lequel vous naviguer pour faire croire à une continuité naturelle dans un processus. Par exemple, un service s’ajoute à un onboarding ou un processus d’achat de commande de billet de train pour enchainer une location de voiture auprès d’un partenaire commercial. On trouve aussi ces stratégies pour l’installation de logiciels…

- PUBLICITÉ CAMOUFLÉE [LEURRER]
La publicité est déguisée en un autre contenu ou élément de l’interface, dans l’espoir que l’utilisateur clique dessus sans savoir qu’il s’agit d’une publicité.


Illustration : 
Image modifiée de Vladislav Klapin - Unsplash