Dark patterns, sortir de l’impasse

Credit : Burst

Qui ne s’est pas déjà senti happé alors qu’il naviguait sur internet, jusqu’à souscrire à des services ou conclure un achat dont il n’avait même pas idée avant de se connecter ? Dès 2010, Harry Brignull, spécialiste du design d’interfaces, expliquait ce phénomène par le néologisme de « dark patterns » — traduit en français par « interface truquée ». Aujourd’hui, le terme prend une toute autre signification : il est devenu impossible d’utiliser son smartphone sans être en permanence influencé par des mécanismes faisant appel à notre inconscient. Retour en exemples sur le mal des internets.

 

Un dark pattern se définit comme la conception d’une interface ayant recours aux mécanismes inconscients de l’utilisateur pour influencer sa navigation sur une interface numérique. Que ce soit pour nous faire passer plus de temps sur certaines plateformes, nous faire malencontreusement cliquer sur une publicité ou souscrire à une abonnement, le « truquage » est partout.

Parmi ces sournoiseries, on trouve des ficelles bien connues comme les « coûts cachés » : quand vous accédez à la dernière étape du processus, vous découvrez subitement des coûts inattendus qui n’avaient jamais été mentionnés. On trouve aussi des manipulations plus perverses, faisant appel à nos émotions, comme « la confirmation ou la honte », où l’art de faire culpabiliser l’utilisateur pour lui faire accepter une souscription, en présentant le refus de la souscription sur un ton péjoratif. La liste des réjouissances est d’ailleurs répertoriée sur le site du même Harry Brignull, notre lanceur d’alerte sur le sujet qui invite les internautes à épingler eux-mêmes les tromperies qu’ils identifient.

 

L’erreur de calcul des product designers

Au nom de la récolte de données personnelles, d’un panier moyen plus généreux, d’un meilleur taux de clic ou d’un trafic gonflé ; chaque jour, nombreux sont les utilisateurs « pris au piège ». Des trucages d’abord lucratifs, qui sont pourtant de mauvais calculs à long terme selon Renaud El Ghozi, head of product chez Meetic qui prenait cette semaine la parole lors d’un meetup organisé par La Product Conf sur le sujet : « Il faut se demander si l’objectif, le KPI auquel répond la fonctionnalité que vous concevez bénéficie vraiment à vos utilisateurs, sinon ils le remarqueront et vous allez les perdre ». Pour le dire vite, une interface trop piégeuse peut être très rentable, mais détériore l’image du service aux yeux de ses clients. Car la tentation est grande, et les conséquences fortes : « Quand vous avez mis une dark pattern, il est très dur de revenir en arrière » ajoute Renaud El Ghozi. Il explique avoir lui-même du faire le ménage sur des dark patterns qui avaient été mises en place il y a plusieurs années chez Meetic et qui rendaient compliqué le désabonnement de ses membres. Un « combat » contre des choix de conception lucratifs mais douteux, qui peut s’avérer compliqué si la culture de l’entreprise ne permet pas cette forme d’éthique. Il conseille donc à ses homologues une précaution minimaliste : « Il faut se poser ces questions dès le départ et construire en priorité un service très pur, très neutre. » 

 

Cinquante nuances de dark patterns

Là où ces dark patterns sont perverses, c’est qu’elles sont aujourd’hui complètement fondues dans nos interfaces. Selon les termes de la définition, tout ce qui a été pensé pour nous faire passer du temps à consommer du contenu et à interagir sur des interfaces numériques sont considérées comme des dark patterns. Un périmètre qui touche donc de manière très large l’écosystème de services numériques dans lequel nous baignons.

Car si les premières « interfaces truquées » nous incitaient à payer pour des services qu’on ne demandaient pas, au moins l’objectif était clair et on pouvait s’indigner facilement de ces maladroites arnaques. Aujourd’hui, l’objectif des plateformes du numérique n’est plus de nous inciter à l’achat, mais bien de nous inciter à l’interaction. Selon l’analyse qu’en fait le chercheur en sciences de l’information et de la communication Olivier Ertzscheid, la visée de Facebook est de « savoir comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas ». A coups de notifications push aux couleurs flash, de contenus sensationnels et d’injonction à l’interaction, le réseau social est connu pour titiller nos instincts les plus primaires. Pourtant, nous avons perdu les moyens de nous en indigner, car cette influence s’exerce de façon continue et ne vise plus des actions finies. Facebook serait-il en lui-même une dark pattern ?

 

Morale provisoire

Si notre conscience de ces risques s’est accrue avec la pédagogie autour du Règlement général pour la protection des données (RGPD) entré en vigueur en mai, le chemin à parcourir reste long et le débat a rejoint l’ensemble des problématiques liées au « design éthique » des acteurs du numérique.

La responsabilité repose encore sur les épaules de ceux qui font les produits technologiques de demain. Une prise de conscience à laquelle appelle le spécialiste du produit, Renaud El Ghozi : « Seriez-vous prêts à prendre le micro pour expliquer à tout le monde dont votre famille cette fonctionnalité que vous venez d’ajouter ? Si la réponse est non, vous devriez peut être y renoncer. »


Si chaque concepteur peut se poser les « bonnes questions », il n’en est pas moins que cette morale individuelle est largement insuffisante quand c’est la fuite en avant technique qu’il nous faut questionner. Car l
a notion de dark pattern évolue avec nos connaissances neuroscientifiques : mieux nous maîtrisons ce qui fait agir et réagir l’humain, plus nous concevons les fonctionnalités virtuelles qui permettent de les influencer. Les tests se font ensuite grandeur nature grâce au milliard et demi d’humains qui répond quotidiennement à ces fonctionnalités. Comment sortir de ce paradigme implacable ? Les concepteurs des produits technologiques doivent prendre conscience de leur responsabilité et engager les débats.