Amurabi, legal design agency

LEs biais cognitifs

Comprendre et identifier les biais cognitifs

Notre cerveau est une vraie machine à prendre des décisions, de la plus simple à la plus complexe. En particulier notre cortex préfrontal, tout à l’avant de notre cerveau. D’après Kahneman, deux systèmes de pensée seraient impliqués dans la prise de décision:

  • Le système 1 : très rapide, il repose sur des approximations, est peu précis mais est plutôt “économique” pour notre cerveau. Il nécessite peu de ressources et nous permet de prendre des décisions rapidement.

  • Le système 2 : celui qui analyse, lent, précis. Il nécessite des efforts cognitifs mais nous permet de prendre des décisions réfléchies et rationnelles.

De nos jours, un troisième système est souvent cité : le système d’inhibition qui permet d’interrompre le système 1 -automatique – pour activer le système 2 et atteindre des décisions raisonnées.

A l’origine

Daniel Kahneman, Prix Nobel d’économie en 2002, a commencé à travailler sur le sujet dans les années 70 avec Amos Tversky pour essayer de comprendre comment on arrivait à prendre des décisions irrationnelles dans le domaine économique. Depuis, les résultats de leurs travaux s’étendent à de nombreux domaines. Notamment la connaissance des biais cognitifs qui amène à comprendre et prévoir les comportements des individus, parfois exploités contre l’intérêt des utilisateurs (c.f. Dark Patterns).

Qu’est ce qu’un biais cognitif ?

Un biais cognitif est comme un « raccourci mental », un schéma de pensée automatique, qui se base sur des informations incomplètes, non rationnelles, ou faussées.

Dans certains cas, les biais cognitifs (ou heuristiques) nous aident. Liés au Système 1, ils nous permettent d’émettre des jugements ou de prendre des décisions rapidement et en utilisant peu de ressources pour notre cerveau.

Ils sont particulièrement impliqués dans quatre situations:
quand il y a trop d’informations : on utilise ces raccourcis pour filtrer en masse

  • Quand nous devons sélectionner ce dont on a besoin de se souvenir : la mémoire étant limitée, on doit s’en tenir au strict nécessaire
  • Quand il faut agir vite : nous sautons directement aux conclusions sans une analyse fine
  • Quand il manque des informations : on remplit les trous pour combler notre besoin d’avoir du sens

Liste des biais cognitifs

Nous avons tendance à nous fier fortement au premier élément d’information qui nous est donné pour prendre une décision.
Par exemple, si un article bon marché est placé à côté d’un article plus cher, l’article bon marché semble plus abordable. Un autre exemple a été rapporté dans une étude récente. Des images de selfies, de plus en plus inappropriées, étaient montrées aux participants. Plus les participants avaient été exposés aux selfies inappropriés, plus ils étaient enclins à divulguer des informations personnelles. Les images avaient ancré leur perception de ce qui était approprié de divulguer ou non.

Aussi appelé “l’effet par défaut”, il décrit notre préférence à laisser les choses telles qu’elles sont plutôt que de les changer. C’est le biais qui nous pousse à nous en tenir aux paramètres par défaut plutôt que de les modifier.
Par exemple, il a été montré que l’option “par défaut » est plus souvent choisie quand elle est identifiée comme telle que quand ce n’est pas le cas.
Ce biais est lié à notre peur de perdre quelque chose en changeant la situation. S’en tenir au statu quo évite le risque d’entraîner des pertes, et donc nous préférons l’inaction.
Cependant, les options présélectionnées ne sont pas toujours les moins risquées, par exemple pour des formulaires de confidentialité dont les choix par défaut nuisent à notre protection.

Le biais de cadrage intervient lorsqu’une information est présentée de manière sélective. C’est-à-dire en mettant en avant les conséquences positives d’une action et en omettant les risques qu’elle comporte.
Des informations similaires peuvent être plus ou moins choisies selon les caractéristiques mises en avant. Par exemple, demander à un utilisateur d’utiliser un service de reconnaissance faciale va être davantage choisi lorsque les avantages sont soulignés en omettant les implications en matière de protection de la vie privée. Les décisions sont donc influencées par la manière dont les informations sont présentées.

C’est la tendance à surestimer les conséquences immédiates d’une décision, tout en sous estimant les conséquences à long terme.
Par exemple, nous choisissons davantage une récompense immédiate plutôt qu’une récompense plus importante que l’on pourrait recevoir dans le futur. Nous mettons dans la balance le fait que les actions à long terme sont incertaines, et donc comportent un risque par rapport aux actions immédiates. Cette difficulté à évaluer l’avenir est appelée « myopie temporelle ». Dans une étude, on a constaté que les gens préféraient acheter un ticket de cinéma moins cher, quitte à divulguer davantage de données personnelles plutôt que de payer un ticket plus cher. Leur choix était différent lorsque les tickets étaient proposés au même prix.

C’est le fait de sous-estimer la probabilité que quelque chose puisse nous arriver par rapport aux autres.
On a tendance à surestimer nos chances d’expériences positives par rapport aux expériences négatives qui pourraient arriver à d’autres personnes.
Dans le contexte des données personnelles, un utilisateur pensera donc qu’il est moins enclin à être exposé à une atteinte à sa vie privée contrairement aux autres. Cela influence donc ses décisions en matière de partage.

Lorsqu’un grand nombre de choix nous est proposé, on est comme submergé. Plus le nombre de choix proposé est grand, plus la prise de décision sera lente, moins satisfaisante, et regrettée par la suite.
C’est par exemple ce qui se passe lorsqu’il y a un grand nombre de choix pour configurer leurs paramètres de confidentialité, l’utilisateur sera dépassé et ses jugements en seront influencés.

C’est la tendance à adopter des croyances ou des comportements parce que d’autres personnes les ont adoptées. En résumé, faire quelque chose parce que les autres le font.
Cela peut nous aider dans certains cas, car ça évite le long et coûteux processus d’évaluation qui va nous amener à prendre une décision. Ce biais s’appuie aussi sur notre peur d’être exclu d’un groupe et notre appétence sociale.
Dans un cas où les autres personnes auront des attitudes négligentes, par exemple en matière de protection de la vie privée sur les réseaux sociaux, ces comportements auront tendance à être reproduits et les risques seront favorisés.

C’est le fait de choisir l’option la plus saillante. La représentation graphique des éléments va impacter nos processus attentionnels et par la suite nos décisions. Nous avons tendance à nous concentrer sur les éléments ou les informations qui sont plus remarquables que les autres.
En application, un choix peut être plus mis en avant qu’un autre et biaiser notre prise de décision. Ou au contraire, deux options peuvent être présentées de manière égale, alors qu’elles sont en réalité différentes. C’est le cas par exemple sur les journaux en ligne, quand les articles sponsorisés sont présentés visuellement de la même manière que les articles du journal. Cela peut amener à tromper le jugement de l’utilisateur.

Ce biais est une caractéristique majeure qui va expliquer les comportements humains lors de la prise de décision. C’est le fait de préférer éviter des pertes, plutôt que de gagner des gains équivalents.
La douleur de la perte est ressentie de manière plus intense que le plaisir équivalent du gain. Pour des enjeux modérés, on serait deux fois plus sensibles à la perte qu’à un gain de même valeur. Cela peut comporter certains risques pour les utilisateurs. Par exemple, dans le contexte des ‘essais gratuits’, le biais d’aversion à la perte nous rendra plus sujets à accepter de payer pour éviter de perdre l’accès à un service ou un produit.

Ce biais consiste à être fixé sur la manière dont un objet est normalement utilisé.
Cela nous limite sur la possibilité d’utiliser l’objet ou un symbole d’une autre manière. Cela peut nous affecter lorsqu’un objet ou un symbole est détourné.
Par exemple, lorsqu’un symbole de cadenas est utilisé devant une option, l’utilisateur aura tendance à penser que cette option est la plus sûre. Il s’abstrait alors de toute évaluation rationnelle ou de sa pensée critique et ses décisions sont impactées.

La biais d’auto cohérence, aussi appelé biais de retenue, est la tendance à surestimer sa capacité à contrôler ses comportements impulsifs.
Nous pensons être capables d’éviter un comportement, mais nous échouons après y avoir été exposés. Nos émotions et nos états affectifs impactent fortement notre jugement et nos prises de décision. Or, en général, nous sommes incapables de prédire nos états affectifs futurs. Le biais de retenue peut entraîner d’importants risques (par exemple dans le domaine des addictions). Il est aussi impliqué par exemple lorsque l’on tente de résister à une action, mais qu’on y cède après une exposition répétée à des pressions (ex. pop-ups intempestives).

Quels sont les risques
des biais cognitifs ?

Le principal risque est que les biais sont systématiques donc prévisibles, donc manipulables. Il peut donc être tentant pour les entreprises de jouer sur nos biais cognitifs pour influencer nos décisions d’achat ou en matière de vie privée, plutôt que de nous convaincre de la qualité de leurs produits ou services. Cela se traduit notamment par des dark patterns ou « deceptive patterns », des interfaces qui trompent ou manipulent les utilisateurs. Notre Lab de R&D s’est saisi du problème en 2021 et nous avons développé une plateforme de lutte contre les Dark Patterns.