Le guide ultime pour comprendre notre cerveau et nos biais mentaux.

Pourquoi s’intéresser à nos biais mentaux ?

→ Pour être conscient de nos failles.
→ Pour comprendre quels mécanismes nous poussent à croire des fake news.
→ Pour être capable de déjouer les pièges de notre cerveau.
→ Pour être capable de prendre de meilleures décisions

Ce qu’il y a de fascinant là dedans ? Personne n’échappe à ces biais.

Le fonctionnement de notre cerveau, et tout particulièrement la manière dont nous prenons nos décisions et dont nos impressions se forment est un sujet passionnant, qui nous concerne tous.

“Le monde a beaucoup moins de sens qu’on ne le croit. La cohérence vient de la manière dont nous pensons.” 
— Daniel Kahneman.

J’ai voulu faire un papier qui retraçait les différentes lectures que j’ai pu faire, allant de Nassim Nicholas Taleb à Idriss Aberkane, en passant par Malcolm Gladwell ou encore Daniel Kahneman et notamment son livre référence sur le sujet : “Thinking, Fast and Slow”.

Disclaimer : Je ne suis pas un expert, ce texte est simplement une compilation des nombreuses choses que j’ai pu lire sur le sujet. 
Il s’agit d’un article plutôt long. Prenez donc une petite tasse de tisane, ça peut valoir le coup.

Système 1 / Système 2

Notre cerveau peut se diviser en deux grandes parties, Daniel Kahneman les appelle Système 1 et Système 2.

Système 1 : Il s’agit de la partie de notre cerveau qui opère automatiquement et immédiatement, sans effort ni contrôle particulier de notre part. Si je vous dis 2x3, la réponse vous vient instantanément, sans réfléchir.

Le Système 1 est sensible à des biais, est constamment en fonctionnement (il ne peut pas être « éteint »), peut être facilement trompé par les impressions et prend le contrôle en situation d’urgence pour des questions d’auto-défense. C’est notre système 1 qui nous pousse à fuir immédiatement lorsque l’on fait face à un danger.

Système 2 : Notre système 2 entre en action lorsque l’on alloue volontairement un effort mental à une tâche, un choix ou un problème. Si je vous dis 17x24, vous allez devoir prendre le temps de réfléchir pour y répondre. C’est d’ici que vient l’expression anglaise « pay attention » : nous avons un budget d’attention et de concentration limité, que nous devons soigneusement alloué.

Lorsque nous devons faire un choix entre une tâche qui demande de la concentration et des efforts (notre Système 2) et une tâche plus légère et tentante (notre Système 1), la tentation à tendance à prendre le dessus. C’est pour cela qu’on préfère regarder la télé ou trainer sur notre smartphone plutôt que de lire un livre. Notre cerveau est avant tout gouverné par la paresse.

Confirmation Bias

L’un des biais qui nous affecte le plus dans nos croyances et pensées est le « confirmation bias ».

Quand on pense que quelque chose est vrai, on a tendance à ne croire et à ne voir uniquement les arguments qui vont dans notre sens. Même si ces arguments sont totalement absurdes, faux et ne reposent sur aucune preuve factuelle.

Lorsque l’on est sujet à ce biais, nous nous rappelons uniquement des informations qui confirment ce que nous pensons, oubliant inconsciemment celles qui vont à l’encontre de nos théories, et les interprétons de manière biaisée. Comme si l’on tirait la réalité vers soi, et qu’on l’adaptait en fonction des cases et idées préconçues que nous nous faisons.

99% des scientifiques s’accordent sur l’urgence et le problème que représente le réchauffement climatique. Cependant, les climato-sceptiques ne voient et ne croient uniquement les arguments des 1% des scientifiques restant, qui vont dans leur sens.

Priming Effect

Sans le réaliser, nous sommes influencés par notre environnement direct et tout ce qui nous entoure : la rue dans laquelle nous vivons, l’éducation que nous avons reçue, le journal que nous lisons le matin, nos fréquentations ect.

Nous sommes sujets au « Priming effect » lorsque l’on nous met en avant une représentation ou un fait, dans le but que celui-ci déclenche une réaction particulière dans notre cerveau.

Rappeler aux gens leur mortalité, en parlant par exemple régulièrement de drame ou de terrorisme sur les chaines d’information continue, fait augmenter notre attirance vers des idées autoritaires, qui viennent alors nous réconforter. Dans un contexte de terreur et de peur de la mort.

Un cercle sans fin se crée alors : l’évocation de la mort crée un besoin de sécurité, lequel est répondu par des mesures autoritaires qui viennent nous réconforter. Et ainsi de suite.

Une étude a par exemple montré qu’en exposant régulièrement des gens à des représentations mettant en avant argent et richesse, ces personnes ont tendances à adopter un comportement plus individualiste.

Cognitive ease

Le concept de « cognitive ease » est très simple à comprendre : notre cerveau a tendance à choisir la facilité. Il privilégiera régulièrement une information ou un fait qui nous vient sans effort et que nous comprenons facilement.

De manière très concrète, nous sommes plus enclins à lire un document ou un livre jusqu’au bout si la taille de la police nous permet de lire facilement.

La facilité peut venir de plusieurs éléments. Un excellent moyen pour faire croire de fausses réalités aux gens est de les répéter fréquemment. Parce que notre cerveau distingue mal ce qui est familier du vrai ou faux. Il acceptera beaucoup plus facilement une idée qui nous revient régulièrement.

Biais de causalité

Le biais de causalité est un de nos autres biais majeurs. Nous avons besoin de tout expliquer et tout rationaliser. Un événement doit forcément avoir des conséquences et des causes pour l’expliquer. Ce biais est largement produit par notre Système 1 parce qu’en réalité, nous n’avons que des impressions de causalité.

Le biais de causalité se couple très bien avec le confirmation bias en nous poussant à ne chercher et ne retenir que les faits et statistiques qui corroborent ce que nous pensons déjà.

Nassim Thaleb appelle également ce biais le « biais de narration » :

« L’erreur de narration concerne notre quasi-incapacité à observer des suites d’événements sans y introduire une explication ou, similairement, leur attribuer coûte que coûte un lien logique, une flèche de relation. Les explications permettent de lier les faits. Elles facilitent d’autant plus leur mémorabilité ; elles contribuent à leur donner un sens. Cette propension peut conduire à l’erreur lorsqu’elle conforte notre impression de comprendre ».
Nassim Nicholas Taleb, “Le Cygne Noir”

Halo effect

Le « halo effect » désigne notre tendance à tout aimer à propos d’une personne (où tout détester). Même des choses que l’on n’a pas directement observé.

Ce phénomène s’explique également par la propension qu’a notre Système 1 à vouloir donner des conclusions et un jugement sur tout.

Notre système 1 a été construit pour nous permettre de survivre : y a-t-il un danger immédiat autour de nous ? La situation est-elle normale ? 
 Il effectue un jugement continu des situations dans lesquelles nous évoluons et des gens qui nous entourent.

Ainsi, nous avons une opinion intuitive sur à peu près tout. On aime ou on n’aime pas les gens de manière quasi-instantanée. Sans que nous sachions réellement expliquer pourquoi et apporter de arguments sensés pour étayer notre opinion. La fameuse « première impression ».

Le « halo effect » est encore renforcé lorsque l’on a peu de preuves ou d’éléments sur un sujet.

En savoir peu sur un sujet, rend plus facile la création d’une histoire cohérente. Ce qui nous permet ainsi de prendre des décisions plus rapidement. Mais aussi de nous induire plus souvent en erreur.

A ce sujet, une étude a notamment montré que, sur une situation donnée, les gens qui ont été confrontées aux deux facettes et versions d’une même histoire étaient plus beaucoup plus mesurés et objectifs que les gens qui n’en avaient reçu qu’une seule. Qui, eux, affichaient une pleine confiance dans leurs opinions.

We live on an island surrounded by a sea of ignorance. As our island of knowledge grows, so does the shore of our ignorance.” 
— John Archibald Wheeler

Substituting question

Nous l’avons vu, notre cerveau préfère ce qui lui vient facilement. Mais si une réponse suffisamment satisfaisante à une question ne nous vient pas rapidement, notre Système 1 va alors essayer de trouver une autre question de remplacement, à laquelle il aura une réponse rapide. C’est la « substituting question ».

Ce mécanisme est très utile puisqu’il nous permet de prendre des décisions sans connaitre et avoir à analyser les probabilités exactes de chaque événements / choix que nous faisons.

Mais ce mécanisme, inconscient peut également biaiser et fausser nos décisions.

En voici un exemple.

Question initiale :

→ Est-ce qu’un investissement financier dans cette société serait une bonne idée ?

Il s’agit d’une question à laquelle il est difficile de répondre, avec un très grand nombre de paramètres différents à prendre en compte et une analyse poussée indispensable.

Notre cerveau substitue alors la question par une question plus facile :

→ Est-ce que j’aime cette société et leurs produits ?

Question beaucoup plus simple à répondre, d’autant plus que celle-ci fait appel à notre affect et nos sentiments. Ce qui va parfaitement satisfaire notre cerveau.

Law of small numbers

« The law of small numbers » désigne notre tendance à accorder trop de croyance et de confiance dans des échantillons trop petits.

Seuls des résultats et des conclusions tirés d’échantillons suffisamment grand sont fiables. Alors que sur un échantillon d’étude faible, des résultats extrêmes (positifs ou négatifs) sont largement susceptibles d’apparaitre. C’est un des enseignements élémentaires que nous apprend l’école. Mais nous nous laissons quand même avoir, dans notre vie quotidienne, et tirons des conclusions hâtives avec trop peu d’éléments pour soutenir celles-ci.

La probabilité de mourir dans un attentat meurtrier est infime. Elle est beaucoup plus faible que celle de mourir en voiture, par exemple. Pourtant, à chaque évocation d’un attentat en France aux informations, nous surestimons automatiquement la probabilité selon laquelle il a pu se produire et la probabilité qu’un événement de ce type se reproduise. Notre cerveau tente alors de rationaliser l’événement en faisant ainsi toutes sortes d’analyses à postériori pour expliquer que l’attentat était prévisible et qu’il aurait pu être prévenu.

Notre Système 1 n’aime pas le doute, il aime construire des histoires cohérentes à postériori. Dans Le Cygne Noir, Nassim Thaleb démontre de manière brillante que la part de hasard et d’incertitudes est très largement sous-estimée. Dans toutes les composantes de notre vie et du monde.

Nous accordons plus d’attention aux messages en eux-mêmes plutôt qu’à leur fiabilité. Notre cerveau identifie automatiquement des liens entre les événements et y associe causes et conclusions. En résulte ainsi une vision du monde beaucoup plus simple et cohérente qu’il ne l’est réellement.

« Nous cherchons des modèles qui se répètent (patterns), et croyons vivre dans un monde cohérent dans lequel les irrégularités n’apparaissent pas par accident mais bien par le résultat mécanique de l’intention de quelqu’un ». 
— Daniel Kahneman.

Anchoring bias

L’Anchoring bias se définit ainsi par la difficulté qu’a notre esprit à se défaire de la première impression que l’on se fait d’une chose ou une d’une personne. Ce biais est très utilisé dans le domaine du marketing et de la vente. Il est à la base de tout négociation : on fixe d’abord un prix de départ élevé (une ancre) pour ensuite se laisser une marge et baisser ce prix.

→ Quel est le meilleur moyen de vendre une maison à 500 000$ ?

En vous montrant d’abord d’autres maisons, beaucoup plus chères. Votre esprit va s’accrocher à ces prix élevés ce qui vous fera relativiser le prix de la maison à 500 000$.

Votre esprit fera la comparaison avec les maisons présentées en premier, et ce, peu importe la valeur intrinsèque des maisons.

→ Quel est le meilleur moyen de vendre une formation à 10 000$ ?

En vous faisant d’abord croire qu’elle vaut 50 000$.

L’idée est de vous montrer d’abord des produits très chers pour vous donner l’impression que les autres le sont moins.

De manière générale, et au-delà d’un simple contexte de prix ou de négociation, “l’anchoring bias” explique pourquoi nos pensées et nos comportements sont largement influencés par notre environnement et le moment auquel nous prenons une décision.

Availability bias

« L’availability bias » désigne notre faculté à juger de la fréquence d’un événement en fonction de la facilité avec laquelle il nous vient à l’esprit. Si un exemple précis, et personnel, nous vient rapidement en tête, celui-ci aura tendance à influencé notre prise de décision / opinion.

Ce biais est à mettre en étroite corrélation avec la « law of small numbers ».

Un événement dramatique récent, comme un crash d’avion par exemple, fait augmenter l’impression de sa fréquence.

Ce biais explique également pourquoi nous avons l’impression de faire plus que les autres dans un travail d’équipe. Parce que chacun ne retient que ce qui le concerne directement, car lui venant facilement à l’esprit.

Une étude a d’ailleurs montré que la conscience de l’existence de ce biais tend à réduire le nombre de tensions dans un mariage ou toute autre forme de collaboration. Car les tensions arrivent généralement quand tout le monde a la sensation d’en faire plus que les autres.

Conclusion

Nos intuitions, nos pensées et nos réflexions nous viennent, en réalité, sans que nous sachions réellement comment. Et le monde dans notre tête est bien différent de la réalité :

  • Nous avons tendance à surestimer nos connaissances et à sous-estimer le rôle de la chance dans les événements.
  • Nos décisions sont guidées par nos émotions et l’environnement dans lequel nous évoluons.
  • Notre impression sur la fréquence d’un événement est fortement influencée par l’intensité émotionnelle des messages auxquelles nous sommes exposés. C’est pour cela que les chaines d’informations en continue se placent dans une logique de sensationnalisme, d’urgence … et donc de rentabilité.
  • Nous avons tendance à ne voir et à ne croire uniquement les arguments qui vont dans notre sens. Et à ne pas considérer tous les autres.
  • La répétition a tendance à nous faire croire qu’un argument est vrai. Même s’il n’est absolument pas fondé.

Tout cela arrive, bien entendu, sans que nous nous en rendions réellement compte. Parce que la plupart du temps, nous fonctionnons en pilote automatique. Nous évoluons dans notre zone de confort.

Notons enfin que nous avons tendances à être plus sensibles à ces différents biais quand nous sommes en position de force.

Selon Daniel Kahneman, “le pouvoir augmente la confiance que nous accordons à notre propre intuition”. Intuition étant largement influencée par les différents biais évoqués.

— — — — — — — — — — — — — — — — — — — — — —

→ Vous souhaitez recevoir plus d’articles de ce type et n’en manquer aucun ?