Les 7 antidotes aux biais cognitifs

Ne soyez pas biaisés, soyez rationnels

Par Vincent Berthet Maître de conférences en psychologie

“Qui pense peu se trompe beaucoup.”
Léonard De Vinci

Un jour de 2003 à la bibliothèque de mon université, alors que j’étais étudiant en licence de psychologie, je suis tombé sur un article dans la revue de vulgarisation scientifique La Recherche qui m’a interpellé. Il s’agissait d’une interview d’un psychologue, Daniel Kahneman, dont le titre était « La psychologie peut éclairer l’économie ». Dans cette interview, Kahneman présentait la notion de biais cognitif (par exemple l’aversion à la perte, le fait d’être plus sensible aux pertes qu’aux gains), et expliquait comment la prise en compte des biais cognitifs l’avait amené à formuler un nouveau modèle de la prise de décision. Ce modèle avait suscité l’intérêt des économistes jusqu’à lui valoir le prix Nobel d’économie en 2002. Au travers de cet article, je découvrais une nouvelle facette de la psychologie, différente de celles qui sont traditionnellement enseignées à l’université française. Depuis, mon intérêt pour les biais cognitifs ne s’est pas démenti.

Cela étonnera toujours certaines personnes, mais l’esprit humain fonctionne de manière biaisée. Nous ne traitons pas l’information de manière rationnelle et objective. Par exemple, nous sommes enclins à penser que quelque chose est vrai simplement parce que nous y croyons. Nous avons tendance à accorder plus de poids aux informations qui confirment nos croyances qu’à celles qui les infirment. Nous avons tendance à être trop confiants dans nos propres jugements. Bref, nous sommes biaisés, pour le meilleur et pour le pire.

Depuis une quinzaine d’années, la thématique des biais cognitifs est à la mode. Au plan académique, ce domaine d’étude a été propulsé vers l’avant par les travaux pionniers des psychologues Daniel Kahneman et Amos Tversky dans les années 1970. La portée de ce champ n’a cessé de croître depuis, jusqu’à atteindre le grand public au travers d’ouvrages de vulgarisation qui sont devenus des best-sellers. Parmi eux, on notera Predictably Irrational de Dan Ariely (2008), Thinking, Fast and Slow de Kahneman (2011), et récemment Misbehaving: The Making of Behavioural Economics de Richard Thaler (2015).

Si l’existence des biais cognitifs et la façon dont ils peuvent affecter nos jugements et nos décisions sont aujourd’hui deux choses bien établies, une question pratique importante renvoie aux moyens de contrecarrer ces biais. Le moyen concret le plus simple pour vérifier si un jugement ou un raisonnement personnel est affecté ou non par des biais est de le soumettre à d’autres personnes. Car en matière de biais cognitifs, les cordonniers sont toujours les plus mal chaussés : nous sommes plus efficaces à déceler la présence de biais cognitifs chez les autres que chez nous-mêmes. Ainsi, dans les organisations, une décision est d’autant moins susceptible d’être affectée par des biais individuels qu’elle est collective. Car dans une situation de groupe, les biais individuels peuvent être mis en évidence et corrigés par le groupe.

Mais avoir recours à l’avis d’autrui pour contrecarrer ses propres biais cognitifs n’est pas une panacée, car cette méthode n’est valable que si la personne dont on sollicite l’avis est honnête, perspicace, et rationnelle. Or ce profil n’est pas le plus fréquent. Par conséquent, une personne devrait être capable de contrecarrer ses biais cognitifs par elle-même, ou au moins essayer d’aller dans ce sens. Et il n’y a qu’un seul remède efficace contre les biais cognitifs : être rationnel.

Deux remarques importantes s’imposent. D’une part, la rationalité ne se limite pas au fait de réfléchir ou de produire un effort cognitif. Être rationnel désigne une attitude intellectuelle globale qui incorpore aussi bien la réflexion et que l’honnêteté. D’autre part, pour cette raison, la rationalité n’est pas la même chose que l’intelligence. Cette remarque est cruciale car certaines personnes pourraient être tentées de se dire : « le remède contre les biais cognitifs c’est d’être intelligent, or ce n’est pas mon cas ». Le psychologue Keith Stanovich a montré que la rationalité et l’intelligence (mesurée par les tests de QI) sont assez peu corrélées (Stanovich, 2009). Ceci n’est pas du tout étonnant. Par exemple, le biais de confirmation (la tendance à accorder plus de poids aux informations qui confirment ses croyances qu’aux informations qui les infirment) a bien plus à voir avec l’objectivité et l’honnêteté intellectuelles qu’avec l’intelligence. Ainsi, même des personnes ayant un QI élevé sont susceptibles de faire des erreurs de jugement grossières. Dans les années 1990, Stanovich a proposé le concept de « dysrationalie » pour caractériser un déficit de pensée rationnelle en dépit d’un QI normal.

Voici selon moi les sept traits principaux d’une attitude intellectuelle rationnelle.


#1 Réfléchir

En psychologie cognitive, les modèles à « processus duaux » partitionnent le fonctionnement mental en deux systèmes fondamentaux : le système 1 qui correspond aux processus automatiques et le système 2 qui correspond aux processus contrôlés. Concrètement, le système 2 correspond à la réflexion volontaire consciente, c’est-à-dire le fait de penser ou de réfléchir. Par exemple, écrire un mail professionnel, décider quelle voiture on va acheter, jouer aux mots croisés, sont des situations qui mobilisent le système 2. Au contraire, le système 1 englobe tous les processus psychologiques qui ne requièrent pas la réflexion volontaire consciente, autrement dit, qui sont automatiques. Par exemple, voir et parler ne demandent aucun effort : les processus cognitifs qui sous-tendent la vision et le langage sont automatiques. Le système 1 est l’équivalent psychologique du système nerveux autonome, qui régule de façon automatique les fonctions vitales de l’organisme (digestion, respiration, etc.).

Réfléchir signifie faire deux choses : faire l’effort de réfléchir et réfléchir correctement. Faire l’effort de réfléchir veut dire ne pas céder à la loi du moindre effort mental : ne pas se reposer sur son système 1 et faire fonctionner son système 2. Le célèbre problème de la batte et de la balle illustre bien cela :

Une batte et une balle coûtent 1.10 € au total. La batte coûte 1 € de plus que la balle. Combien coûte la balle ?

Le système 1 propose automatiquement comme réponse « 10 centimes ». Le fond du problème est là : la majorité des gens se contentent de cette réponse. Or s’ils faisaient l’effort de vérifier, ils se rendraient compte que ça ne colle pas (si la balle coûte 10 centimes, alors la batte coûte 1.10 € et donc les deux coûtent 1.20 €). La morale de ce problème élémentaire est que souvent, si nous commettons des erreurs, ce n’est pas parce que nous sommes stupides mais parce que nous ne réfléchissons pas assez.

Une autre illustration célèbre de ce phénomène renvoie à une anecdote que le physicien français Pierre-Gilles de Gennes aimait raconter, qui concerne un type de problèmes que le physicien Enrico Fermi (prix Nobel de physique en 1938) utilisait pour recruter ses futurs étudiants en thèse. Pendant l’entretien de recrutement, Fermi posait par exemple une question comme :

Combien y a-t-il d’accordeurs de piano dans la ville de New York ?

La réaction immédiate à une telle question est de se dire qu’on ne connait pas la réponse. Le système 1 bloque. Mais en réfléchissant un peu, on se rend compte que l’on peut approcher la réponse par déduction. Le raisonnement est le suivant. La ville de New York compte aux alentours de 10 millions d’habitants. Comptons environ 1 piano pour 30 familles, soit 1 piano pour 100 habitants. Il y a donc environ 100000 pianos à New York. Un piano reste accordé 3 ans soit à peu près 1000 jours. Il y a donc environ 100 pianos à accorder par jour. Selon qu’un accordeur accorde 1 ou 2 pianos par jour, il y a entre 100 et 50 accordeurs de piano dans la ville de New York…

Faire l’effort de réfléchir ne suffit pas, encore faut-il réfléchir correctement. Et pour cela, il faut posséder certaines connaissances (par exemple, la formule de Bayes pour estimer des probabilités) et maîtriser certaines techniques de raisonnement. Mon but n’est pas ici de fournir une liste exhaustive de ces connaissances et de ces techniques mais de sensibiliser le lecteur. Je me contenterais donc d’illustrer deux techniques de raisonnement. Une première technique est le raisonnement disjonctif. Considérons le problème suivant :

Jacques regarde Anne, et Anne regarde Georges. Jacques est marié, mais Georges ne l’est pas. Est-ce qu’une personne mariée regarde une personne non mariée?

a) Oui
b) Non
c) On ne peut pas savoir

Plus de 80% des gens choisissent la réponse c) sur la base du fait qu’il y a une inconnue, le statut marital d’Anne. Cette inconnue empêche-t-elle vraiment de répondre à la question ? Envisageons la question pour chaque possibilité concernant Anne (mariée ou pas mariée). Si Anne est mariée, alors il y a bien une personne mariée (Anne) qui regarde une personne non mariée (Georges). Si Anne n’est pas mariée, alors il y a bien une personne mariée (Jacques) qui regarde une personne non mariée (Anne). Donc dans les deux cas, la réponse à la question est affirmative. Le raisonnement disjonctif consiste à envisager et à examiner toutes les possibilités lorsque l’on réfléchit à une situation, un problème, etc. Or souvent, on a tendance à se fixer sur une ou quelques possibilités seulement.

Une deuxième technique de raisonnement pour penser rationnellement est la technique de la condition contrôle : pour évaluer une alternative, il faut la comparer avec une autre alternative (la condition contrôle). Considérons le problème suivant :

Une étude a été menée sur 340 sujets pour tester l’efficacité d’un nouveau traitement. Les résultats sont résumés dans le tableau ci-dessous. Peut-on dire que le traitement est efficace ?

La plupart des gens répondent que le traitement est efficace. Ils calculent la proportion de cas avec amélioration dans la condition avec traitement (200/275 = 72.7%) et comme cette proportion est élevée, ils en concluent que le traitement est efficace. Mais qu’en est-il dans la condition sans traitement (la condition contrôle) ? Il s’avère que la proportion de cas avec amélioration est plus élevée (50/65 = 76.9%). Par conséquent, on ne peut pas dire que le traitement est efficace. Évaluer l’influence de quoi que ce soit requiert au moins une comparaison. « Penser, c’est comparer » écrivait Malraux dans ses Antimémoires (1967). Les techniques de raisonnement s’apprennent (plus ou moins laborieusement), comme toute technique.

#2 Considérer les faits avant tout

“Il est facile de mentir avec les statistiques, mais il est encore plus facile de mentir sans elles.”
Frederick Mosteller

Les débats sont souvent stériles car ils reviennent à une opposition d’opinions, sans considération pour les faits. Comme le soulignait W. Edward Deming, « Une personne sans éléments tangibles est juste une personne de plus avec une opinion. » A cet égard, la plupart des gens sont victimes du biais de confiance subjective. Ils pensent qu’une idée est vraie parce qu’ils trouvent le raisonnement qui la sous-tend convaincant. Ils pensent que l’on peut prouver une idée sur la seule base d’un raisonnement théorique. Ou encore, ils s’inclinent devant l’argument d’autorité (« Un philosophe l’a écrit, donc c’est vrai »). Mais ils se trompent, car le degré de véracité d’une idée se juge avant tout au regard des faits, des éléments tangibles qui l’étayent. Si vous pensez que la catégorie socio-professionnelle des parents a peu d’influence sur la réussite scolaire des enfants, ou si vous pensez que les OGM sont néfastes pour la santé, vous devez mettre des éléments tangibles sur la table, pas seulement votre opinion et vos anecdotes personnelles.

Si appuyer sa démarche intellectuelle sur des faits est une bonne chose, encore faut-il le faire correctement. A cet égard, une erreur répandue consiste à ne considérer qu’un seul fait, qu’un seul exemple pour appuyer une idée. Or un exemple isolé ne prouve rien. Et multiplier les exemples n’est guère mieux (comme disent les statisticiens, le pluriel de « anecdote » n’est pas « données »). Ainsi, invoquer le cas de son grand-père qui a fumé jusqu’à 80 ans sans avoir de cancer n’invalide pas le lien statistique entre tabagisme et cancer. Les esprits simples raisonnent sur des cas particuliers alors que les esprits réfléchis raisonnent à un niveau général à l’aide de statistiques.

#3 S’efforcer d’être objectif

L’objectivité est la « surveillance intellectuelle de soi » écrivait Gaston Bachelard. Être objectif dans une situation donnée, c’est prendre en compte tous les éléments en jeu (pas seulement ceux qui nous arrangent) et les considérer de façon rationnelle (non biaisée). Dans les termes de Kahneman, considérer les choses dans leur ensemble revient à adopter un « cadrage grand angle » (avoir une vision large) plutôt qu’un « cadrage gros plan » (se focaliser sur un élément).

Autrement dit, une attitude objective consiste à mettre tous les éléments sur la table et à faire la colonne des « + » et la colonne des « — » pour toutes les alternatives. Il faut donc s’efforcer de faire la colonne des « + » même pour les alternatives que l’on n’aime pas, et faire la colonne des « — » même pour les alternatives que l’on aime bien. Cela permet de produire un jugement nuancé et de ne pas voir les choses de façon clivée. Par exemple, est objectif celui qui sait reconnaître les qualités de ses ennemis et les défauts de ses amis, celui qui accepte l’idée qu’il y a des gens bien qui font des mauvaises choses et des gens mauvais qui font de bonnes choses. Au final, être objectif amène souvent à réaliser que les choses sont plus complexes qu’on ne le croyait.

L’objectivité est souvent synonyme d’honnêteté intellectuelle. Celle-ci est comme toute vertu : la plupart des gens la saluent, mais peu la pratiquent. Et ce, parce que peu de gens en sont capables. Il est certaines professions où l’honnêteté intellectuelle joue un rôle particulièrement crucial : le magistrat devant juger objectivement une personne qui pourtant incarne tout ce qu’il déteste à titre personnel, ou encore le scientifique devant remettre en question sa propre théorie face à des résultats expérimentaux défavorables. Cette droiture intellectuelle témoigne indéniablement d’une immense grandeur d’esprit, dont peu de personnes sont capables.

#4 Ne pas mentir, ni aux autres ni à soi-même

“Ne pas se raconter d’histoires, ne pas s’abuser soi-même, étant entendu qu’on est soi-même la personne qu’il est le plus facile d’abuser.”
Richard Feynman

Le mensonge a une fonction de préservation de l’intégrité psychique, aussi est-il très difficile de ne pas mentir. J’ai tendance à penser que pour éviter de duper les autres, il faut d’abord apprendre à ne pas se duper soi-même. Cette auto-duperie consiste à se détourner de la vérité en se racontant des histoires. Ne pas se duper soi-même implique donc de ne pas chercher d’excuses, de reconnaître ses erreurs et ses échecs, et de réfléchir sur les motivations réelles de ses comportements.

#5 Se défaire de son égocentrisme

L’égocentrisme est la tendance à tout ramener à soi et à sur-pondérer son propre point de vue. Le psychologue Jean Piaget avait montré que le développement psychologique de l’enfant se caractérise par une réduction progressive de l’égocentrisme. Lorsqu’il constate que la lune bouge dans le ciel, l’enfant pense d’abord que c’est la lune qui le suit avant de progressivement se décentrer de son point de vue.

On constate la même évolution dans l’histoire des idées, celle d’une réduction de l’égocentrisme de l’Homme. Copernic tout d’abord, montre que c’est le Soleil et non la Terre qui est au centre de l’Univers. Darwin ensuite montre que l’Homme n’est pas une création divine mais le produit d’un processus sans dessein, l’évolution biologique. Freud enfin suggère que l’Homme n’a même pas le contrôle total de ses actes (« Le moi n’est pas maître dans sa propre maison »). Être rationnel passe par une réduction de son égocentrisme. Cela implique de savoir relativiser son propre point de vue et de faire l’effort d’envisager les choses d’un point de vue différent du sien. Dans son propre référentiel, on a raison et l’autre a tort. Mais les choses peuvent se révéler différemment si l’on s’efforce de s’extraire de son propre point de vue.

Réduire son égocentrisme consiste aussi à ne pas croire que son expérience personnelle est représentative. En effet, même sans être animé d’une volonté de se donner une importance particulière, parler de soi et évoquer son expérience personnelle est toujours agréable. Ainsi, lorsqu’une personne parle d’un événement qui lui arrive, nous avons tendance à nous référer à la façon dont nous avons vécu nous-mêmes cet événement en sous-entendant que notre expérience personnelle est prototypique. Or cela est faux bien entendu : chaque personne a sa propre histoire et aucune n’est plus représentative qu’une autre. Il faut là encore se défaire de son égocentrisme en n’accordant pas à sa propre histoire plus de typicalité qu’elle n’en a.

#6 Ne pas confondre la réalité et la réalité telle qu’on voudrait qu’elle soit

Chacun d’entre nous souscrit à une certaine idéologie et une certaine vision du monde, ce qui se traduit par l’utilisation de certaines catégories mentales. En général, lorsque l’on n’arrive pas à faire rentrer la réalité dans nos propres catégories mentales, on blâme la réalité. On lui en veut de ne pas correspondre à ce qu’on voudrait qu’elle soit. Décrire le monde tel qu’on voudrait qu’il soit plutôt que tel qu’il est (le « wishful thinking »), c’est prendre ses désirs pour des réalités. Que fait-on quand l’une de nos croyances ne concorde pas avec la réalité ? Les personnes rationnelles abandonnent leur croyance, les personnes irrationnelles abandonnent la réalité. Pourquoi ces dernières agissent-elles ainsi ? Tout simplement parce ce que ce qui compte pour elles au fond, c’est de préserver leur idéologie et leurs valeurs personnelles. Elles sont enclines à rejeter un élément factuel si celui-ci n’est pas en conformité avec leur vision personnelle du monde.

Par exemple, sur la question de l’inné et de l’acquis, la posture idéologique qui est socialement valorisée affirme que l’environnement façonne davantage une personne que ses gènes. Cette posture est bien résumée par le chercheur en sciences cognitives Franck Ramus (Ramus, 2011) : « Si le comportement était génétiquement déterminé, cela signifierait que nous ne disposons d’aucun libre-arbitre, que nous ne sommes pas maîtres de nos actes, et par conséquent que l’on ne peut nous imputer la responsabilité de nos actes. Comme c’est inconcevable, il est impossible que le comportement soit déterminé génétiquement. » Or on n’oublie qu’il s’agit avant tout d’une problématique scientifique, pas idéologique. Ainsi, toute personne qui jetterait le discrédit sur un résultat scientifique sous prétexte qu’il ne va pas dans le sens de son idéologie personnelle ferait preuve d’une malhonnêteté intellectuelle patente.

#7 Accepter le doute

“Tout le problème de ce monde, c’est que les idiots et les fanatiques sont toujours si sûrs d’eux, tandis que les sages sont tellement pleins de doutes.”
Bertrand Russell

“On mesure l’intelligence d’un individu à la quantité d’incertitudes qu’il est capable de supporter.”
Emmanuel Kant

Accepter le doute est contre naturel car notre cerveau est biologiquement programmé pour réduire l’incertitude. L’esprit humain déteste l’incertitude. Il cherche par conséquent à la réduire autant que possible. Et pour combler le vide, il utilise des hypothèses, des supputations. En fait, celles-ci lui permettent moins d’atteindre la connaissance qu’un sentiment de certitude réconfortant. Comme le notait très justement le philosophe Bertrand Russell, « Ce que les hommes veulent en fait, ce n’est pas la connaissance, c’est la certitude. » Mais la plupart du temps, les hypothèses que nous formulons pour réduire le doute et l’incertitude sont au mieux hasardeuses, au pire, totalement erronées. Être rationnel signifie ici d’être capable de se défaire de ces hypothèses hasardeuses au profit du doute. Bref, être tout simplement capable de dire « Je ne sais pas ».


Nous prenons des décisions en permanence et nous disposons pour cela de deux systèmes mentaux : l’intuition (le système 1) et la réflexion (le système 2). L’intuition est rapide et sans effort, la réflexion est lente et coûteuse. D’un côté, la plupart des décisions que nous avons à prendre sont anodines (choisir un film, choisir un restaurant, choisir un club de sport, etc.). Pour ces décisions, nous pouvons nous contenter du système 1 car le coût d’un mauvais choix est moindre que l’avantage correspondant au fait d’y consacrer peu d’effort mental. Par exemple, nous ne réfléchissons pas deux heures pour choisir un restaurant car au final, faire un mauvais choix est loin d’être dramatique. Pour ce genre de décisions anodines, nous ne cherchons pas à faire le meilleur choix, mais un choix suffisamment bon. Par ailleurs, le caractère routinier de ces décisions (le fait d’y être confronté un grand nombre de fois) donne la possibilité de développer une intuition valide. D’une façon générale, l’intuition est valable lorsqu’elle s’applique à des situations stables et prédictibles. Ces situations mettent en jeu des régularités que l’esprit humain peut déceler et apprendre. Dans ce cas, l’intuition est fiable car elle n’est que l’intériorisation de ces régularités.

De l’autre côté, il y a quelques décisions cruciales dans une vie pour lesquelles un mauvais choix pourrait être très coûteux. Pour un individu, choisir qui épouser ; pour une entreprise, choisir de fusionner ; pour un gouvernement, choisir de faire la guerre, etc. Pour ce genre de décisions, nous ne nous contentons pas d’un choix suffisamment bon, nous cherchons à faire le meilleur choix. Ces décisions sont trop rares pour pouvoir développer une intuition valide, elles requièrent donc de penser, de réfléchir, c’est-à-dire faire fonctionner son système 2. Cela consiste notamment à être conscient de l’influence des biais cognitifs et à s’efforcer d’être rationnel afin de se prémunir contre ces biais.

Au final, nous prenons parfois de mauvaises décisions, et il y a deux raisons à cela. La première raison renvoie aux biais cognitifs qui limitent notre rationalité, et la seconde raison est la présence de mauvaises incitations dans les institutions. Par exemple, un médecin peut être amené à prescrire un certain traitement à un patient qui est en réalité inadéquat, soit par exemple parce qu’il comprend mal les statistiques médicales relatives à ce traitement (rationalité limitée), soit parce qu’il y trouve un intérêt financier (présence d’une incitation monétaire). A partir de là, comment faire en sorte que les gens prennent de meilleures décisions ? Changer les incitations est utopique car les intérêts en jeu sont bien trop importants. Le seul levier réaliste est d’informer et d’éduquer les gens afin de réduire l’influence des biais cognitifs sur leurs décisions.