Biais Cognitifs (GP)
Comment citer ?
van Loon, Marie (2016), «Biais Cognitifs (GP)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/biais-cognitifs-gp
Publié en septembre 2016
Résumé
En psychologie cognitive et sociale, la notion de biais cognitifs fait référence à la manifestation systématique de jugements faux, liée à l’utilisation automatique et inconsciente de règles de raisonnement que l’on appelle « les heuristiques ». La théorie des biais cognitifs et des heuristiques décrit les illusions dont notre cognition est victime et qui menacent parfois notre rationalité. Dans cette entrée, la théorie des biais cognitifs est exposée et discutée selon une approche philosophique.
1. Linda
Je vous présente Linda. Linda a fait des études de philosophie et était politiquement active pendant sa jeunesse. Il s’agit maintenant d’estimer quelle est la profession de Linda en termes de probabilités. On vous offre le choix suivant.
- Linda enseigne dans une école primaire.
- Linda est libraire et prend des cours de yoga.
- Linda est une féministe.
- Linda est psychiatre à l’assistance sociale.
- Linda est membre de la liste des électrices.
- Linda est une employée de banque.
- Linda est agent d’assurance.
- Linda est une employée de banque féministe.
Dans quel ordre de probabilité classeriez-vous ces options? Isolons deux de ces options : e) Linda est une employée de banque et h) Linda est une employée de banque féministe. La tentation immédiate est de conclure qu’il y a de plus grandes chances que Linda soit une employée de banque féministe. C’est en tout cas la réponse donnée par la majorité des participants cette étude psychologique sur le jugement et la prise de décision, menée par Daniel Kanheman et Amos Tversky. Il s’agit en fait de la mauvaise réponse car elle viole une loi probabiliste importante : il est toujours plus probable qu’un seul événement A ait lieu plutôt qu’une conjonction d’événements A et B. Ce qui nous donne envie de répondre que Linda est une employée de banque féministe ce sont les stéréotypes, présents dans notre imaginaire, au sujet des gens qui font des études de philosophie et sont politiquement actifs. Ces stéréotypes là informent notre estimation de la probabilité que Linda soit ou une employée de banque ou bien une employée de banque féministe. Le recours à un stéréotype pour répondre à une question de probabilité est le résultat de l’usage d’une heuristique qui a pour effet de produire à son tour un biais cognitif. Nous allons voir dans ce qui suit ce que sont ces heuristiques et les biais cognitifs qu’ils produisent. Nous complèterons ces explications en passant par la notion de rationalité limitée.
2. Qu’est ce qu’un biais cognitif ?
Selon un certain nombre de psychologues, nous avons en tant qu’agents rationnellement limités, recours dans notre raisonnement intuitif à un ensemble de règles que l’on appelle « des heuristiques », et ce de façon automatique, involontaire et inconsciente. Le recours à ces heuristiques aboutit parfois à des biais cognitifs. Le recours à ces heuristiques a tendance à faire obstacle au bon raisonnement, lorsque l’objet de celui-ci est complexe et qu’il requiert pour cette raison une forme plus précise de réflexion que celle naturellement octroyée.
Ici nous parlons du type d’erreur de raisonnement tel qu’échouer à évaluer des données cognitives, typiquement probabilistes (exemple : quelle est la probabilité qu’un ouragan se produise lors de mes prochaines vacances au Kansas ?). Ces erreurs sont des biais cognitifs. Nous avons aussi ce que l’on appelle des biais perceptifs. Dans ce cas, nous échouons à utiliser des données perceptives correctement (exemple : à quelle distance se trouve la voiture en face de moi ?). Dans les cas de biais perceptifs, on perçoit de manière erronée ; dans les cas de biais cognitifs on conçoit de manière erronée.
Lorsqu’on dit avoir un biais cognitif, qu’est-ce qui est biaisé exactement ? Ce sont nos jugements intuitifs et rapides, auxquelles on ne consacre pas beaucoup d’énergie cognitive, c’est-à-dire de réflexion. Cela concerne non seulement nos jugements hâtifs mais aussi nos jugements nés de l’habitude. On peut aussi supposer que même nos jugements apparemment les plus « réfléchis » ne sont pas forcement à l’abri de ces biais. Aussi loin que va la recherche en psychologie, on peut au moins dire que ce sont les jugements hâtifs qui auront le plus tendance à être biaisés.
a. Quelques types de biais cognitifs
Les biais cognitifs sont des erreurs de raisonnement. Lorsqu’on parle d’ « erreur » ici, on ne veut pas dire que les biais cognitifs sont systématiquement des jugements faux. Par « erreur » on veut surtout dire que les biais cognitifs sont dans un grand nombre de cas des jugements qui dévient de notre modèle standard de rationalité, selon lequel il existe des lois logiques et probabilistes et mènent généralement à la vérité.
La liste ci-dessous n’est qu’un échantillon parmi tous les biais cognitifs cités par les chercheurs en psychologie sociale et cognitive. Elle est donc non–exhaustive. Notons qu’à chaque biais cognitif, ou en tout cas à chaque groupe de biais cognitifs, semble correspondre au moins une règle heuristique que le sujet utilise dans son raisonnement, comme raccourci mental et qui lui permet de produire un jugement dans des conditions limitées.
i. Le biais de confirmation
Considérez l’étude psychologique suivante. Les participants lisent chacun deux rapports de recherche différents sur les effets de la peine de mort. Ces deux travaux présentent des conclusions contraires : les effets de la peine de mort sont bons, et les effets de la peine de mort sont mauvais. Dans chaque travail, les faiblesses de l’étude réalisée sont mises en évidence, de manière égale. Malgré cela, les participants en viennent à utiliser les travaux de manière à confirmer leurs opinions initiales, en ne prêtant attention uniquement aux résultats du travail qui les confirment. Les résultats présentés dans le travail qui infirment leurs opinions sont considérés comme faibles. Ce cas illustre la manifestation d’un biais de confirmation chez les participants. Le biais de confirmation est une tendance à ne prêter attention qu’aux données qui confirment une hypothèse de départ, dans cette étude les opinions initiales des participants, qu’on a en tête et à ignorer les données qui la contredisent. L’hypothèse qui va biaiser le raisonnement peut simplement avoir été mentionnée sans qu’on y tienne particulièrement. Seules les données qui confirment l’hypothèse sont retenues, les autres sont ignorées.
ii. Heuristique de disponibilité
Dans le cas Linda vu plus haut les participants à l’expérience ont recours à une heuristique de disponibilité. Au lieu d’évaluer la probabilité que Linda soit une employée de banque féministe on se rappelle plutôt du cliché selon lequel les gens qui ont étudié la philosophie et on été politiquement engagés sont des féministes. En général, dans les cas où il s’agit d’estimer la probabilité d’un événement, qu’un état de chose soit le cas, un biais de disponibilité se manifeste si nous avons recours à des données qui nous viennent en tête très facilement et sans trop d’efforts, plutôt que d’employer les lois de raisonnement appropriées. C’est une tendance à remplacer la question qu’on nous pose par une autre : à la place de « quelle est la probabilité que A ressemble à B ? » on répond à la question « combien de A qui ressemble à des B vous viennent-ils à l’esprit? ». Dans le cas de Linda, on répond à la question « combien d’étudiant en philosophie qui ressemblent à des féministes vous viennent-ils à l’esprit ? » à la place de « quelle est la probabilité que Linda soit une employée de banque féministe ? ». On appelle aussi cette heuristique « heuristique de l’accessibilité ». En ces termes on met l’accent sur la facilité avec laquelle on a accès à certaines données plus que sur leur disponibilité.
iii. Biais d’ancrage
On vous demande si Gandhi est mort avant ou après l’âge de cent-quarante ans. On vous demande également d’estimer son âge au moment de sa mort. Selon la recherche empirique, votre estimation sera plus proche de l’âge de cent-quarante ans que s’il vous avait été demandé au préalable si Gandhi est mort avant ou après l’âge de neuf ans. Dans ce cas de figure, l’estimation de l’âge de Gandhi est relativement plus proche des neuf ans. Ici, le raisonnement se fixe sur une information de départ (cent-quarante ans dans le premier cas et neuf dans le second) et l’utilise comme mesure de base pour les réflexions qui suivent. Il s’agit là d’un biais d’ancrage, qui calibre l’estimation d’une probabilité sur la base d’une donnée de départ. Les biais d’ancrage sont problématiques car souvent les ajustements que les sujets opèrent à partir de la donnée de base sont insuffisants pour arriver à une estimation de probabilité correcte. La donnée d’ancrage influence donc lourdement le jugement final.
iv. Oubli de la fréquence de base
Pour bien raisonner au sujet de la probabilité d’un événement, il est important de prendre en compte ce qu’on appelle la fréquence de base. Prenons l’exemple suivant, qui illustre l’oubli de la fréquence de base. Benjamin a des lunettes et il aime bien jouer aux échecs. Benjamin est-il un philosophe ou un agent d’assurance ? Malgré le peu d’information au sujet de Benjamin à notre disposition, sa description nous donne très envie de dire qu’il est philosophe. En effet, il est difficile d’ignorer le cliché (fort en influence certes, mais faux) selon lequel les philosophes sont des gens qui portent des lunettes et qui aiment bien jouer aux échecs. Cependant, il faudrait répondre qu’il y a une plus grande probabilité que Benjamin soit un agent d’assurance. Alors qu’il faut prendre en compte la fréquence de base - il y a simplement plus d’agents d’assurance que de philosophes - pour répondre à cette question, la recherche empirique montre que nous avons tendance à ignorer ce genre d’information et privilégier les descriptions stéréotypiques faciles d’accès.
v. Biais rétrospectif
On vous demande quelles sont les chances qu’un réacteur d’avion tombe dans la chambre de votre fils au milieu de la nuit. Disons que les chances vous paraissent extrêmement faibles. Pendant la nuit un réacteur d’avion tombe dans la chambre de votre fils. Si on vous demandait alors d’estimer les chances qu’un tel événement se produise et que vous répondiez, contrairement à votre jugement initial, que les chances vous paraissaient plutôt élevées, les psychologues diraient que vous manifestez là un biais rétrospectif. On pourrait aussi appeler ce biais, le biais du « je le savais depuis le début ». Le biais rétrospectif donne l’illusion que l’on savait ce qu’il allait se passer une fois les événements passés et pousse donc à surestimer la probabilité de cet événement.
3. Que sont les règles heuristiques ?
Ces biais cognitifs sont souvent présentés comme le produit du recours à des règles heuristiques lors d’un raisonnement rapide. Soulignons que le recours à ces règles est de nature intuitive et le plus souvent non-intentionnelle et inconsciente. En d’autres termes, on ne se rend pas compte de l’usage de telles règles. Pensez aux règles de grammaire qui organisent notre langage et que l’on respecte intuitivement dès un très jeune âge – nous n’avons pas vraiment conscience de les employer ni de les respecter, mais il est le cas que nous nous y plions. De la même façon, nos jugements, nos évaluations, nos inférences, nos décisions sont organisées par des règles heuristiques. Il s’agit de principes qui guident la formation de nos jugements. Nos biais cognitifs passent donc inaperçus.
Chacun des biais cognitifs présentés ci-dessus est l’effet du recours à une heuristique. Pour chaque biais il y a donc plus ou moins une règle correspondante. Ces heuristiques peuvent être utiles. Elles nous permettent de faire des évaluations rapides sur la base de données limitées. Dans certains cas, ces estimations de probabilités sont plus ou moins correctes et nous permettent de penser efficacement. On ne veut donc pas dire que notre cognition est vouée aux erreurs.
Ce qui est important de retenir est que l’esprit dans lequel la recherche psychologique autour des biais et des heuristiques s’opère a pour idée de base que notre cognition est limitée. Cet esprit s’oppose à une tradition qui comprend la cognition humaine sans ce genre de limites. On pourrait situer les origines de cette opposition déjà chez Platon, son Socrate mettant en garde contre la faillibilité de nos opinions et la duplicité du monde sensible ; ou chez Descartes qui conçoit les pouvoirs de la cognition humaine comme finis en relation à ceux infinis d’un dieu omniscient et tout-puissant. Malgré la présence de l’idée de capacités cognitives limitées ou trompeuses tout au long de l’histoire de la philosophie, la confiance dans la rationalité comme instrument d’accès à la vérité fiable domine la pensée occidentale. L’intégration de l’idée de rationalité imparfaite en psychologie met à jour les défauts de notre rationalité en son sein même.
4. Quels types de défi les biais cognitifs présentent-ils ?
Tout comme on se trompe au sujet de données perceptuelles, on commet des erreurs de raisonnement. Les jugements biaisés sont hâtifs et souvent faux. Les biais cognitifs entraînent aussi des réactions inappropriées: on imagine avoir compris depuis le début ce qu’il allait se passer, on conclut trop hâtivement que le pire va se produire, on surestime ses propres capacités, etc.
Ces biais cognitifs constituent des raisons d’être sceptique au sujet de l’objectivité de nos jugements : peut-on jamais compter sur nos estimations et nos décisions rapides lorsque les données et le temps sont limités? L’hypothèse des biais et heuristiques donne l’impression qu’il est très difficile de produire des jugements précis et objectifs. Même les psychologues travaillant sur le sujet commettent des erreurs cognitives. Pour cette raison, certains chercheurs jugent que la théorie des biais et des heuristiques est une théorie pessimiste si celle-ci prédit que la cognition humaine fonctionne fondamentalement mal. Mais cette approche ne prend pas en compte une autre partie de la théorie des biais, qui suppose qu’il y a des moyens à notre disposition pour contrer ces biais, moyennant certains efforts de réflexion.
La théorie des biais cognitifs et des heuristiques, et plus généralement les théories de la rationalité limitée, ne se veulent pas pessimistes au sujet de la cognition humaine. Elles proposent néanmoins que nous concevions de notre rationalité à partir d’une base réaliste qui prenne en compte nos limites et l’intégrions de la sorte dans nos modèles psychologiques.
Bibliographie
Baron, J. (2007) Thinking and Deciding 4th Edition. Cambridge : Cambridge University PressLa quatrième édition d’une introduction à la théorie de la pensée et du jugement (en anglais). Jonathan Baron y traite de la rationalité en général et en présente les aspects normatifs et descriptifs. Le sujet des biais cognitifs y est abordé ainsi que de nombreux sujets directement liés sont expliqués, comme les heuristiques, la rationalité et la pensée probabiliste.
Kahneman, D. (2012) Système 1/système 2 : les deux vitesses de la pensée. Paris : FlammarionDaniel Kahneman explique et discute de façon accessible et informative sa théorie du système dual de la pensée mise au point avec son ami et collègue Amos Tversky avec qui il avait écrit l’article scientifique devenu célèbre dans le milieu de la recherche sur l’heuristique du jugement et de la prise de décision, « Judgement under Uncertainty » (« le jugement dans des conditions d’incertitude » en français ) en 1974. Dans ce livre, Kahneman explique comment notre capacité à juger et à prendre des décisions est organisée en deux systèmes, le système 1 et le système 2. Le premier est rapide et inconscient, c’est lui produit des biais cognitifs. Le second est plus lent et propice à la réflexion complexe. L’ouvrage contient également de nombreux et détaillés exemples de biais et heuristiques, à la fois stimulant et instructifs.
Kahneman, D., Tversky, A. (1974) « Judgment under Uncertainty : Heuristics and Biases ». Science. 185 :4157, 1124-1131L’article scientifique qui a fait sensation dans le milieu de la recherche dans les années septante. Tversy et Kahneman y présentent une série d’études sur l’estimation de probabilités et de prise de décision, qui démontre le fonctionnement de biais et des heuristiques.
Wireless Philosophy. (2015) « Critical thinking – Cognitive Bias » [vidéo en ligne]. https://www.youtube.com/playlist?list=PLtKNX4SfKpzVgBHC2buGxvQNaspGxdMQYCette série de vidéos présente sept exemples de biais cognitifs (entre autres le biais d’ancrage, d’aversion à la perte, et de comptabilité mentale) et les explique de façon très accessible. Les exposés de Laurie Santos, chercheuse en psychologie à l’université de Yale, sont en anglais.
Yudkowsky, E. (2015) Rationality : from AI to Zombies. Berkeley: Machine Intelligence Research InstituteNon-académique, sérieux et riche en explications, ce livre est une édition complète des articles publiés sur les blogs « Overcoming Bias » et « Less Wrong » entre 2006 et 2009 par Eliezer Yudkowsky, dans lesquels il explore les problèmes de la pensée irrationnelle et identifie leurs mécanismes et les moyens de l’améliorer.
Marie van Loon
hUniversité de Bâle