La philosophie de A à Z

Publié en avril 2018

Résumé

Les biais cognitifs, parfois aussi appelés « illusions cognitives », sont un ensemble d’erreurs de raisonnement qui diffèrent du simple oubli ou de l’erreur de calcul. Les biais cognitifs sont observables lorsque, dans une certaine situation, un sujet commet une erreur de raisonnement en recourant à une heuristique plutôt qu’à une loi logique et forme ainsi une croyance injustifiée, voire fausse. Ici on entend « raisonnement » au sens large, c’est-à-dire, théorique ou pratique, conscient ou inconscient. Bien que les biais cognitifs soient principalement discutés en psychologie (psychologie du jugement et de la prise de décision, et en psychologie du raisonnement et en psychologie cognitive), cette entrée propose de contribuer à une meilleure compréhension des biais cognitifs en tant qu’objet d’étude philosophique.

D’un point de vue philosophique, les biais cognitifs soulèvent des questions d’ordre ontologique et épistémologique, qui touchent à la nature de notre cognition et de notre rationalité. La nature des biais cognitifs est le plus souvent définie comme des tendances à produire des croyances ou des jugements erronés en vertu du fait qu’ils violent certaines règles de raisonnement. Néanmoins, la question de savoir si ces tendances sont intrinsèques ou extrinsèques à la cognition est parfois débattue et touche à la question plus générale de la nature de la rationalité. Une autre question qui suscite un certain intérêt chez les philosophes concerne ce qui est couramment appelé « biais implicite » ou « attitude implicite ». En plus d’être une tendance à commettre des erreurs de raisonnement de type particulier, les attitudes implicites impliquent également des erreurs de bienséance sociale et, ultimement, morales. Il n’est pas toujours rendu clair si les biais cognitifs et les attitudes implicites doivent être traités comme des catégories complètement distincte ou au contraire si ces deux catégories d’erreurs doivent être traités comme parentes.

La nature des biais cognitifs est donc peu claire. Dans ce qui suit, nous passons en revue les questions énoncées ci-dessus, en présentant les réponses existantes dans la littérature des trente dernières années. Nous commençons par présenter les descriptions les plus courantes des biais cognitifs ainsi qu’une série d’exemples de biais (1.a, « Préliminaires terminologiques », 1.b, « Quelques exemples de biais cognitifs », et 1.c, « Quelques traits descriptifs communs des biais cognitifs »). Nous abordons ensuite la question du statut ontologique des biais en considérant les différentes réponses offertes par la littérature (1.d, « Ontologie : i) Quelle sorte d’objet le biais cognitifs est-il ?, ii) Quelle sorte de relation entretient-il vis-à-vis des heuristiques ? »). Nous les distinguons également d’un objet qui semble pour le moins être un proche parent : l’attitude implicite (1.d.iii, « Cas de parenté :les attitudes implicites »). Nous examinons ensuite deux problèmes pour le concept de biais cognitif  (2. « L’épistémologie des biais cognitifs », et 3. « La rationalité des biais cognitifs »): d’abord, les préoccupations concernant l’impact de biais cognitifs pour l’épistémologie des vertus (2.a, «Le défi situationniste posé à l’épistémologie des vertus », et 2.b, « Le défi sceptique »), puis les disputes concernant la présupposée irrationalité des biais (3). Finalement, nous examinons l’utilisation des biais cognitifs en philosophie comme outil conceptuel (4. « Les biais cognitifs en philosophie »).


Table des matières

1. La métaphysique des biais cognitifs

a. Préliminaires terminologiques
b. Quelques exemples de biais cognitifs
c. Quelques traits descriptifs communs des biais cognitifs
d. Ontologie

i. Quelle sorte d’objet le biais cognitif est-il?
ii. Quelle sorte de relation entretient-il vis-à-vis des heuristiques ?
iii. Cas de parenté : les attitudes implicites

2. L’épistémologie des biais cognitifs

a. Le défi situationniste posé à l’épistémologie des vertus
b. Le défi sceptique
c. Réponses aux défis sceptiques et situationnistes

3. La rationalité des biais cognitifs

4. Les biais cognitifs en philosophie

5. Conclusion

6. Bibliographie


Bien que les chercheurs semblent d’accord sur ce que représente un cas paradigmatique de biais cognitif ainsi que sur les éléments qui indiquent la présence de biais cognitifs, il n’y a aucun consensus clair sur la manière dont on définit les biais cognitifs. Ainsi, dans le but de préciser le concept de biais cognitif, nous passerons d’abord en revue les variations terminologiques, énumérant au passage certains biais paradigmatiques, avant de présenter les différents éléments descriptifs concernant leur nature.

Le terme le plus couramment employé dans la littérature pour ce phénomène est celui de « biais cognitifs » (« cognitive bias ») (Tversky & Kahneman 1974, Gilovich, Griffin & Kahneman 2002, Haselton 2009, Gigerenzer, Fielder & Olsson 2012, Fairweather 2014, Galbraith 2015). On y réfère aussi simplement comme « biais » (Baron 2007, Oaksford & Chater 2007, Stanovich 2010, Galbraith 2015). L’appellation « illusion cognitive » se rencontre parfois aussi (Pohl 2005).

On entend aussi parfois parler de « biais implicites ». Il est cependant important de ne pas confondre les biais cognitifs avec les biais implicites, bien qu’ils soient similaires à de nombreux égards. Nous revenons sur ce point à la section 1.d.iii « Cas de parenté ».

Fallacie de la conjonction

Considérons la description suivante, soumise aux participants d’un étude psychologique sur le jugement et la prise de décision, menée par Daniel Kahneman et Amos Tversky (1974) :

« Linda a trente-trois ans, elle est célibataire, ne mâche pas ses mots et est très intelligente. Elle est diplômée en philosophie. Quand elle était étudiante, elle se sentait très concernée par les questions de discrimination et de justice sociale, et avait également pris part à des manifestations contre le nucléaire. » (Kahneman, 2011). Les énoncés ci-dessous leur étaient proposés, et il leur était demandé de les classer par ordre de probabilité :

  1. Linda enseigne dans une école primaire.
  2. Linda est libraire et prend des cours de yoga.
  3. Linda est active dans le mouvement féministe.
  4. Linda est psychiatre à l’assistance sociale.
  5. Linda est membre de la liste des électrices.
  6. Linda est une employée de banque.
  7. Linda est agent d’assurance.
  8. Linda est une employée de banque et est active dans le mouvement féministe.

Lors de cette étude psychologique sur le jugement et la prise de décision, menée par Daniel Kahneman et Amos Tversky (1974), la majorité des participants ont conclu qu’il y a de plus grandes chances que Linda soit une employée de banque et active dans le mouvement féministe plutôt qu’une simple employée de banque. Il s’agit en fait de la mauvaise réponse car elle viole une loi probabiliste importante qu’on appelle la loi de la conjonction : il est toujours plus probable qu’un seul événement A ait lieu plutôt qu’une conjonction d’événements A et B. La violation de cette loi s’appelle « la fallacie de la conjonction » (Tversky & Kahneman 1983, Baron 2007).

Ce qui pousse à répondre que Linda est une employée de banque active dans le mouvement féministe, ce sont les stéréotypes évoqués par la description de Linda, lesquels sont issus de l’imaginaire culturel au sujet des personnes qui font des études de philosophie comme étant politiquement actifs. Ces stéréotypes influencent l’estimation de la probabilité que Linda soit ou une employée de banque ou bien une employée de banque féministe. Le recours à un stéréotype pour répondre à une question de probabilité consiste typiquement dans un recours à une heuristique trop simple pour la question posée, résultant ainsi dans un biais cognitif.

En effet, l’erreur commise par les participants de l’expérience peut être expliquée par le recours apparent à ce qu’on appelle une « heuristique de disponibilité » (Reber 2005, Baron 2007, Kelman 2011, Manktelow 2012). Plutôt que d’évaluer la probabilité que Linda soit une employée de banque active dans le mouvement féministe, les sujets font appel au cliché selon lequel les femmes qui ont étudié la philosophie et ont été politiquement engagés sont actives dans le mouvement féministe. En général, dans les cas où il s’agit d’estimer la probabilité d’un événement, un biais de disponibilité se manifeste : nous avons recours à des données qui viennent facilement à l’esprit et sans efforts, plutôt que d’employer des lois de raisonnement appropriées. Il s’agit d’une tendance à remplacer la question qu’on nous pose par une autre : à la place de « quelle est la probabilité que A ressemble à B ? » on répond à la question « combien de A qui ressemblent à des B vous viennent-ils à l’esprit ? ». Dans le cas de Linda, on répond à la question « combien d’étudiantes en philosophie qui ressemblent à des personnes actives dans le mouvement féministe vous viennent-elles à l’esprit ? » à la place de « quelle est la probabilité que Linda soit une employée de banque et active dans le mouvement féministe ? ». C’est pourquoi on appelle aussi cette heuristique « heuristique de l’accessibilité ». Ainsi présentée, on met l’accent sur la facilité avec laquelle le sujet a accès à certaines données. (Tversky & Kahneman 1973, 1983).

Plus récemment, certains auteurs ont entrepris de raffiner l’explication de cette heuristique et d’en corriger la conceptualisation (Schwarz et al. 1991, Kahneman 2002, Kahneman & Frederick 2002) en la distinguant d’heuristiques similaires telles que l’heuristique de la reconnaissance (« recognition heuristics », Pachur & al. 2012) ou l’heuristique de l’aisance (« fluency heuristics », Schooler, Hertwig & Herzog 2012).

Le biais de confirmation

Considérons l’étude psychologique suivante (Lord, Ross & Lepper 1979, Oswald & Grosjean 2005) : les participants à l’étude lisent chacun deux rapports fictifs sur les effets de la peine de mort sur les taux de meurtre dans différents états américains, dans une version brève d’abord, puis dans une version détaillée.

Ces deux travaux présentent des conclusions contraires : (1) les effets de la peine de mort sur le taux de meurtre sont positifs, et (2) les effets de la peine de mort sur le taux de meurtre sont négatifs. Dans chaque rapport, les faiblesses de l’étude réalisée sont mises en évidence, de manière égale. Malgré cela, les participants en viennent à utiliser les travaux de manière à confirmer leurs opinions initiales, en ne prêtant attention qu’aux résultats du travail qui les confirment. Les résultats présentés dans le travail qui infirment leurs opinions sont considérés comme faibles. Ce cas illustre la manifestation d’un biais de confirmation chez les participants. Le biais de confirmation est une tendance à ne prêter attention qu’aux données qui confirment une hypothèse de départ, en l’occurrence les opinions initiales des participants, et à ignorer les données qui la contredisent. L’hypothèse qui biaise le raisonnement peut simplement avoir été mentionnée sans que le sujet y tienne particulièrement.

Biais d’ancrage

Dans une étude, il est demandé si Gandhi est mort avant ou après l’âge de cent-quarante ans. On demande également d’estimer son âge au moment de sa mort. Selon les résultats Strack et Mussweiler (1997), les estimations sont plus proches de l’âge de cent-quarante ans que s’il avait été demandé au préalable si Gandhi était mort avant ou après l’âge de vingt ans. Dans ce cas de figure, l’estimation de l’âge de Gandhi est relativement plus proche des vingt ans. Ici, le raisonnement se fixe sur une information de départ (cent-quarante ans, bien que cette donnée paraisse absurde (Kahneman 2011)) et l’utilise comme mesure de base pour les réflexions qui suivent. Il s’agit là d’un biais d’ancrage, qui calibre l’estimation d’une probabilité sur la base d’une donnée de départ (Mussweiler, Englich & Strack 2005, Baron 2007, Griffin & al. 2012). Les biais d’ancrage sont problématiques car souvent les ajustements que les sujets opèrent à partir de la donnée de base sont insuffisants pour arriver à une estimation de probabilité correcte. La donnée d’ancrage influence donc lourdement le jugement final.

Oubli de la fréquence de base

L’exemple suivant illustre l’oubli de la fréquence de base. Benjamin a des lunettes et il aime bien jouer aux échecs. Benjamin est-il chercheur en philosophie ou un agent d’assurance ? Malgré le peu d’information à notre disposition au sujet de Benjamin, sa description incite à conclure qu’il est chercheur en philosophie. En effet, il est difficile d’ignorer le cliché selon lequel les chercheurs en philosophie sont des gens qui portent des lunettes et qui aiment bien jouer aux échecs (un cliché influent certes). Alors qu’il faudrait prendre en compte la fréquence de base, c’est-à-dire qu’il existe plus d’agents d’assurance que de chercheurs en philosophie, pour répondre à cette question, la recherche empirique montre que les sujets ont tendance à ignorer ce genre d’information et à privilégier les descriptions faciles d’accès (Manktelow 2012). En d’autres termes, sur la base d’informations limitées, les sujets ont tendance à préférer une heuristique de la disponibilité à la prise en compte de la fréquence de base. Il faudrait donc répondre à la question « Benjamin est-il un chercheur en philosophie ou un agent d’assurance ? » qu’il y a une plus grande probabilité que Benjamin soit un agent d’assurance.

Biais rétrospectif

On demande quelles sont les chances qu’un réacteur d’avion tombe dans la chambre de votre fils au milieu de la nuit. Admettons que les chances paraissent extrêmement faibles. Pendant la nuit un réacteur d’avion tombe dans la chambre de votre fils. Si on vous demandait alors d’estimer les chances qu’un tel événement se produise et que vous répondiez, contrairement à votre jugement initial, que les chances vous paraissaient plutôt élevées, les psychologues diraient que vous manifestez un biais rétrospectif (Fischhoff 1982, Hawkins & Hastie 1990, Evans 2007). On pourrait aussi appeler ce biais, le biais du « je le savais depuis le début » (« Hindsight bias » ou « the knew-it-all-along effect » en anglais). Le biais rétrospectif donne l’illusion que l’on savait ce qu’il allait se produire une fois les événements passés et pousse donc à surestimer la probabilité de cet événement.

La liste ci-dessus n’est qu’un échantillon parmi les biais cognitifs cités par les chercheurs en psychologie sociale et cognitive. Elle est donc non–exhaustive. Notons que pour chaque biais cognitif, ou en tout cas pour des groupes de biais cognitifs, il semble correspondre au moins une règle heuristique. Une règle heuristique, ou simplement une heuristique, est une règle de raisonnement informelle. Lors d’un raisonnement, elles offrent un « raccourci mental » (Pohl 2005). Par exemple, l’heuristique de la disponibilité remplace la règle formelle au sujet de la probabilité de A par une règle informelle du type « ce qui me vient à l’esprit facilement au sujet de A indique la probabilité de A ». Une telle règle informelle facilite le raisonnement. Nous reviendrons sur la question de la nature de la relation entre biais cognitifs et heuristique à la section 1. d. ii, « Quelle sorte de relation entretient-il vis-à-vis des heuristiques ? ».

Bien qu’une définition stricte soit absente de la littérature, il existe une abondance de descriptions caractéristiques issues de la recherche psychologique relative aux biais cognitifs. Trois caractéristiques principales peuvent être dégagées de cette littérature : l’involontarité, l’imperceptibilité et l’inconformité.

L’occurrence de biais est involontaire (Pohl 2005), c’est-à-dire, on ne contrôle pas directement la production d’un biais. Si certaines conditions sont en place, alors le jugement produit sera biaisé. Il semble possible cependant de pouvoir exercer un contrôle indirect sur sa tendance aux biais cognitifs (Kahneman 2011).

Les biais cognitifs sont imperceptibles. En effet, le recours au mécanisme qui produit les biais cognitifs semble largement échapper à la conscience du sujet (Pohl 2005). On dira donc que ses propres biais lui sont imperceptibles ; il ne se rend pas compte que son raisonnement le mène à une erreur.

Finalement, les biais cognitifs sont souvent décrits comme inconformes aux règles de raisonnement traditionnelles. Sans cette caractéristique, les biais cognitifs ne poseraient pas de problème. Quoi de mieux qu’un système de raisonnement rapide et sans effort, qui produit des jugements corrects ? Certains défendent l’idée que les biais ne sont que le produit accidentel, c’est-à-dire hautement dépendent des circonstances et de l’environnement du sujet, d’un système de raisonnement qui devrait en principe remplir précisément ce rôle (Todd & Gigerenzer 2012). De plus, se pose la question de savoir ce qui décide de la conformité d’un jugement, c’est-à-dire une question concernant la base à partir de laquelle un jugement est correct ou incorrect (Pohl 2005). Nous présentons les détails de cette position dans la section 3.

Ces trois critères descriptifs ne sont cependant pas suffisants pour distinguer les biais cognitifs de simples « accidents » de raisonnement. À dire vrai, ce qui distingue les biais des autres types d’erreurs n’est pas exactement clair comme le fait remarquer Rüdiger Pohl (2005). Tournons-nous maintenant vers la question de la nature des biais cognitifs afin de comprendre en quoi ils constituent des entités à part.

Une façon simple et directe de parler de la nature des biais cognitifs est de les identifier à des types d’erreurs de raisonnement commises de manière plus ou moins fréquente et systématique. Mais cela ne nous dit pas quelle sorte d’objet les biais cognitifs sont. Trois questions principales au moins émergent de la littérature concernant le statut ontologique des biais  : i) Quel type d’entité les biais cognitifs sont-ils ? ii) Quelle est la nature de la relation qui les lie aux heuristiques et aux croyances produites ? iii) Sont-ils distincts des attitudes implicites ? Des éléments de réponse sont fournis par la littérature mais ces questions ne sont pas adressées directement. Dans ce qui suit nous traiterons ces trois questions et passerons en revue quelques réponses possibles, déductibles de la littérature sur les biais cognitifs.

Selon certaines formulations de la théorie des biais, les biais cognitifs sont des tendances (Carter & Pritchard 2015, Roberts & West 2015, Samuelson & Church 2015). Plus précisément, il s’agirait de tendances à commettre des erreurs de raisonnement, plus ou moins systématiques. Selon d’autres formulations, il s’agirait de « tendances à associer certains concepts automatiquement » (« tendencies to automatically associate concepts with one another » Saul 2013). Ainsi, on peut observer que la littérature psychologique et philosophique décrit des cas de biais particuliers en termes de « tendances » au moins, bien qu’ils ne soient pas explicitement identifiés l’un avec l’autre. Par exemple : le biais égocentrique est une tendance à se percevoir comme étant meilleur que les autres sur bien des plans (McKay & Dennett 2009) ; le biais rétrospectif est une tendance à croire erronément qu’on aurait été capable de prédire correctement la suite des événements (Hawkins & Hastie 1990, Baron 2007) ; le biais du faux consensus est une tendance à croire que ses propres croyances sont partagées par le plus grand nombre (Maynes 2015) ; et ainsi de suite. En ce sens, c’est le statut ontologique le moins contraignant que l’on puisse attribuer aux biais cognitifs, puisque selon cette formulation, ils sont identifiés à des tendances et que les tendances ne sont rien de plus qu’un effet observé plus ou moins récurrent. En ce sens les biais cognitifs ne sont pas identifiés à des causes ou à des entités psychologiques et donc lorsque l’ont dit que les biais cognitifs sont des tendances, l’engagement ontologique requis est peu conséquent.

Une question que posent ces tendances est de savoir si elles résultent de processus innés ou acquis. En lien avec cette question, on trouve celle du lien des biais cognitifs avec les théories du système dual. Certains partisans de la théorie du système dual identifient les biais cognitifs comme issus de ce que l’on appelle le « système 1 » (Kahneman & Frederick 2002). Le système 1 fait partie d’une paire de systèmes, les systèmes 1 et 2, (cette terminologie en particulier provient de l’article de Stanovich et West (2000)) – qui ensemble forment ce qui est appelé le « système dual ». Selon les théories du système dual, la capacité à raisonner fonctionne selon deux modes, système 1 et système 2 (Stanovich & West 2000, Evans & Stanovich 2013, Evans & Frankish 2009). Par « système » Daniel Kahneman souligne qu’il faut comprendre qu’il s’agit une « fiction utile ». Kahneman veut dire que les systèmes 1 et 2 « ne sont pas des systèmes au sens habituel, des entités dont des aspects ou des composants entrent en interaction. Et il n’y a aucune région du cerveau que l’un ou l’autre pourrait considérer comme son chez-soi. » (Kahneman 2011b) Le système 1 et le système 2 font office de raccourcis pour parler de deux types de fonctionnement de la cognition.

Une grande partie des théories du système dual caractérise le système 1 comme rapide, ne nécessitant que très peu d’effort, et procédant à des inférences simples ; le système 2 au contraire est caractérisé comme lent, requérant plus d’effort, et procédant à des opérations cognitives sophistiquées. Contrairement au système 2, le système 1 opère par défaut. La question de savoir si les processus issus du système 1, tels que ceux menant aux biais cognitifs, sont innés est débattue. Evans et Stanovich (2000), et Zizzo (2000) pensent que ces processus ne sont pas uniquement innés.

Une autre option consiste à comprendre les biais cognitifs comme une propriété attribuée à des croyances et à des sujets. Cette hypothèse est le plus souvent implicite dans la littérature. Typiquement on y décrit les biais cognitifs avec des formulations au passif : il s’agit d’« être biaisé » (« to be biased » en anglais) plutôt que d’ « avoir un biais ». « Être biaisé » semble se référer à la propriété d’une croyance ou d’un sujet – la propriété d’avoir une position épistémique faussée. Cette propriété est instanciée dans des phénomènes divers : le sujet emploi la mauvaise règle de raisonnement (par exemple, une heuristique de disponibilité), ignore les bonnes règles de raisonnement (par exemple, la loi de la conjonction), est influencé par une information envers laquelle il est incliné (comme les cas de biais de confirmation), qu’il n’avait pas auparavant (dans le cas du biais rétrospectif par exemple) ou non pertinente. D’une manière ou d’une autre, la position du sujet est faussée. Il s’agit de cette propriété que décrit la propriété d’être biaisé et dont les conditions d’instanciations sont diverses. En résumé, selon cette hypothèse un jugement ou un sujet est biaisé lorsqu’il se trouve dans une position épistémique faussée par rapport aux faits et que cela est dû à l’un des phénomènes énoncés ci-dessus.

Cette hypothèse a plusieurs avantages. Le premier est d’unifier les différentes théories des biais et heuristiques, puisqu’elle insiste sur ce qu’elles ont toutes en commun, à savoir la description d’une relation faussée entre l’agent et les faits. L’hypothèse en cours d’examen a également l’avantage de respecter la sémantique du terme « biais » lui-même. Finalement, elle offre l’avantage d’être fidèle à l’analogie originelle des biais cognitifs avec les erreurs et illusions perceptuelles dans l’article de Tversky et Kahneman (1974) :

« L’estimation subjective de probabilités est similaire à l’estimation subjective de quantités physiques, comme celle des distances ou des tailles. Ces jugements sont tous basés sur des données à validité limitée, lesquelles sont processée selon des règles heuristiques. Par exemple, la distance apparente d’un objet est déterminée en partie par sa clarté. Le plus nettement l’objet est perçu, le plus près il paraît. Cette règle a une certaine validité, parce que/puisque dans n’importe quelle scène les objets les plus distant sont perçu moins nettement que les objets les plus proches. Cependant, se servir de cette règle mène à erreurs systématiques lorsqu’on estime des distances. Précisément, les distances sont souvent surestimées lorsque la visibilité est mauvaise à cause des contours brouillés de l’objet. D’un autre côté, les distances sont souvent sous-estimées lorsque la visibilité est bonne, puisque les objets apparaissent nettement. Ainsi, se servir de la clarté comme indication mènent à des biais communs. On retrouve de tels biais dans les estimations intuitives de probabilités. » (Tversky & Kahneman 1974, traduction de l’anglais au français par l’auteur)

Dans ce paragraphe, Tversky et Kahneman exposent leur notion de biais et d’heuristique en analogie avec les illusions perceptives. De la même façon que l’usage incorrect d’une règle « plus l’objet est loin plus il est flou », cause parfois l’illusion qu’un objet est plus près qu’il ne l’est vraiment, l’usage incorrect d’une règle de raisonnement mène à un biais cognitif. L’analogie des biais cognitifs avec les illusions perceptives met en lumière le mécanisme liant heuristiques et biais cognitifs, bien que le cas des illusion perceptives soit plus clair : le sujet forme une croyance fausse sur la base d’une expérience visuelle. Selon cette analogie, dans le cas des biais cognitifs le sujet forme donc une croyance fausse sur la base d’un raisonnement.

Finalement, certains auteurs traitent les biais cognitifs comme s’il s’agissait du produit même du mécanisme de recours aux heuristiques, c’est-à-dire comme une croyance, ou comme un ensemble de croyances (Tversky & Kahneman 1974, Polonioli 2016). Cet ensemble de croyances correspond à l’ensemble des réponses déviantes et systématiques rapportées par les études psychologiques. Il semble en effet à certains moments que Tversky et Kahneman identifient les biais cognitifs avec ce qui résulte du recours à une heuristique, et donc à des jugements. Cette hypothèse respecte également l’analogie avec les illusions perceptuelles puisqu’on parle également d’une illusion perceptuelle comme une croyance fausse. La croyance fausse étant le produit d’un usage incorrect d’une règle au sujet de la perception visuelle, si l’analogie est respectée, alors un biais cognitif peut être considéré comme le produit du recours à un biais. Il s’agit de l’hypothèse la plus simple d’un point de vue explicatif.

Nous sommes donc en position de faire au moins trois hypothèses quant à la nature des biais cognitifs à partir des descriptions présentes dans la littérature. « Biais cognitifs » dénote soit une habitude de la cognition, soit une propriété épistémique, soit le produit du recours aux heuristiques, lors d’un raisonnement.

Biais et heuristiques semblent inextricablement liés. La nature exacte de leur relation est rarement explicitée cependant. Elle est parfois assimilée à une relation causale où les heuristiques sont la cause et les biais les effets. La piste causale semble présente dès les débuts du projet « biais et heuristique » de Tversky et Kahneman, lorsqu’eux-mêmes parlent de biais en termes de résultats de l’usage d’une heuristique (Tversky & Kahneman 1974). Plus simplement, il semble aussi être le cas que les heuristiques soient postulées afin d’expliquer la présence de biais cognitifs. Ainsi biais et heuristique serait liés par une relation d’explication où l’heuristique est l’explanans et le biais l’explanandum. Une telle relation est moins coûteuse en termes d’engagement ontologique comparée à la postulation d’une relation causale.

Aux discussions autour des biais cognitifs se mêlent parfois celles au sujet des biais implicites ou attitudes implicites. Ces discussions donnent l’impression que les deux phénomènes sont identiques. Nous passerons brièvement en revue les traces de cette possible confusion, ainsi que les descriptions des biais implicites qui la soutiennent et la contredisent.

Une attitude implicite envers un certain groupe (social) est un phénomène psychologique selon lequel un sujet montre des signes cognitifs et comportementaux de préjugé contre ce groupe. Le sujet n’en est pas conscient et n’accepte pas nécessairement les vues représentées par ces biais. Une attitude implicite peut aussi fonctionner en faveur d’un certain groupe. Dans ces cas, un sujet montre des signes de partialité en faveur de ce groupe. En cas d’attitude explicite au contraire, le sujet reconnaît consciemment sa partialité négative ou positive envers le groupe en question (Schwartz & al. 2006). Par exemple, Marlène a une attitude positive envers les personnes aux cheveux roux car son frère qui est une personne gentille et joyeuse a les cheveux roux. Marlène s’en rend compte et est consciente de sa tendance à montrer des signes de partialité envers les personnes aux cheveux roux. Dans ce cas, l’attitude positive du sujet envers un certain groupe est explicite.

Prenons un exemple qui au contraire illustre une attitude implicite. Thomas fait partie du comité d’engagement d’une entreprise. Thomas est généralement bienveillant et juste et il pense que tous les individus ont la même valeur, peu importe leur apparence. Si on demandait à Thomas quelles sont ses vues sur la partie de la population qui est en surpoids, il dirait qu’il n’a rien à reprocher à ces gens. Thomas s’accorde à croire que les personnes en surpoids méritent un traitement égal aux personnes qui ne sont pas en surpoids et son comportement la plupart du temps semble guidée par cette croyance : il ne persécute par les personnes obèses ni ne montre de mépris ouvert envers ce groupe. Pourtant Thomas n’a jamais engagé de personnes en surpoids. Ses collègues et ses amis sont tous des personnes plutôt sveltes et il a tendance à ne pas s’asseoir à côté de personnes en surpoids. De plus, lorsqu’un psychologue lui demande d’associer le concept de personne en surpoids avec des mots exprimant des valeurs positives et négatives, Thomas est plus lent à associer des mots positifs avec le concept de personne en surpoids et plus rapide à l’associer avec des mots exprimant une valeur négative. En fait, Thomas a une attitude implicite envers les personnes en surpoids, peu importe sa croyance explicite.

« Implicite » peut se référer soit au fait que nous ne sommes généralement pas conscients de ces attitudes, soit à l’aspect automatique des attitudes implicites. Ainsi, même si on est conscient de son attitude, celle-ci peut tout de même être qualifiée d’implicite parce que le sujet ne peut simplement décider de l’abandonner. « Implicite » se réfère également aux tests par lesquels les attitudes peuvent être détectées, qui utilisent des méthodes dites implicites (Brownstein 2015).

En cela on retrouve certaines caractéristiques descriptives des biais cognitifs, comme l’involontarité et l’opacité. Quant à l’inconformité des attitudes implicites, celle-ci divise les chercheurs. Tamar Gendler par exemple pense que les attitudes implicites ne sont pas épistémiquement inconformes mais seulement moralement inconformes (Gendler 2011). C’est-à-dire que les attitudes implicites résultent non pas de l’usage de règles incorrectes mais de règles correctes. Selon Gendler ce qui pose véritablement problème est que ces règles de raisonnement mènent à des conclusions moralement et politiquement injustes.

Les biais cognitifs et les attitudes implicites sont associés sans ambiguïté par certains philosophes (Saul 2013, Carter & Pritchard 2015). Leurs mécanismes et caractéristiques sont similaires. En effet, dans les cas d’attitudes implicites on parle aussi de tendances inconscientes à associer automatiquement certains concepts (Saul 2013). La différence est que les biais cognitifs sont un phénomène général de la cognition. Ils ne se réfèrent pas à un effet déterminé, comme la discrimination de certains groupes sociaux. On parle des attitudes implicites en relation à un jugement de valeur et à leurs effets discriminatoires : une attitude implicite est une forme inconsciente de préjudice. Une attitude implicite aura un contenu du type « Tous les X ont une valeur V ; cette personne est un X ; donc cette personne est V ». Il y a donc deux composantes importantes : une sorte de biais cognitif (généralisation, heuristique de la disponibilité, ou biais de confirmation, par exemple) combiné à un jugement de valeur. Il semble donc que les attitudes implicites dépendent de biais cognitifs au moins conceptuellement.

Michael Brownstein et Jennifer Saul ont récemment édité deux volumes sur les attitudes implicites. Ces volumes contiennent des essais sur la métaphysique et l’épistémologie des attitudes implicites, ainsi que sur l’éthique des attitudes implicites. (Brownstein & Saul 2016)

L’existence de biais cognitifs constitue un obstacle au bon raisonnement. Par extension, on peut se demander si les biais cognitifs ne sont pas également un obstacle à la connaissance. En effet, il semble que les biais cognitifs mettent en jeu la fiabilité des mécanismes épistémiques sensés mener à la connaissance. Cette idée pose particulièrement problème aux théories épistémologiques qui incluent la fiabilité du mécanisme de formation des croyances (fiabilisme en épistémologie des vertus, ou « reliabilisme » en anglais, voir John Greco 1999, Ernest Sosa 2007) ou celle de l’agent épistémique (ou « responsibilisme » en anglais, voir Linda Zagzebski 1996) dans leur définition de la connaissance. C’est le cas par exemple de l’épistémologie des vertus qui regroupe entre autres ces deux approches. Les biais cognitifs présentent également un défi sceptique plus général, s’il l’on accepte l’idée qu’ils sont indélogeables. Les biais cognitifs posent donc deux défis : un défi sceptique général (a) et un défi particulier pour l’épistémologie des vertus (b). Dans ce qui suit nous passons en revue ces deux défis.

Mark Alfano fait appel aux biais cognitifs pour poser un défi au « fiabilisme », une des deux variantes principales de l’épistémologie des vertus évoquée plus haut. On l’appelle le défi situationniste (Alfano 2012, 2014). Plus précisément, selon Alfano ce défi se pose clairement pour le responsabilisme et, a fortiori, doit s’étendre également au fiabilisme. Le situationnisme énonce que les agents épistémiques ne possèdent ni les vertus que le responsabilisme leur prête ni les mécanismes fiables de formation de croyance requis par le fiabilisme. À noter que la position situationniste trouve son origine dans une critique de l’éthique des vertus qui s’applique par extension à l’épistémologie des vertus (Alfano 2012).

L’argument d’Alfano est le suivant. Les fiabilistes et les responsabilistes pensent que nos nous avons de la connaissance lorsque que nous avons une croyance vraie à cause nos vertus intellectuelles. La recherche en sciences cognitives montre cependant que nous utilisons rarement de telles vertus. Il semble être le cas que nous avons un nombre important de connaissances. Or, prendre en compte les découvertes des sciences cognitives tout en maintenant une position fiabiliste ou responsabiliste semble conduire à la conclusion qu’au contraire, nous n’avons que très peu de connaissances. Les fiabilistes donc font face au dilemme suivant. Il faut soit admettre l’usage des heuristiques comme une vertu, soit admettre que la plupart des gens n’ont que très peu de croyances justifiées, et donc très peu de connaissances. Alfano propose également des raisons de ne pas accepter l’usage des heuristiques comme une vertu, en insistant sur la différence entre des règles de raisonnement raisonnables et les heuristiques : les règles heuristiques, contrairement aux bonnes règles de raisonnement, sont hautement dépendantes du contexte pour leur efficacité.

Tout comme on se trompe au sujet de données perceptuelles, on commet des erreurs de raisonnement. Les biais cognitifs entraînent des réponses inappropriées : on imagine avoir compris depuis le début ce qu’il allait se passer, on conclue trop hâtivement le pire, on surestime ses propres capacités, etc.

Ces biais cognitifs constituent des raisons d’être sceptique de l’objectivité de nos jugements : peut-on jamais compter sur nos estimations et nos décisions rapides lorsque les données et le temps sont limités ? L’hypothèse des biais et des heuristiques donne l’impression qu’il est très difficile de produire des jugements précis et objectifs. Pour cette raison, beaucoup jugent que la théorie des biais et des heuristiques est une théorie pessimiste si celle-ci prédit que la cognition humaine fonctionne fondamentalement mal (Samuels 2002).

Jennifer Saul (2013) parle d’une forme particulière de scepticisme, un « doute lié aux biais » (« bias related doubt »). Saul avance l’argument selon lequel on ne peut pas se fier aux facultés qui nous permettent d’acquérir des connaissances sur la base de ce que l’on sait à propos des biais. Les biais menacent la connaissance en vertu du fait que les mécanismes qui nous permettent de former des croyances sont problématiques. Le « doute lié aux biais » diffère du scepticisme traditionnel, dit Saul, en cela qu’il n’est pas tenu aux confins du cours de philosophie : il ne s’agit pas seulement de la possibilité d’un malin génie – d’une possibilité toute théorique –, mais de bonnes raisons de penser que la théorie des biais est vraie. Son argument vise à mettre en garde de manière pratique contre la façon dont nos jugements peuvent être « infectés » par des biais.

Adam Carter et Duncan Pritchard (2014) répondent aux défis de Saul et d’Alfano, auxquels ils donnent le nom de « le scepticisme amené par les biais » (« bias driven specticism »), et en décrivent trois formes : faible, intermédiaire et forte. La forme faible défend que nous ayons moins de connaissance que nous le croyons. La forme intermédiaire défend que tant que les biais cognitifs jouent un rôle dans la formation d’une croyance, celle-ci ne pourra jamais compter comme de la connaissance. Finalement, la forme forte va plus loin et énonce que puisqu’on ne peut pas éliminer la possibilité de la présence d’un biais, on ne peut pas atteindre la connaissance. Carter et Pritchard suggèrent que ce type de scepticisme, spécialement sous sa forme intermédiaire et forte, ne présente pas de menace aussi évidente pour la connaissance mais qu’en revanche, la présence de biais cognitifs est une menace pour la compréhension («understanding»). Selon eux, la cible réelle du « scepticisme amené par les biais » est donc la compréhension et non la connaissance.

Leur idée est la suivante. Une réussite cognitive (« cognitive achievement ») a une valeur spéciale par rapport à un succès cognitif (« cognitive success ») : Une réussite cognitive est un succès cognitif attribué à l’agent et à l’exercice vertueux de ses capacités, mais tous les succès cognitifs, comme parfois la connaissance, ne sont pas des réussites cognitives. Comme ce que le fonctionnement des biais révèle est l’absence partielle du rôle de l’agent dans la formation de ses jugements, ce sont les réussites cognitives et non pas les succès cognitifs qui sont la réelle cible du « scepticisme amené par les biais ». Toujours selon Carter et Pritchard, certains cas de connaissance, bien que comptant comme succès cognitifs, ne sont pas des réussites cognitives. La connaissance est donc parfois à l’abri de la menace du « scepticisme amené par les biais ». La compréhension en revanche étant par définition un cas de réussite cognitive est donc vulnérable à cette forme de scepticisme.

Un des problèmes les plus discutés au sujet des biais cognitifs concerne leur rationalité. Dès les travaux de Tversky et Kahneman (1974) on considère d’emblée les biais cognitifs comme irrationnels. Ils constituent une anomalie, plus fréquente que rare, mais une anomalie du raisonnement tout de même. Le modèle comparatif est celui d’une rationalité non sans défauts mais qui optimalement prend en compte les règles de raisonnement logique et probabilistes. Par exemple, l’agent rationnel idéal n’ignore pas la fréquence de base lors de l’estimation de la profession de Benjamin (cf. 1.b. Oubli de la fréquence de base) ; elle ne remplace pas une question de probabilité par une question de plausibilité (cf. 1.b. Heuristique de la disponibilité) ; et tient compte de la loi de la conjonction (cf. 1.b. Linda). En comparant les jugements biaisés aux jugements conformes aux règles de raisonnement, on en vient à la conclusion que les biais cognitifs sont irrationnels et en cela menace la rationalité humaine.

Cette conclusion est largement remise en cause par Jonathan Cohen (1981) mais aussi par une approche alternative de la théorie des biais et des heuristiques : la rationalité écologique. Selon les partisans de cette approche (Simon 1956, 1982, Gigerenzer 1991, Todd & Gigerenzer 2012) le recours aux heuristiques dans le raisonnement ne doit pas être vu purement comme un handicap à éliminer de la cognition. Au contraire, certaines circonstances se prêtent particulièrement bien à leur usage. Ces circonstances impliquent typiquement du temps et des données limités, ainsi que des enjeux pratiques élevés. Dans de telles situations c’est justement les heuristiques qui permettent de produire les meilleurs jugements possibles compte tenu des circonstances. Selon la rationalité écologique, la rationalité ne repose pas sur des règles de raisonnement indépendantes de l’environnement dans lequel un jugement est produit, mais sur des règles heuristiques dont l’efficacité et l’exactitude dépendent de leur environnement. Par environnement, on entend également la connaissance de l’agent au moment du jugement, les enjeux de la situation, les données disponibles, etc.

Cet aspect de notre cognition explique, disent les partisans de la rationalité écologique, pourquoi les biais cognitifs entraînent parfois des erreurs. Les jugements erronés qu’ils produisent surgissent lorsque l’usage d’une heuristique n’est pas approprié pour leur environnement. Il s’agit dirons-nous de la thèse faible de la rationalité écologique à propos de la théorie des biais et des heuristiques. Selon la thèse forte ce sont seulement les conditions d’expérimentation mises en place par les psychologues qui causent les participants de ces études à se tromper. Par exemple, il est possible que les sujets ne comprennent pas bien l’énoncé du problème (Gigerenzer, Fiedlder & Olsson 2012), alors que dans d’autres conditions les sujets ne se tromperaient pas (Boudry, Vlerick & McKay 2015).

Les objections que posent la rationalité écologique aux approches précédentes des biais cognitifs, s’étendent à des questions concernant la rationalité ou l’irrationalité des biais. En effet, l’idée selon laquelle les biais cognitifs et les heuristiques sont respectivement des caractéristiques et des outils inhérents à notre cognition, laquelle est un produit d’une adaptation, est liée à l’idée selon laquelle nous n’avons pas de raisons de conclure que les biais sont irrationnels. Pour les deux positions, il est crucial de considérer les biais et heuristiques non pas comme des anomalies, mais comme des ajustements de notre cognition à certaines conditions. Evans (2007) insiste sur ce point : les biais cognitifs ne sont considérés comme des anomalies que relativement à un système de normes de raisonnement. Il est même possible de comprendre les biais cognitifs comme étant des indicateurs des limitations de notre système cognitif, de la même façon que l’oubli d’un long numéro de téléphone en est un. En ce sens, les biais cognitifs et le recours aux heuristiques ne sont que des aspects supplémentaires de ce qu’Herbert Simon appelait la rationalité limitée (Simon 1982).

L’essentiel à retenir de l’ensemble de ces critiques est que ce sont les normes de rationalité largement acceptées qui nous présentent les biais cognitifs comme mauvais. Andrea Polonioli (2012, 2013, 2014, 2015, 2016) défie cette critique générale – qu’il nomme « rationalité adaptive » plutôt que rationalité écologique. Même s’il concède que les biais cognitifs puissent résulter d’une conception des normes de raisonnement parfois trop étroite, Polonioli met en garde contre un rejet prématuré de ces normes. Une idée souvent associée au rejet de ces normes et dont il faut également se méfier selon Polonioli est que nos succès épistémiques et pratiques sont fréquents. Plus généralement, Polonioli insiste sur l’importance de prendre bonne note du fond du désaccord entre les approches « classiques » et les approches écologiques, qui concernent finalement ce qui constitue un jugement rationnel (Polonioli 2013).

Que les biais cognitifs constituent des anomalies ou non, ils semblent bel et bien faire partie de la cognition humaine. Il est donc normal que l’on ait récemment vu les philosophes s’y intéresser et les intégrer à leurs théories. Bien que l’attention soit principalement portée sur les attitudes implicites (notamment en éthique et en épistémologie), les biais cognitifs eux aussi suscitent un certain intérêt.

John Hawthorne (2004) et Timothy Williamson (2005) font chacun appel à la théorie des biais et des heuristiques afin d’offrir une explication possible aux réticences à attribuer de la connaissance à soi-même et aux autres. Jennifer Nagel (2010) adresse une objection à leurs arguments : les biais et les heuristiques auxquels il est fait appel dans ces articles ne sont pas pertinents pour expliquer les tendances sceptiques des sujets lors d’attributions de connaissance dans certains contextes. Nagel avance que selon la recherche empirique, il est peu probable que les biais en question soient responsable de tels changements d’attitudes. Nagel a elle-même recours à la théorie de Tversky et Kahneman dans son approche du paradoxe Harman-Vogel (2011). Le paradoxe, ou le modèle d’intuitions Harman-Vogel, concerne des cas d’attributions de connaissance des propositions P et Q, où P implique Q. Selon le principe de clôture épistémique, si S sait que P et que S sait que P implique Q, alors S sait que P. Le problème est qu’il semble contre-intuitif de dire que S sait que Q dans certains contextes. Par exemple, même si Smith sait que sa voiture est parquée sur l’avenue A, et qu’elle sait que si sa voiture est parquée à l’avenue A, alors sa voiture n’est pas à la fourrière, alors Smith sait que sa voiture n’est pas à la fourrière. Nombreux ont l’intuition que l’on ne devrait pas conclure que Smith sait que sa voiture n’est pas à la fourrière. Selon Nagel, lorsque nous évaluons les cas de Harman-Vogel, nous nous mettons à la place du sujet. Une heuristique de représentativité permet de nous imaginer facilement où notre voiture est parquée, mais au moment de s’imaginer savoir qu’elle n’est pas à la fourrière, le recours à l’heuristique ne suffit pas. Le passage à un mode de cognition plus rigoureux met en lumière que plus de preuves sont requises pour stipuler que Smith sait que sa voiture n’est pas à la fourrière, preuve que Smith n’a pas.

Un peu en marge du domaine de l’épistémologie, Alfred Mele (1997, 2001, 2006) intègre la notion de biais cognitif dans sa théorie de la duperie de soi. Mele propose que le sujet désire que P soit le cas et établit ainsi un biais cognitif en faveur de P lequel contribue à amener le sujet à croire que P. La combinaison du biais et du désir explique que le sujet soit capable de se duper lui-même.

Dans ce qui précède, nous avons présenté les descriptions les plus courantes des biais cognitifs ainsi qu’une série d’exemples de biais. Nous avons ensuite abordé la question du statut ontologique des biais en considérant les différentes réponses offertes par la littérature. Nous avons posé la question de savoir s’il faut distinguer les biais cognitifs d’un autre objet qui semble similaire : les attitudes implicites. Nous avons ensuite examiné deux problèmes pour le concept de biais cognitif : le défi sceptique que les biais cognitifs posent à l’épistémologie des vertus, et le désaccord concernant la présupposée irrationalité des biais en théorie de la rationalité. Finalement, nous avons passé en revue l’utilisation des biais cognitifs en philosophie comme élément d’explication. L’intérêt philosophique des biais cognitifs réside donc pour l’instant le fait qu’ils semblent pouvoir expliquer certains phénomènes cognitifs, remettent en question certaines idées au sujet de la cognition et de ce que constitue une vie cognitive vertueuse.

Alfano, M. 2012. ‘Expanding the Situationist Challenge to Responsibilist Virtue Epistemology’. Philosophical Quarterly. 62, 223-49

Alfano, M. 2014 « Expanding the Situationist Challenge to Reliabilism about Inference » in Virtue Epistemology Naturalized: Bridges Between Virtue Epistemology and Philosophy of Science. Fairweather, A. (ed.) Dordrecht: Springer

Alfano, M., & Fairweather, A. 2014. Epistemic Situationism. Oxford: Oxford University Press

Baron, J. 2007. Thinking and Deciding 4th Edition. Cambridge: Cambridge University Press

Boudry, M., Vlerick, M. & McKay, R. 2015. « Can evolution get us off the hook? Evaluating the ecological defence of human rationality ». Consciousness and Cognition. 33, 524-535

Brownstein, M. 2015. “Implicit Bias”. The Stanford Encyclopedia of Philosophy. Zalta E.N. (ed.), URL= <http://plato.stanford.edu/archives/spr2015/entries/implicit-

Brownstein, M. & Saul, J. (eds.) 2016, Implicit Bias and Philosophy, Volumes 1 & 2. Oxford: Oxford University Press

Carter, A. & Pritchard, D. 2016. « Cognitive Bias, Scepticism and Understanding ». in Explaining Understanding: New Perspectives from Epistemology and the Philosophy of Science. Grimm, S., Baumberger, C. &. Ammon, S. (eds.) Routledge

Cohen, L. J. 1981. “Can human irrationality be experimentally demonstrated?”. Behavioral and Brain Sciences. 4:3, 317-331

Evans, J. 2007. Hypothetical Thinking: Dual Processes in Reasoning and Judgement Essays in Cognitive Psychology. Hove: Psychology Press

Evans, J., Frankish, K. 2009. In Two Minds: Dual Processes and Beyond. OUP

Fischhoff, B. 1982. « For those condemned to study the past: heuristics and biases in hindsight » in Kahneman, D., Slovic, P. & Tversky, A. (eds). Judgement under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press

Galbraith, N. (ed) 2015. Aberrant Beliefs and Reasonning. Hove: Psychology Press

Gendler, T. 2011. « On the epistemic costs of an implicit bias ». Philosophical Studies. 156, 33–63

Gigerenzer, G. 1991. « How to Make Cognitive Illusions Disappear: Beyond ‘Heuristics and Biases’ ». European Review of Social Psychology. 2, 83–115

Gigerenzer, G., Fielder, K., & Olsson, H. 2012. « Rethinking Cognitive Biases as Environmental Consequences »

Gilovich, T., Griffin, D. & Kahneman, D. 2002. Heuristics and Biases: The Psychology of Intuitive Judgement. Cambridge: Cambridge University Press

Greco, J.  1999 “Agent Reliabilism”, in Tomberlin, J. (ed.). Philosophical Perspectives. Atascadero: Ridgeview Press, 273-296

Griffin, D. & al. 2012 « Judgmental Heuristics: A Historical Overview » in The Oxford Handbook of Thinking and Reasoning, Holyoak, K. & Morrison, R. (eds). Oxford: OUP, 322-345

Haselton, M. et al., 2009 « Adaptive rationality: an evolutionary perspective on cognitive bias » Social Cognition. 27 :5, 733-763

Hawkins, S., & Hastie, R. 1990 « Hindsight: Biased judgements of past events after the outcomes are known ». Psychological Bulletin. 107 :3, 311-327

Hawthorne, J. 2004. Knowledge and lotteries. Oxford: OUP

Holyoak, K. & Morrison, R. (eds). 2012. The Oxford Handbook of Thinking and Reasoning. Oxford: OUP

Kahneman, D. 2002 « Maps of bounded rationality: a perspective on intuitive judgement and choice » Nobel Prize Lecture

Kahneman, D. (2011). Thinking, Fast and Slow. Harmondsworth: Penguin.

Kahneman, D. & Frederick, S. 2002 « Representativeness revisited: attribute substitution in intuitive judgement ». in Gilovich, T., Griffin, D. & Kahneman, D. (eds) Heuristics of Intuitive Judgement: Extensions and Applications. New York: Cambridge

Kahneman, D., Slovic, P. & Tversky, A. (eds) 1982. Judgement under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press

Kelman, M. 2011. The Heuristics Debate. Oxford: OUP

Lord, C., Ross, L. & Lepper, M. 1979 « Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence ». Journal of Personality and Social Psychology. 37: 11, 2098-2109

Manktelow, K. 2012. Thinking and Reasoning: An Introduction to the Psychology of Reason, Judgement and Decision Making. Hove: Psychology Press

Maynes, J. 2015 « Critical Thinking and Cognitive Bias ». Informal Logic. 35 :2, 183-203

McKay, R. & Dennett, D. 2009. « The evolution of misbelief » Behavioral and Brain Sciences. 32, 493-561

Mele, A. 1997. “Real Self-Deception”. Behavioral and Brain Sciences. 20, 91-102

Mele, A. 2001. Self-Deception Unmasked. Princeton: Princeton University Press

Mele, A. 2006, “Self-Deception and Delusions”. European Journal of Analytic Philosophy. 2:1, 109-124

Mussweiler, T, Englich, B. & Strack, F. 2005 « Anchoring Effect » in Cognitive Illusions. Pohl, R (ed.). Hove: Psychology Press, 183-200

Nagel, J. 2010. « Knowledge ascriptions and the psychological consequences of thinking about error ». Philosophical Quarterly .60: 239, 286-306

Nagel, J. 2011. « The Psychological Basis of the Harman-Vogel Paradox ». Philosophers’ Imprint. 11: 5, 1-28

Oaksford, M. & Chater, N. 2007. Bayesian Rationality: The Probabilistic approach to human reasoning. Oxford: OUP

Oswald, M. & Grosjean, S. 2005 « Confirmation Bias » in Cognitive Illusions. Pohl, R (ed). Hove: Psychology Press, 79- 96

Pachur, T & al. 2012 « When Is the Recognition Heuristic an Adaptive Tool? » in Ecological Rationality. Todd, P. & Gigerenzer, G. (eds) Oxford: OUP, 113-144

Pohl, R (ed). 2005. Cognitive Illusions. Hove: Psychology Press

Polonioli, A. 2012. « Gigerenzer’s ‘external validity argument’ against the heuristics and biases program: an assessment ». Mind & Society. 11 :2, 133-148

Polonioli, A. 2013. « Re-assessing the Heuristics debate ». Mind & Society. 12 :2, 263-271

Polonioli, A. 2014. « Blame it on the norm: the challenge from ‘Adaptive Rationality’ ». Philosophy of the Social Sciences. 44 :2, 131-150

Polonioli, A. 2015. « Stanovich’s arguments against the “adaptive rationality” project: An assessment ». Studies in History and Philosophy of the Biological and Biomedical Sciences. 49, 55-62

Polonioli, A. 2016. « Adaptive Rationality, Biases, and the Heterogeneity Hypothesis ». Review of Philosophy and Psychology. 7: 4, 787-803

Reber, R. 2005. « Availability » in Cognitive Illusions. Pohl, R (ed.). Hove: Psychology Press, 147- 163

Roberts, R. & West, R. 2015 « Natural epistemic defects and corrective virtues » Synthese. 192:2557–2576

Samuels, R., Stich, S., & Bishop, M. 2002. « Ending the Rationality Wars: How to Make Disputes About Human Rationality Disappear ». in Common Sense, Reasonning and Rationality. Elio, R. (Ed.). New York: OUP

Samuelson, P. & Church, I. 2015. « When cognition turns vicious: heuristics and biases in light of virtue epistemology ». Philosophical Psychology. 28 :8. 1095-1113

Saul, J. 2013 « Scepticism and Implicit Bias » Disputatio 5, 243-63

Sosa, E. 2007. A Virtue Epistemology. Oxford: Clarendon Press

Schwartz, M. & al. 2006. « The Influence of One’s Own Body Weight on Implicit and Explicit Anti-fat Bias ». Obesity. 14: 3, 440-447

Schwarz, N. & al. 1991. « Ease of Retrieval as Information: Another Look at the Availability Heuristics ». Journal of Personality and Social Psychology. 61 :2, 195-202

Schooler, L., Hertwig, R. & Herzog, S. 2012 « How Smart Forgetting Helps Heuristics Inference » in Ecological Rationality. Todd, P. & Gigerenzer, G. (eds) Oxford: OUP, 144-166

Simon, H. 1956. « Rational Choice and the Structure of the Environment ». Psychological Review. 63 :2, 129-138

Simon, H. 1982. Models of Bounded Rationality: Empirically Grounded Economic Reason. Cambridge: MIT Press

Stanovich, K. 2010. What Intelligence Tests Miss: The Psychology of Rational Thought. New Haven: Yale University Press

Stanovich, K. & West, R. “Individual differences in reasoning: Implications for the rationality debate?”. Behavioral And Brain Sciences. 23:5, 645–726

Strack, F. & Mussweiler, T. 1997. « Explaining the enigmatic anchoring effect: Mechanisms of selective accessibility ». Journal of Personality and Social Psychology. 73, 437–446.

Todd, P. & Gigerenzer, G. 2012. Ecological Rationality. Oxford: OUP

Tversky, A. & Kahneman, D. 1974 « Judgement under Uncertainty: Heuristics and Biases ». Science, New Series. 185: 4157, 1124-1131

Tversky, A. & Kahneman, D. 1983 « Extensional vs. Intuitive Reasonning: The Conjunction Fallacy in Probability Judgment». Psychological Review.

Williamson, T. 2005. « Contextualism, Subject-Sensitive Invariantism and Knowledge of Knowledge ». The Philosophical Quarterly. 55: 219, 213-235

Zagzebski, L. 1996. Virtues of the Mind, Cambridge: Cambridge University Press

Zizzo, D. J. 2000 “Implicit learning of (boundedly) rational behaviour”. Behavioral and Brain Sciences, 23:5, 700-701

Marie van Loon
Unisersity of Basel
marie.vanloon@unibas.ch

Comment citer cet article ? 
Van Loon, M. (2018), « Biais cognitifs », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL: http://encyclo-philo.fr/biais-cognitifs-a/