Causalité (A)

Comment citer ?

Blanchard, Thomas (2018), «Causalité (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/causalite-a

Publié en septembre 2018

 

Résumé

La notion de causalité joue un rôle essentiel dans la compréhension ordinaire, scientifique et philosophique du monde. Nous nous interrogeons quotidiennement sur les causes ou les effets de tel ou tel phénomène – pourquoi la cafetière ne marche pas, quelles conséquences aura telle ou telle politique sur l’emploi, etc. La plupart des sciences ont pour but principal la recherche des causes. Et un certain nombre de concepts philosophiques fondamentaux – la connaissance, l’action, la responsabilité morale, etc. – sont difficiles voire impossibles à comprendre sans faire appel à la notion de causalité.

Mais la notion de causalité est aussi selon un certain nombre de philosophes particulièrement problématique. Lorsque j’affirme que la chute de Marie a causé sa fracture du genou, je n’affirme pas simplement la co-occurrence de ces deux événements – la chute de Marie a aussi été suivie d’une averse, mais n’en est pas la cause. Pourquoi la fracture mais non l’averse est-elle un effet de la chute ? Les philosophes de la causalité cherchent à répondre à cette question celle de la nature du lien causal – et à d’autres tout aussi difficiles, par exemple celle de savoir pourquoi les causes précèdent leurs effets.

Malgré l’attention considérable portée à ces questions dans la philosophie contemporaine, il n’existe aujourd’hui aucun consensus sur les réponses à y apporter, ni même sur les buts d’une théorie de la causalité et les méthodes qu’elle doit employer. Après avoir introduit les principaux débats en philosophie contemporaine de la causalité, cet article présentera les deux principales théories de la causalité ayant émergé dans la seconde moitié du 20e siècle, qui analysent la causalité respectivement en termes de dépendance et en termes de processus physiques. Enfin, plusieurs approches remettant en cause certains présupposés de ces théories classiques seront examinées.


Table des matières

Introduction

a. Aux origines des débats contemporains sur la causalité : Hume et Russell
b. Le rejet de l’éliminativisme et du régularisme
c. Le statut métaphysique de la causalité : (anti)réductionnisme et (anti-)humianisme
d. Les relata causaux
e. Questions méthodologiques

1. La causalité comme dépendance (I) : la théorie contrefactuelle de Lewis

a. Causalité et contrefactuels
b. La direction de la dépendance contrefactuelle
c. Le problème de la causalité redondante

2. La causalité comme dépendance (II) : l’approche probabiliste

a. La théorie de Reichenbach
b. Objections au réductionnisme probabiliste
c. Les réseaux bayésiens causaux

3. Causalité, processus et mécanismes

a. L’approche processuelle
b. Causalité sans connexion physique et connexion physique sans causalité
c. L’approche mécaniste

4. L’antiréductionnisme causal

5. Le pluralisme causal

6. Causalité et manipulation

a. L’approche manipulationniste
b. L’interventionnisme
c. Causalité redondante et équations structurelles

7. Les faits causaux sont-ils entièrement objectifs ?

a. Causalité et normes
b. Le perspectivisme causal

8. La sélectivité des représentations causales

a. Causes et conditions
b. Stabilité et proportionnalité

Bibliographie


Introduction

 

L’intérêt philosophique de la notion de causalité tient au fait qu’elle est à la fois centrale dans notre compréhension du monde et en elle-même profondément mystérieuse. Les problèmes fondamentaux qu’elle soulève peuvent être mis au jour en examinant brièvement les œuvres de Hume (1739, 1748) et de Russell (1912), qui sont à l’arrière-plan de nombre des débats contemporains concernant la causalité.

a. Aux origines des débats contemporains sur la causalité : Hume et Russell

Hume est l’un des premiers à avoir réalisé pleinement l’importance de la causalité dans notre schème conceptuel. Elle est selon lui la seule relation permettant de « dépasser de ce qui est immédiatement présent aux sens » (1739, 132-133) et constitue ainsi le fondement de toutes nos inférences empiriques ordinaires et scientifiques. Mais pour Hume la causalité est aussi un concept profondément problématique, pour les raisons suivantes. (Je suis ici l’interprétation de Hume couramment adoptée dans la métaphysique contemporaine ; sa véritable position était probablement assez différente (Strawson 1989, Beebee 2006)). Lorsque j’affirme que c est la cause de e – par exemple que la chute de Marie a causé sa fracture du genou – je semble affirmer que le premier événement nécessite l’occurrence du second. Cette nécessitation n’étant ni logique ni conceptuelle, l’empirisme humien implique que pour être intelligible son idée doit trouver sa source dans l’expérience. Or notre expérience révèle uniquement la co-occurrence de la chute et de la fracture, non une quelconque connexion nécessaire entre les deux. L’idée de nécessitation causale est donc tout simplement pour Hume inintelligible.

Hume estime que s’il existe bien des relations causales dans la nature, celles-ci sont réductibles à de simples régularités temporelles : le lien entre une cause c et son effet e ne consiste en rien d’autre que dans le fait que les événements du type de c sont invariablement suivis d’événements du type de e. Ces régularités sont des faits bruts, non susceptibles d’une explication plus profonde. Cette définition « régulariste » de la causalité préserve l’idée que la causalité a un rôle important dans notre compréhension du monde (les représentations causales nous permettent de capturer certains faits saillants dans la manière dont les contenus de notre univers sont de facto distribués dans l’espace et le temps), mais en rejetant l’idée qu’il existe des connexions nécessaires dans la nature, qui est selon Hume lui-même un élément central de notre concept ordinaire de causalité.

Russell (1912) va beaucoup plus loin que Hume dans la remise en cause de la notion de causalité en affirmant que la science moderne ne laisse aucune place à une quelconque notion de causalité même dépouillée de l’idée de nécessitation. Alors que Hume considérait le raisonnement causal comme l’instrument principal de la science, Russell affirme que « dans des sciences aussi développées que l’astronomie de la gravitation, le mot « cause » n’apparait jamais » (1912, 3). Les lois gravitationnelles décrivent des relations de dépendance mutuelle entre mouvements des corps célestes, sans désigner certains de ses mouvements comme des « causes » et d’autres comme des « effets ». Plus généralement, les équations des théories physiques contemporaines représentent uniquement des relations symétriques de dépendance fonctionnelle entre variables qu’il est inapproprié voire même impossible de redécrire en termes causaux.

Russell soutient non seulement que la physique fondamentale ne représente pas le monde en termes causaux, mais aussi que l’image du monde que propose la physique rend impossible une quelconque réduction de la causalité à des notions scientifiquement respectables. Russell offre ici plusieurs arguments (voir (Field 2003, pp. 435-40) et Kistler (2011, sect. 1)) ; je me concentrerai sur celui concernant la direction supposée de la causalité. La causalité telle qu’entendue ordinairement est temporellement asymétrique – les causes précèdent leurs effets. Contrairement à ce que pensait Hume, selon qui une cause doit par définition précéder son effet, cette asymétrie n’est pas une nécessité conceptuelle. (Une preuve en est que nous n’avons aucune difficulté à faire sens de scénarios dans lesquels les effets précèdent leurs causes, par exemple les récits de science-fiction impliquant des voyages dans le temps (Lewis 1979, 464)). Si elle n’est pas une affaire de définition, la direction de la causalité doit donc pouvoir faire l’objet d’une explication scientifique. Or Russell note que les lois de la physique ne font aucune différence entre passé et futur : étant donné l’état de l’univers à un instant, ces lois déterminent aussi bien les états ultérieurs qu’antérieurs de l’univers (ou du moins les probabilités de ces états). Prises littéralement, nos théories scientifiques ne font donc aucune différence dans la manière dont le passé détermine le futur et la manière dont le futur détermine le passé, et n’offrent donc aucune base à la direction supposée de la causalité. Sur cette base et sur d’autres, Russell conclut que la notion de causalité n’est rien d’autre que la relique d’une vision préscientifique du monde.

b. Le rejet de l’éliminativisme et du régularisme

Si les arguments de Russell font encore l’objet de nombreuses discussions, son éliminativisme est aujourd’hui presque universellement rejeté. La seconde moitié du 20e siècle marque la redécouverte de l’indispensabilité de la notion de causalité déjà aperçue par Hume. La prolifération de « théories causales » (de la connaissance (Goldman 1967), de l’action (Davidson 1963 – voir l’entrée Action), de la référence (Kripke 1972), etc.) et l’importance qu’a la notion de causalité dans les débats contemporains sur l’esprit (voir l’entrée Causalité mentale), la responsabilité morale ou encore le libre-arbitre témoignent de sa place centrale dans notre schème conceptuel. Et si de nombreux physiciens et philosophes de la physique continuent à penser avec Russell que la notion de causalité ne joue pas de rôle essentiel en physique, le raisonnement causal joue à l’évidence un rôle essentiel dans des sciences telles que la biologie, la psychologie ou la médecine, comme en témoignent la vitalité des réflexions contemporaines sur la causalité en statistique (Spirtes et al. 1993, Pearl 2000). La médecine, par exemple, ne cherche pas simplement à établir des corrélations entre maladies et autres conditions, mais à déterminer lesquelles de ces conditions causent les maladies en question et sont donc des cibles de traitements efficaces contre ces maladies. Les représentations causales jouent ainsi un rôle essentiel non seulement dans l’inférence (comme le notait Hume), mais aussi et surtout dans le raisonnement pratique : elles sont indispensables pour identifier des « stratégies efficaces » (Cartwright 1979) pour atteindre un but.

A partir des années 70 émerge aussi un consensus sur l’idée que si les relations causales existent bel et bien, elles ne sont pas analysables en termes de régularités, du moins pas aussi simplement que Hume le pensait. Certes, une approche régulariste sophistiquée peut résoudre certains problèmes que soulève la définition de la causalité de Hume, comme le fait qu’une cause n’est pas toujours suivie de son effet ou que certains événements sont invariablement suivis d’autres sans les causer. Les théories régularistes de Mill (1843) et Mackie (1975) échappent ainsi à ces objections en exigeant seulement d’une cause qu’elle soit invariablement suivie de son effet lorsque sont réunies certaines conditions additionnelles n’étant pas elles-mêmes suffisantes pour l’effet. Même si les chutes ne sont pas toujours suivies de fractures, elles en sont donc bien les causes puisqu’une chute est toujours accompagnée d’une fracture lorsque le sol est suffisamment dur, l’os suffisamment fragile, etc. Et si le jet d’un sort sur un bloc de sel plongé dans l’eau est toujours suivi de sa dissolution (Kyburg 1965), la plongée du sel dans l’eau est en elle-même suffisante pour sa dissolution, celle-ci n’étant donc pas causée par le sort. Mais toutes les théories régularistes se heurtent à deux problèmes très majoritairement considérés comme insurmontables (voir cependant Baumgartner 2008). Premièrement, les théories régularistes ont du mal à distinguer les causes de leurs effets. L’embrasement de l’allumette est une condition suffisante pour qu’elle ait été frottée auparavant, mais elle est l’effet et non la cause du frottement. Les remarques de Russell sur la symétrie des régularités découvertes par la physique semblent en outre suggérer que toute tentative d’expliquer la distinction entre causes et effets en termes régularistes est nécessairement vouée à l’échec. Le second problème est celui dit des « causes communes ». Les circonstances où mon baromètre indique « pluie » sont invariablement suivies d’averses, si bien que les théories régularistes de Hume, Mill ou Mackie comptent toutes l’état du baromètre comme une cause de la pluie. Mais la corrélation entre ces deux facteurs n’est évidemment pas causale. Elle est due au fait qu’ils ont une cause commune, à savoir une pression atmosphérique basse.

c. Le statut métaphysique de la causalité : (anti)réductionnisme et (anti-)humianisme

Si les théoriciens contemporains de la causalité s’accordent pour rejeter l’éliminativisme et le régularisme, le consensus s’arrête là, et plusieurs visions radicalement différentes de la nature et du statut métaphysique de la causalité s’affrontent dans la littérature.

De nombreux philosophes contemporains, tout en rejetant la théorie régulariste, partagent néanmoins le scepticisme supposé de Hume quant à l’existence de connexions nécessaires dans la nature. Ces philosophes ont donc cherché à construire une théorie de la causalité évitant les problèmes de l’approche régulariste mais s’inscrivant néanmoins dans la même lignée métaphysique. Dans cette optique métaphysique – celle du « réductionnisme humien » – notre monde n’est fondamentalement qu’une mosaïque d’événements entièrement indépendants les uns des autres, et ne contient donc aucune connexion nécessaire. Les partisans du réductionnisme humien estiment que les faits causaux sont réductibles à des faits concernant la manière dont ces événements sont de facto distribués dans l’espace-temps, quoique d’une manière plus compliquée que ne le pensait Hume. La popularité de cette thèse explique le fait qu’au moins jusqu’à récemment la grande majorité de la littérature contemporaine sur la causalité a été consacrée au projet d’en construire une définition réductionniste.

Un certain nombre de philosophes estiment au contraire que l’image humienne du monde rend intolérablement mystérieux le caractère si régulier et ordonné de l’univers, et que toute métaphysique acceptable de la causalité doit postuler l’existence de connexions nécessaires « cimentant » entre eux les faits particuliers composant notre monde. Les débats sur le statut métaphysique de la causalité reflètent ainsi un schisme fondamental en métaphysique contemporaine entre « humiens » et « anti-humiens ».

Il est ici utile de distinguer deux versions de l’anti-humianisme (voir Tooley 2009). Certains anti-humiens partagent avec les humiens l’idée que la causalité n’est pas une composante fondamentale du monde (possiblement parce qu’ils souscrivent à la thèse russellienne selon laquelle la causalité n’apparait pas en physique fondamentale), et qu’elle est donc réductible à des faits plus fondamentaux.

Les deux principales approches réductionnistes de la causalité – qui conçoivent respectivement la causalité comme une relation de dépendance (sects. 2-3) ou comme une relation de connexion physique (sect. 4) – sont compatibles aussi bien avec cette forme de réductionnisme anti-humien qu’avec une vision humienne, comme on le verra. La raison en est qu’elles réduisent les faits causaux en partie à des faits concernant les lois physiques de la nature, qui peuvent elles-mêmes être entendues soit comme de simples régularités dans la « mosaïque humienne » de faits particuliers ou comme des entités sui generis gouvernant l’évolution du monde et représentant en ce sens le « ciment » ultime de l’univers. La question du statut métaphysique de la causalité est ainsi connectée au débat entre humiens et non-humiens sur le statut des lois de la nature (voir Esfeld (2006, ch. 22) pour un aperçu).

Les anti-humiens partisans de l’« antiréductionnisme causal » (sect. 5) estiment au contraire que les relations de nécessitation causale sont une composante fondamentale et irréductible du monde, et que toute tentative de décrire la nature fondamentale de notre monde en termes non-causaux est vouée à l’échec.

On le verra, certaines approches « non-standard » de la causalité remettent en cause certaines assomptions des approches classiques de la causalité (voir les sections 6, 8 et 9), par exemple l’idée qu’il existe une seule relation de causalité. En outre, si la littérature sur la causalité dans la seconde moitié du 20e siècle a été largement dominée par les questions métaphysiques que je viens d’évoquer, les deux dernières décennies ont vu l’émergence de plusieurs approches visant à offrir un éclairage intéressant sur la causalité sans se prononcer sur son statut métaphysique, la plus influente étant la théorie interventionniste discutée en section 7. Cette évolution explique la place grandissante accordée dans la littérature actuelle à des questions non directement métaphysiques, notamment celles de l’épistémologie du raisonnement causal dans les sciences. Faute de place, ces questions épistémologiques ne seront ici abordées que très sommairement ; les essais réunis dans (Beebee et al. 2009, section 5) offrent un excellent aperçu de la littérature contemporaine sur ces questions.

d. Les relata causaux

Un débat relativement indépendant des questions précédentes concerne la nature des relata de la causalité. Si la position dominante considère que la causalité relie des événements, certains philosophes considèrent que les relata causaux sont des faits (Bennett 1988, Mellor 1995). L’un de leurs arguments principaux est que les omissions peuvent être des causes – par exemple l’absence de l’étudiant à l’examen cause son échec au partiel. Si l’absence de l’étudiant est incontestablement un fait, il est en revanche difficile de la concevoir comme un événement, notamment parce qu’à la différence des exemples paradigmatiques d’évènements elle n’a pas de localisation spatiotemporelle claire. Schaffer (2004) soutient que l’on peut comprendre la causalité par absence en termes d’événements à condition de concevoir la causalité comme une relation contrastive impliquant non deux événements mais quatre : la cause, l’effet et leurs contrastes. C’est un événement concret – la sieste de l’étudiant – qui cause son échec, la phrase nominale « l’absence de l’étudiant » ayant pour fonction de mettre en valeur que c’est par opposition à la présence de l’étudiant à l’examen que la sieste a causé le recalage de l’étudiant (par opposition à sa réussite). Voir Schaffer (2016, sect. 1) pour un aperçu plus détaillé des débats sur les relata causaux.

e. Questions méthodologiques

Les philosophes contemporains de la causalité s’opposent non seulement sur ce qu’est la causalité, mais aussi sur la méthode à adopter pour aborder cette question. De fait, la philosophie contemporaine de la causalité est un terrain majeur de discussion sur la méthodologie philosophique : la notion de causalité jouant un rôle central à la fois dans le sens commun et dans les sciences, elle pose en effet des questions importantes sur le poids relatif à donner à ces deux « sources » dans la méthode philosophique.

En simplifiant beaucoup, on peut distinguer ici deux grandes approches. Selon la première (majoritaire), la construction d’une théorie de la causalité doit nécessairement passer par une analyse de notre concept ordinaire de causalité. La méthodologie adoptée est ici celle de l’analyse conceptuelle traditionnelle, à savoir la méthode des contre-exemples : une définition de la causalité étant proposée, on l’évalue en cherchant des scénarios réels ou imaginaires dans lesquels elle donne des résultats contraires à nos intuitions, celles-ci étant entendues comme le produit de l’application de notre concept de causalité au scénario en question. S’il existe de tels scénarios, la définition est jugée insatisfaisante, du moins si les intuitions qu’elle contredit sont suffisamment claires. L’approche contrefactuelle de Lewis et les débats qu’elle a suscités (sect. 2) sont un excellent exemple de l’application de cette méthode.

Certains philosophes considèrent au contraire qu’une analyse de notre concept ordinaire de causalité a tout au plus un intérêt psychologique, et qu’il n’y a que peu de raisons de penser que le sens commun constitue une source d’informations fiable sur la nature réelle de la causalité. Dans cette approche, ce sont les sciences et non nos intuitions « profanes » qui doivent être le guide principal d’une théorie philosophique de la causalité. Je reviendrai brièvement sur cette position dans la section 4.

1. La causalité comme dépendance (I) : la théorie contrefactuelle de Lewis

a. Causalité et contrefactuels

Constatant les difficultés auxquelles fait face la théorie régulariste, Lewis propose dans un article séminal (1973a) une approche alternative fondée sur l’idée que les effets dépendent de leurs causes, la dépendance étant comprise en termes de contrefactuels : un effet e dépend de sa cause c au sens où e n’aurait pas eu lieu si c n’avait pas eu lieu. (Par exemple, Marie ne se serait pas fracturé la cheville si elle n’avait pas chuté.) Hume lui-même avait déjà noté la connexion entre causalité et dépendance contrefactuelle, faisant suivre sa définition régulariste de la causalité de la seconde définition suivante : un objet est la cause d’un autre objet ultérieur suit lorsque « le second objet n’aurait jamais existé sans l’existence du premier » (1748, 110). Mais les contrefactuels étant eux-mêmes des objets mystérieux (notamment parce qu’ils portent sur des états de faits inactualisés et donc inobservables), ni Hume ni aucun de ses successeurs avant Lewis n’avait développé cette idée en détail. L’apport majeur de Lewis est la construction d’une sémantique des contrefactuels (Lewis 1973b) dissipant le mystère qui les entoure et ouvrant la voie à une analyse contrefactuelle rigoureuse de la causalité.

Les outils principaux de cette sémantique sont les notions de monde possible et de similarité entre mondes. Un monde possible est une manière logiquement possible dont l’univers aurait pu être. Plus précisément, tout ensemble maximal consistant de propositions décrit ou constitue un monde possible. Certains mondes possibles sont plus similaires au monde réel (ou « monde actuel ») que d’autres : un monde exactement identique au notre à l’exception de la position de quelques particules ressemble plus au notre qu’un monde où il existe des ânes volants. Pour simplifier, la sémantique lewisienne implique que lorsque c et e sont des événements réels, le contrefactuel « si c n’avait pas eu lieu, e n’aurait pas eu lieu » est vrai si et seulement si le monde le plus proche du notre où c n’a pas lieu est aussi un monde dans lequel e n’a pas lieu. Si ce contrefactuel est vrai, c est une cause de e.

Pour illustrer comment cette analyse fonctionne, supposons qu’à l’instant t je frotte une allumette (f), provoquant son embrasement (e). Et supposons que les lois de notre monde sont déterministes (sur l’indéterminisme, voir Lewis (1986, 175-184)). Selon Lewis, nos jugements de similarité entre mondes obéissent à deux critères: un monde possible dans lequel a n’a pas lieu est d’autant plus similaire au monde actuel qu’y ont lieu les mêmes événements qu’au sein de notre monde, et d’autant plus similaire qu’il obéit aux mêmes lois. Or, si les lois de notre monde sont déterministes, l’histoire de notre monde avant t et ces lois impliquent logiquement l’occurrence de f, si bien que ces deux critères de similarité entrent en conflit : tout monde possible où je ne frotte pas l’allumette doit soit avoir une histoire différant de celle de notre monde avant t, soit obéir à des lois différentes. Selon Lewis, ce conflit est résolu de la manière suivante. Le monde où f n’a pas lieu que nous considérons le plus similaire au notre (appelons le `w1’) est un monde ayant la même histoire que le nôtre et obéissant aux mêmes lois jusqu’à un instant précédant immédiatement t. A cet instant a lieu un « miracle » (une violation des lois de notre monde) empêchant l’occurrence de f. Par exemple, les nerfs de ma main deviennent soudainement paralysés, m’empêchant de frotter l’allumette. Après ce miracle, w1 évolue à nouveau conformément à nos lois. Dans un tel monde, e n’a pas lieu, puisque les lois interdisent l’embrasement d’une allumette lorsque celle-ci n’est pas frottée. Le contrefactuel « si je n’avais pas frotté l’allumette, elle ne se serait pas embrasée » est donc vrai, et l’approche lewisienne implique correctement que f est une cause de e.

La théorie lewisienne implique que le futur mais non le passé dépend contrefactuellement du présent, puisque le monde possible le plus proche dans lequel un événement actuel c n’a pas lieu est exactement identique au notre jusqu’à un instant immédiatement avant c, et ne diverge du notre qu’à partir de cet instant. C’est ce fait qui permet à l’approche lewisienne de capturer la direction de la causalité : les effets dépendent contrefactuellement de leurs causes, mais non l’inverse. Par exemple, le monde le plus proche dans lequel e n’a pas lieu est un monde où je frotte l’allumette, mais où un « miracle » empêche son embrasement, si bien que f n’est pas contrefactuellement dépendant de e. (Lewis admet l’existence de certains contextes où il est approprié d’affirmer que je n’aurais pas frotté l’allumette si elle ne s’était pas embrasée, mais soutient que ces contextes ne sont pas pertinents pour évaluer la direction de la relation causale). Le problème des causes communes se trouve lui aussi résolu, un effet e étant contrefactuellement indépendant de ses causes et donc des autres effets de ces causes. Dans le monde le plus proche où le baromètre indique « soleil » plutôt que « pluie », la pression atmosphérique et donc la probabilité d’une averse sont les mêmes que dans notre monde. L’occurrence de l’averse ne dépend donc pas de l’état du baromètre.

Si l’approche contrefactuelle de Lewis évite ainsi les problèmes principaux auxquels se heurte la théorie régulariste, elle s’inscrit comme cette dernière dans un cadre métaphysique « humien ».

La sémantique lewisienne implique que la valeur de vérité des énoncés contrefactuels (et donc des énoncés causaux) est entièrement déterminée par l’ensemble des faits particuliers composant notre monde et les lois de ce monde. (Ces deux types de faits suffisent en effet à déterminer quel monde possible vérifiant l’antécédent d’un contrefactuel est le plus proche du nôtre, et donc la valeur de vérité de ce contrefactuel.) Or Lewis (1983) propose une théorie humienne de ces lois selon laquelle elles ne sont rien d’autre que des régularités brutes dans la manière dont les faits particuliers composant notre monde sont de facto distribués dans l’espace-temps. Comme chez Hume, le lien causal n’implique donc aucune connexion nécessaire entre cause et effet, et la causalité est réduite à une simple affaire de régularité, quoique de manière plus complexe que dans l’approche régulariste. (Notons cependant que rien n’interdit de souscrire à l’approche contrefactuelle de la causalité sans adopter la théorie lewisienne des lois qui sous-tendent les contrefactuels : la théorie contrefactuelle est compatible avec une métaphysique humienne, mais ne l’implique pas.)

b. La direction de la dépendance contrefactuelle

Lewis, on l’a vu, explique la direction de la causalité en termes du fait que le futur mais non le passé dépend contrefactuellement du présent. Or selon lui cette asymétrie n’est pas une nécessité conceptuelle, comme en témoigne la cohérence de scénarios dans lesquels le passé dépend contrefactuellement et donc causalement du futur tels que les récits de voyage dans le temps (1979, 464). La question se pose donc de savoir ce qui explique cette asymétrie.

On peut aborder cette question en reprenant l’exemple de l’allumette, et en comparant w1 avec un autre monde possible w2 dans lequel je ne frotte pas non plus l’allumette à t et ayant les caractéristiques suivantes. Contrairement à w1, dans w2 aucun miracle n’a lieu avant ; au contraire, w2 évolue en entière conformité à nos lois jusqu’à t. Ces lois étant supposées être déterministes, l’histoire de w2 avant t est donc nécessairement différente de la nôtre. (Par exemple, dans w2, je ne prends pas la décision de frotter l’allumette.) En revanche, à un instant t’ suivant immédiatement t, un ensemble de miracles a lieu rendant w2 exactement identique au notre à cet instant : l’allumette s’embrase soudainement, le souvenir d’avoir frotté l’allumette à t se forme spontanément dans ma mémoire, etc. Après t’, w2 évolue à nouveau conformément à nos lois, si bien que son histoire après cet instant est exactement identique à la nôtre. On notera que si w2 était un monde plus similaire au nôtre que w1, ce serait le passé qui dépendrait contrefactuellement du présent et non le futur : par exemple, e serait contrefactuellement indépendant de f (puisque e a bien lieu dans w2), tandis que certains événements précédant f en seraient contrefactuellement dépendants (par exemple ma décision de frotter l’allumette, qui n’a pas lieu dans w2). La question de savoir pourquoi la direction de la dépendance contrefactuelle va du passé vers le futur et non l’inverse se ramène ainsi à la question de savoir pourquoi w1 est un monde plus similaire au nôtre que ne l’est w2.

La réponse de Lewis (1979) est que nos critères de similarité entre mondes mettent particulièrement l’accent sur le nombre de « miracles » qu’un monde contient : w1 est plus similaire à notre monde que w2 parce que ce dernier contient plus de miracles que w1. Selon Lewis, ce dernier fait trouve sa source dans une asymétrie physique qu’il nomme « asymétrie de la surdétermination ». Un déterminant d’un événement c est défini comme une condition d telle que d et les lois de la nature nécessitent l’occurrence de c. L’asymétrie de la surdétermination est le fait que dans notre monde, chaque événement a de nombreux déterminants futurs mais peu de déterminants passés. f, par exemple, a de nombreux déterminants après l’instant de son occurrence t : l’embrasement de l’allumette, mon souvenir d’avoir frotté l’allumette, etc. C’est ce fait qui explique pourquoi w2 doit contenir un grand nombre de miracles : puisque dans w2 f n’a pas lieu mais l’état du monde est exactement identique au nôtre après t, de nombreux miracles doivent avoir lieu ayant chacun pour fonction de produire l’une des « (pseudo)-traces » de f après t (un miracle produisant l’embrasement soudain de l’allumette, un autre produisant un faux souvenir de f dans ma mémoire, etc.) En revanche, immédiatement avant t, le seul déterminant de f est la présence de courants électriques dans les nerfs de ma main indiquant que je m’apprête à frotter l’allumette. Un seul miracle est donc requis pour « effacer » ce déterminant et obtenir un monde tel que w1, c’est-à-dire identique au nôtre avant t mais dans lequel f n’a pas lieu.

Selon Lewis, l’asymétrie de la surdétermination est physiquement contingente : elle n’est pas une conséquence des lois de la nature. Le fait que le futur mais non le passé dépend contrefactuellement et donc causalement du présent est donc lui-même un fait physiquement contingent. Si notre monde était tel que les événements qui y ont lieu avaient de nombreux déterminants non dans leur passé mais dans leur futur, la flèche de la causalité pointerait du futur vers le passé. Russell avait ainsi raison de déclarer que l’asymétrie causale ne peut trouver sa source dans les lois de la nature, mais tort de déclarer qu’elle n’existe donc pas : l’asymétrie causale est bien un fait réel, qui trouve sa source dans une asymétrie physique contingente.

Cette explication de la direction causale se heurte cependant à des objections décisives. Le problème principal trouve son origine dans l’explication des phénomènes thermodynamiques fournie par la mécanique statistique. La « seconde loi » de la thermodynamique nous dit que l’entropie d’un système isolé augmente avec le temps jusqu’à atteindre son maximum et reste ensuite constante. Cette « loi » (qui est en réalité une généralisation statistique) explique par exemple pourquoi un glaçon plongé à un instant t1 dans un verre d’eau à température ambiante est à moitié fondu quelques minutes plus tard (à l’instant t2, mettons). Or la mécanique statistique nous enseigne que vu « à rebours » ce processus est prodigieusement fragile, au sens suivant. Considérons l’état microscopique complet m du système composé par le glaçon et le verre d’eau à t2. (m consiste en une spécification de la position et la vitesse de chaque particule composant le système à t2.) Les lois fondamentales de la nature, qui sont applicables aussi bien « vers le passé » que « vers le futur », peuvent être utilisées pour prédire qu’à l’instant antérieur t1 un glaçon complet flottait dans le verre d’eau. Mais ces lois impliquent aussi que si l’état microscopique du système à t2 était un tant soit peu différent, le passé du système serait très différent. Considérons un état microscopique m’ ne différant de m que quant à la position de quelques particules dans le glaçon. Les lois impliquent que si l’état microscopique du système à t2 était m’ et non m, le passé du système aurait très certainement été le suivant : à l’instant t1 le verre d’eau n’aurait contenu aucun glaçon, et entre t1 et t2, les molécules du verre d’eau auraient évolué de telle manière qu’un glaçon émerge et grossisse peu à peu dans le verre d’eau, pour atteindre à t2 la forme d’un glaçon à moitié fondu. En ce sens, le passé macroscopique réel du système, dans lequel le glaçon est bien présent dans le verre à l’instant t1, est extrêmement sensible à son état microscopique précis à t2. Comme le note Elga (2000), cela implique qu’il est tout à fait possible de construire des mondes contenant un seul « petit miracle » et dans lesquels le passé mais non le futur est différent. Par exemple, imaginons un monde w3 identique en tout point au nôtre à t2, à l’exception du fait que dans ce monde l’état microscopique du glaçon à t2 est m’ et non pas m. En outre, w3 obéit exactement aux mêmes lois que notre monde, à l’exception du fait que juste après t2 un petit miracle a lieu rendant l’état microscopique du glaçon à cet instant exactement identique à celui qu’il a dans notre monde. w3 a exactement la même histoire que notre monde après t2, mais son passé est différent : dans w3, à l’instant t1 aucun glaçon n’est présent dans le verre, et le glaçon présent dans le verre à t2 s’est formé spontanément entre t1 et t2. Cet exemple n’a en outre rien d’idiosyncratique : il repose uniquement sur le fait que le passé du système est extrêmement sensible à son état microscopique actuel. Et la mécanique statistique nous enseigne qu’il en va généralement ainsi de tous les systèmes physiques qui nous entourent. L’affirmation lewisienne selon laquelle un monde identique au nôtre dans le futur mais non dans le passé doit nécessairement contenir un grand nombre de miracles est donc contredite par la physique.

S’il s’agit là d’une objection probablement décisive à la forme précise que donne Lewis à son explication de la direction causale, il semble possible de modifier cette explication d’une manière qui en préserve l’esprit tout en la rendant physiquement acceptable. Notons que le monde w3 contient certains processus contredisant la seconde loi de la thermodynamique, l’émergence spontanée du glaçon entre t1 et t2 constituant un processus durant lequel l’entropie d’un système isolé décroit avec le temps. Il semble donc y avoir un lien étroit entre l’asymétrie de la dépendance contrefactuelle et l’asymétrie thermodynamique. C’est l’idée directrice de l’approche d’Albert (2000) et Loewer (2007). L’explication de la seconde loi proposée par Albert en fait la conséquence du fait que l’état initial de l’univers avait une entropie extrêmement basse (ce qu’Albert appelle « Hypothèse du Passé » (Past Hypothesis)) et d’un « postulat statistique » selon lequel l’évolution macroscopique du monde est statistiquement normale ou « typique ». Pour résumer sommairement leur approche, Albert et Loewer proposent une sémantique néo-lewisienne des contrefactuels dans lesquels la proximité d’un monde est déterminée par la probabilité assignée à ces deux mondes par les lois fondamentales de la nature, l’Hypothèse du Passé et le postulat statistique. La probabilité qu’ils assignent à un monde « anti-thermodynamique » tel que w3 étant négligeable, nous sommes donc justifiés à ignorer ce type de monde lorsque nous évaluons un contrefactuel. Plus généralement, selon Albert et Loewer, les lois fondamentales de la nature, l’Hypothèse du Passé et le postulat statistique impliquent que si l’état du monde présent était quelque peu différent, le passé macroscopique du monde serait néanmoins très probablement le même, tandis que le futur serait probablement différent. Les mêmes faits qui expliquent la seconde loi de la thermodynamique expliquent donc pourquoi le futur mais non le passé est contrefactuellement dépendant du présent. Cette explication physique de l’asymétrie contrefactuelle et causale s’inscrit dans un programme de recherche plus général et particulièrement ambitieux visant à expliquer toutes les asymétries temporelles caractérisant notre monde par le biais de la mécanique statistique. La viabilité de ce programme et notamment de l’explication de l’asymétrie causale qu’il propose fait aujourd’hui l’objet de nombreuses discussions en philosophie de la physique. (Voir notamment Frisch (2010) et Loewer et al. (2016) ; (Kutach 2013) est une contribution originale récente à ce programme.)

c. Le problème de la causalité redondante

Quelle que soit la manière exacte dont on comprend la dépendance contrefactuelle et son asymétrie, toute approche contrefactuelle de la causalité fait face au problème difficile de la causalité redondante. Dans une situation de causalité redondante, un événement c en cause un autre e, mais si c n’avait pas eu lieu, e aurait néanmoins eu lieu en raison de l’occurrence d’un autre événement d. L’exemple classique est celui de deux tireurs A et B s’apprêtant chacun de leur côté à assassiner un dictateur lors d’une de ses apparitions publiques. B aperçoit A s’apprêtant à tirer et, certain que A va atteindre sa cible, décide de quitter les lieux au moment où A tire. Le tir de A atteint sa cible, et cause donc la mort du dictateur. Mais si A n’avait pas tiré, B aurait tiré et tué la victime à la place de A. L’effet ne dépend donc pas de sa cause. (Cet exemple est un cas de « préemption » : le tir de A « préempte » le statut causal de B, au sens où il empêche B de devenir une cause de la mort du dictateur.)

La solution de Lewis (1973a) à ce problème est d’identifier la causalité non à la simple dépendance contrefactuelle, mais à l’existence d’une chaîne de relations de dépendance contrefactuelle reliant la cause à l’effet. Considérons la balle tirée par A au moment où elle pénètre le cœur du dictateur, et appelons cet événement c1. c1 dépend contrefactuellement du tir de A (la balle n’aurait pas pénétré le cœur du dictateur si A n’avait pas tiré). En outre, la mort du dictateur dépend de c1. Puisqu’au moment où c1 a lieu B a déjà quitté les lieux, le dictateur ne serait pas mort si c1 n’avait pas eu lieu. C’est le fait que la séquence tir de A c1mort du dictateur constitue une chaîne d’événements où chacun dépend contrefactuellement du précédent qui fait du tir de A une cause de la mort du dictateur.

Il existe cependant de nombreuses situations de causalité redondante où cette solution ne s’applique pas, comme l’a révélé la littérature considérable sur la question produite dans les 40 dernières années. (Voir Paul et Hall (2013, ch. 3) pour un examen exhaustif).

Premièrement, les cas de préemption tardive. L’exemple des deux assassins est un cas de « préemption précoce » : la chaîne causale potentielle menant de B à l’effet est interrompue bien avant que l’effet n’ait lieu (à savoir dès que B décide de quitter la scène). Une fois ce processus interrompu, la mort du dictateur devient dépendante de certains événements dépendant eux-mêmes du tir de A, ce qui permet à la solution lewisienne de donner le bon résultat. Dans les cas de préemption tardive, en revanche le processus menant de la cause potentielle à l’effet n’est interrompu qu’une fois que l’effet a lieu. L’effet ne dépend donc d’aucun des événements le reliant à sa cause réelle. Dans un exemple célèbre proposé par Hall (2004), Suzy et Billy sont occupés à jeter des cailloux sur une bouteille. Suzy jette son caillou un peu avant Billy, et brise la bouteille ; si elle n’avait pas jeté le caillou, c’est le caillou jeté par Billy qui aurait cassé la bouteille. Le jet de Suzy est la cause du bris de la bouteille, mais il n’existe aucune chaîne de dépendance contrefactuelle menant de l’un à l’autre : tout événement causalement intermédiaire entre les deux (tel que par exemple l’entrée en contact du caillou avec la bouteille) est tel que s’il n’avait pas eu lieu, la bouteille se serait néanmoins brisée sous l’effet du caillou de Billy.

Deuxièmement, les cas de trumping ou « préemption coupante » (traduction de Kistler (2011)) découverts par Schaffer (2000c). Imaginons un monde régi par des lois de la magie impliquant notamment que le destin du prince à minuit est déterminé par le premier sort qui lui est jeté dans la journée. Merlin jette un sort pour transformer le prince en grenouille lorsque minuit sonnera; Morgane fait de même quelques instants après Merlin. C’est le sort de Merlin qui est la cause de la transformation du prince à minuit, mais il n’existe aucune chaîne de dépendance contrefactuelle reliant l’un à l’autre. Dans les cas de préemption précoce et tardive, certains événements causalement intermédiaires entre la cause potentielle et l’effet n’ont pas lieu : B ne tire pas de balle, et le caillou de Billy n’entre pas en contact avec la bouteille. Mais ici aucun événement causalement intermédiaire entre le sort de Morgane et l’effet ne manque à l’appel. (Cela apparait clairement si l’on stipule que les sorts produisent leurs effets directement, par action à distance).

Troisièmement, les cas de surdétermination. Dans les cas de préemption, un seul des deux événements pouvant causer l’effet est une cause réelle. Dans les cas de surdétermination, en revanche, les deux événements sont tous deux des causes réelles. Un exemple proposé par Halpern et Pearl (2005): une mesure ne peut passer que si au moins l’une de deux personnes vote en sa faveur. De fait, les deux personnes votent chacune en faveur de la mesure, chacune étant ainsi une cause du passage de la mesure. Mais à nouveau, il n’existe aucune chaîne de dépendance contrefactuelle reliant chacun des votes au passage de la mesure.

Lewis et ses partisans ont offert de nombreuses suggestions pour tenter de résoudre les problèmes posés par ces cas (cf. notamment Lewis 1986, 193-212 ; McDermott, 1995 ; Ganeri et al. 1996). Je mentionnerai ici celle proposée par Lewis (2000, 2004) dans ses derniers écrits sur le sujet. La notion centrale y est celle d’influence. c influence e si e dépend contrefactuellement de c et/ou si la manière dont e a lieu ou l’instant auquel il a lieu dépendent contrefactuellement de la manière dont c a lieu ou de l’instant auquel il a lieu. Selon Lewis, si c influence e (à un degré suffisant), c est une cause de e. Dans l’exemple de Hall, Suzy est donc bien une cause du bris de la bouteille puisqu’elle influence ce dernier : si Suzy avait jeté son caillou plus fort, la bouteille se serait brisée plus violemment, et si elle l’avait jeté quelques instants auparavant, la bouteille se serait brisée plus tôt. De même, le sort de Merlin influence le destin du prince : celui-ci se serait transformé en âne plutôt qu’en grenouille si Merlin en avait décidé ainsi. (Cette approche ne permet pas de résoudre le problème de la surdétermination. Lewis estime que les exemples de surdétermination sont trop obscurs et irréalistes pour devoir être pris en compte ; une position curieuse sachant que Lewis considère par ailleurs des exemples comme celui de Merlin et Morgane comme tout à fait pertinents). L’un des problèmes de cette théorie est cependant qu’elle semble trop généreuse dans ses verdicts : elle risque par exemple d’impliquer que le jet de Billy est une cause du bris de la bouteille, le premier influençant dans une certaine mesure le second : si Billy avait jeté son caillou à un instant différent – à savoir avant Suzy – la bouteille se serait brisée plus tôt. (Cf. Collins 2000).

La tradition lewisienne ne contient aucune solution clairement satisfaisante au problème de la causalité redondante. On verra cependant plus tard (sect. 7.3) que l’émergence récente d’un nouveau cadre d’analyse contrefactuelle – celui des « équations structurelles » – suscite actuellement un regain d’optimisme quant à la capacité d’une approche contrefactuelle à résoudre le problème.

2. La causalité comme dépendance (II) : l’approche probabiliste

 

La plupart des exemples de causalité mentionnés jusqu’ici portaient sur des événements singuliers, tel que le jet de Suzy à un certain instant et le bris de la bouteille qui lui fait suite. Or les énoncés causaux qui jouent un rôle central en science sont plutôt des énoncés généraux comme « fumer cause le cancer» ou « les dépressions économiques augmentent le taux de chômage ». Et ces énoncés sont habituellement établis sur la base de corrélations statistiques : par exemple (et en simplifiant énormément) le lien causal entre tabagisme et cancer est établi par le fait que les fumeurs sont plus fréquemment victimes du cancer que les non-fumeurs. Autrement dit, la probabilité de cancer est plus élevée chez les fumeurs que chez les non-fumeurs. L’idée qu’un effet dépend de sa cause peut donc être comprise en termes probabilistes plutôt que contrefactuels : un effet dépend de sa cause dans la mesure où la probabilité de l’effet est plus élevée si la cause est présente. Cette hypothèse est le point de départ de l’approche probabiliste de la causalité. Dans sa version réductionniste, dont les principaux représentants sont Reichenbach (1956), Good (1961a, 1961b) et Suppes (1970), cette approche affirme que la causalité est entièrement explicable en termes de relations de dépendance probabiliste. Je me concentrerai ici sur Reichenbach. (Voir Williamson (2009) et Hitchcock (2016) pour des introductions détaillées à l’approche probabiliste).

a. La théorie de Reichenbach

La manière la plus simple de définir probabilistiquement la causalité est la suivante : un facteur C cause un autre facteur E si et seulement si C est corrélé avec E, c’est-à-dire en augmente la probabilité. Mais cette définition fait face aux mêmes difficultés que la théorie régulariste. Elle ne permet pas de capturer l’asymétrie de la causalité : si les causes augmentent la probabilité de leurs effets, l’inverse est également vrai. (Les victimes du cancer du poumon sont plus fréquemment des fumeurs que les autres). Et elle échoue à distinguer entre facteurs causalement reliés et simples effets d’une cause commune : la probabilité que la pression atmosphérique soit basse et donc qu’une averse ait lieu plus tard est plus élevée si mon baromètre indique « pluie » que s’il indique un temps sec.

La contribution cruciale de Reichenbach est la découverte d’un certain phénomène statistique pointant vers une solution à ces problèmes. Reichenbach note que si les effets A et B d’une cause commune C sont en général corrélés, cette corrélation disparait lorsque l’on tient fixe la présence ou l’absence de C. Par exemple, si l’on considère uniquement les situations où la pression atmosphérique est basse, l’état de mon baromètre n’augmente pas la probabilité de la présence ultérieure de pluie : dans ces situations, la probabilité d’une averse future est la même, quel que soit l’état du baromètre. (Si dans ces situations mon baromètre dysfonctionne et indique à tort un temps sec, cela ne rend pas la pluie moins probable). Il en va de même dans les situations où la pression atmosphérique est élevée. Autrement dit, les causes « font écran » (screen off) aux corrélations entre leurs effets.

La théorie probabiliste de Reichenbach s’appuie sur ce phénomène pour offrir une réduction probabiliste de la causalité, en deux temps. Reichenbach propose d’abord la définition préliminaire suivante : C cause E si (a) C augmente la probabilité de E (b) C est antérieur à E et (c) aucun facteur D antérieur à C n’est tel que si l’on tient fixe la présence ou l’absence de D, la corrélation entre C et E disparait. (c) permet de distinguer facteurs causalement reliés et simples effets des causes communes. La clause (b) vise à capturer l’asymétrie de la causalité en stipulant que les causes précèdent leurs effets. Reichenbach considère cependant que la direction temporelle de la causalité est un fait contingent qui doit être expliqué plutôt que stipulé. Dans une seconde étape, Reichenbach propose donc une explication probabiliste de la direction de la causalité en termes du phénomène statistique du « faire écran ». Reichenbach note que ce phénomène est associé à une asymétrie qu’il appelle « asymétrie des fourches » (fork asymmetry). Supposons qu’un facteur C fasse écran à la corrélation entre deux autres facteurs A et B. Dans le vocabulaire de Reichenbach, le trio ABC forme une fourche conjonctive. Si C est antérieur à A et B, la fourche en question est « ouverte vers le futur », tandis que si C est ultérieur à A et B, elle est « ouverte vers le passé ». L’asymétrie temporelle des fourches est le fait que les fourches ouvertes vers le futur sont omniprésentes dans notre environnement (une structure impliquant une cause commune de deux effets constitue généralement une fourche de ce type), tandis que les fourches ouvertes vers le passé sont rares ou inexistantes. Reichenbach propose de réduire la direction de la causalité à cette asymétrie temporelle : la direction de la causalité est la direction dans laquelle les fourches ouvertes prédominent.

Cette asymétrie et donc la direction de la causalité elle-même est un phénomène physiquement contingent au sens où il n’est pas une simple conséquence des lois fondamentales de la nature. Selon Reichenbach, la prédominance des fourches ouvertes vers le passé est en fait une conséquence des faits statistiques qui sous-tendent également l’asymétrie thermodynamique. (En ce sens, la théorie de Reichenbach est un précurseur du programme contemporain d’Albert et Loewer de réduction de la direction causale à la mécanique statistique (voir 2.2)). La conclusion ici est similaire à celle de Lewis : la direction causale ne trouve pas sa source dans les lois physiques, comme le notait Russell, mais elle n’en est pas moins un phénomène réel et objectif, trouvant sa source dans une asymétrie statistique propre au monde qui nous entoure.

L’une des questions que soulèvent les approches probabilistes concernent la nature des probabilités auxquelles elles font appel. Reichenbach lui-même et de nombreux autres théoriciens probabilistes les considèrent comme de simples fréquences. Le fait que la probabilité de cancer soit plus élevée si l’on fume, par exemple, ne consiste en rien d’autre que le fait que la fréquence de cancer est plus élevée chez les fumeurs que chez les non-fumeurs. Interprétés de cette manière, les énoncés probabilistes auxquels la théorie de Reichenbach fait appel ne sont rien d’autre que des résumés de certaines régularités statistiques dans la manière dont les contenus de notre monde sont de facto distribués, et n’impliquent aucune connexion nécessaire entre une cause et son effet. En ce sens, et comme l’approche contrefactuelle de Lewis, l’approche de Reichenbach s’inscrit dans la tradition humienne visant à réduire la causalité à la « mosaïque » de faits particuliers composant notre monde. La théorie fréquentiste des probabilités fait cependant face à des difficultés sérieuses (cf. Hàjek 2012, sect. 3.4), et est en outre optionnelle : certaines versions de l’approche probabiliste s’appuient sur une interprétation non-humienne « propensitaire » des probabilités selon laquelle celles-ci reflètent ou mesurent certaines tendances ou pouvoirs d’un événement à en produire un autre (voir par exemple Gillies 2002 et Drouet 2012).

b. Objections au réductionnisme probabiliste

L’approche probabiliste, dans sa version réductionniste telle que développée par Reichenbach et d’autres, fait face à deux difficultés sérieuses. La première apparait lorsque l’on tente d’appliquer l’approche probabiliste non aux énoncés généraux du type « fumer cause le cancer » (qui sont la cible principale de cette théorie), mais aux relations causales entre événements singuliers. Outre les difficultés conceptuelles que posent la notion de probabilité d’un événement singulier (voir Hàjek 2007), le problème majeur concerne les cas de la causalité redondante. Il n’est pas étonnant que ces cas soient aussi problématiques pour l’approche probabiliste que pour l’approche contrefactuelle : ces deux approches analysent la causalité en termes de dépendance, et les cas de causalité redondante sont précisément des situations dans lesquelles les effets ne dépendent pas de leurs causes, aussi bien contrefactuellement que probabilistiquement. Dans le scénario de Hall, par exemple, le jet de Suzy cause le bris de la bouteille, mais ne semble pas en augmenter la probabilité. Etant donné que Billy a aussi lancé un caillou (dans la bonne direction et à la bonne vitesse), la probabilité que la bouteille se brise est égale à 1, quoi que Suzy fasse. Les tentatives de solution à ce problème proposées dans la littérature probabiliste sont substantiellement similaires à celles proposées dans la littérature sur l’approche contrefactuelle (voir par exemple Menzies 1996 et Glynn 2010).

Deuxièmement, même si l’on s’en tient au cas des relations causales générales entre types d’événements ou « facteurs », les relations entre causalité et probabilité sont bien plus subtiles que ne l’affirme une théorie telle que celle de Reichenbach. Comme l’ont montré Cartwright (1979) et Skyrms (1980), un facteur qui en cause un autre n’en augmente pas nécessairement sa probabilité, contrairement à ce qu’affirme Reichenbach. Un exemple que j’emprunte à Hitchcock (2016) : supposons que les fumeurs habitent majoritairement en zone rurale, et que les ruraux sont également moins exposés à la pollution (une autre cause majeure du cancer du poumon) que les habitants des zones urbaines. Un fumeur a donc plus de chance de devenir victime du cancer du poumon en raison de son tabagisme mais également une probabilité plus faible d’avoir un cancer du poumon dû à la pollution. Il est tout à fait possible que ces deux tendances s’annulent l’une l’autre, si bien que le cancer du poumon est aussi fréquent chez les non-fumeurs que chez les fumeurs. Dans ces conditions, la théorie de Reichenbach implique à tort que le tabagisme ne cause pas le cancer du poumon.

c. Les réseaux bayésiens causaux

De nombreux philosophes estiment que les exemples de ce type constituent une difficulté fatale pour toute théorie aspirant à réduire la causalité à des faits probabilistes. Si une telle réduction est peut-être impossible, les résultats de Reichenbach suggèrent néanmoins qu’il existe bien des connexions intéressantes et importantes entre causalité et probabilité. Cartwright (1979), Skyrms (1980) et Eells (1991) ont développé des théories non-réductives de la causalité visant à offrir une caractérisation générale de ces connexions. Les trois dernières décennies ont également vu l’émergence d’un programme de recherche interdisciplinaire (impliquant notamment des statisticiens, des philosophes et des informaticiens) dont les outils permettent de caractériser les relations entre causalité et probabilité de manière particulièrement précise. Les principaux représentants de ce programme sont Spirtes, Glymour, Scheines (1993) et Pearl (2000). (Voir Drouet (2012) pour un examen approfondi en français.) La notion centrale de ce programme est celle de réseau bayésien causal (RBC), un outil formel permettant de représenter les relations causales et statistiques entre variables d’un système. Un RBC consiste en premier lieu en un ensemble de variables dont les relations causales sont représentées par un graphe tel que par exemple celui-ci :

C:\Users\Thomas Blanchard\Dropbox\Research\Encyclopedie Philosophique\GRAPH1\Slide1.JPG

Les nœuds de ce graphe sont susceptibles de prendre différentes valeurs : les valeurs de Tabac, par exemple correspondent à différents niveaux de consommation de cigarettes par jour (0, 1, 2, etc.) ; Cancer admet deux valeurs, l’une correspondant à la présence du cancer du poumon et l’autre à son absence ; Scanner admet également deux valeurs, l’une correspondant à un scanner indiquant un cancer du poumon, l’autre à un scanner négatif ; et ainsi de suite. La présence d’une flèche d’une variable X à une autre Y indique que X est une cause directe de Y (c’est-à-dire une cause dont l’influence sur Y n’est pas médiatisée par les autres variables dans le graphe). Ce formalisme permet d’articuler élégamment certains principes généraux reliant causalité et probabilité. (Le deuxième ingrédient d’un RBC est une fonction de probabilité représentant les relations statistiques entre les variables du graphe, et qui est stipulée satisfaire ces principes généraux). Le principe le plus important est la condition causale de Markov, selon laquelle si l’on tient fixe les causes directes d’une variable X, X est statistiquement non-corrélée avec toute autre variable Y dont elle n’est pas une cause. Dans notre exemple, cette condition implique ainsi que Dents Jaunies et Cancer sont statistiquement indépendants l’un de l’autre si l’on tient TABAC fixe (autrement dit: étant donné le niveau de consommation de cigarettes d’un individu, sa probabilité d’avoir des dents jaunies est indépendante de sa probabilité d’avoir le cancer du poumon). La condition causale de Markov capture donc le principe reichenbachien selon lequel les causes communes font écran aux corrélations entre leurs effets, tout en étant plus générale. Elle implique ainsi également que Tabac et Scanner sont statistiquement indépendants étant donné Cancer, autrement dit que parmi les personnes souffrant d’un cancer du poumon, la probabilité qu’un scanner détecte ce cancer est aussi élevée chez les fumeurs que chez les non-fumeurs. De même, elle implique que les fumeurs ne sont pas plus exposés à l’amiante que les autres (Tabac et amiante n’étant pas causalement reliés et n’ayant en outre aucune cause commune). De manière générale, la condition causale de Markov fait peser des contraintes fortes et intéressantes sur les conditions statistiques que doivent satisfaire un ensemble de variables reliées causalement d’une certaine manière. La question de savoir si cette condition est universellement vraie est cependant débattue (voir Arntzenius 2010).

Le problème principal que cherchent à résoudre Spirtes et al. (1993) et Pearl (2000) est le problème méthodologique de l’inférence causale. Leur contribution principale – et considérable –consiste en un ensemble de théorèmes montrant que si un système de variables obéit à la condition causale de Markov et à certains autres principes, il est très souvent possible de déterminer la structure causale du système purement sur la base des simples relations statistiques entre ces variables, une opération auparavant considérée comme impossible en statistique.

Si ces résultats ne visent pas à offrir une « définition » de la causalité, ils sont cependant d’une grande importance pour certaines questions traditionnelles en philosophie de la causalité. En montrant que si certaines conditions sont satisfaites la structure purement statistique d’un système détermine sa structure causale, ils semblent notamment offrir de nouvelles ressources au réductionniste. Les choses sont en réalité plus compliquées. Les théorèmes de Spirtes et al. et Pearl ne s’appliquent en général qu’aux systèmes satisfaisant une condition dite de « fidélité ». Très approximativement, cette condition affirme que si X est une cause de Y X doit aussi être corrélée statistiquement avec Y. Elle revient donc à exclure d’entrée de jeu des situations telles que celle d’Hitchcock (voir sect. 3.2), dans laquelle le tabagisme cause le cancer sans en augmenter la probabilité. D’un point de vue méthodologique, cette condition est justifiable: une situation telle que celle décrite par Hitchcock est après tout extrêmement improbable et peut donc être légitimement ignorée dans la pratique scientifique. Mais il est beaucoup plus difficile de soutenir qu’elle représente un principe métaphysiquement ou conceptuellement nécessaire. (Voir cependant Papineau 1993 et Spohn 2009).


4. Causalité, processus et mécanismes

 

a. L’approche processuelle

Les approches de la causalité en termes de dépendance, on l’a vu, rencontrent des difficultés persistantes dans les cas de causalité redondante. Or ceux-ci suggèrent en outre une hypothèse fondamentalement différente concernant la nature de la causalité. Dans l’exemple de Hall, la raison pour laquelle Suzy et non Billy est la cause du bris de la bouteille semble évidente. C’est le fait que contrairement à celui de Suzy, le caillou lancé par Billy n’entre pas en contact avec la bouteille, autrement dit qu’aucun processus causal ne relie Billy au bris de la bouteille. Il semble donc naturel de supposer que c’est l’existence d’un tel processus plutôt qu’une quelconque relation contrefactuelle ou probabiliste qui constitue la nature du lien causal. Cette idée constitue le point de départ de l’approche `processuelle’ de la causalité, dont les principaux représentants sont Reichenbach (qui développe cette approche en parallèle avec sa théorie probabiliste évoquée précédemment), Salmon et Dowe. (Russell, qui dans Human Knowledge (1948) revient sur sa position éliminativiste antérieure, est un précurseur de cette approche ; voir Dowe (2008, sect. 1). L’article de Dowe et la section 5 de Kistler (2011) offrent des aperçus détaillés de l’approche processuelle).

L’émergence de l’approche processuelle est étroitement liée à la réflexion philosophique sur la théorie de la relativité restreinte, dont l’un des principes centraux est qu’il est impossible qu’un signal se déplace à une vitesse supérieure à celle de la lumière. Or, certains processus semblent violer ce principe. Imaginons par exemple un mur circulaire au centre duquel se trouve un phare tournant sur lui-même et dont le faisceau lumineux balaye ainsi le mur. Si le mur est suffisamment éloigné du phare, et si le phare tourne suffisamment vite, la tâche lumineuse projetée par le phare sur le mur se déplacera à une vitesse supraluminique. La solution de Reichenbach (1958) est de soutenir que la prohibition des vitesses supraluminiques impliquée par la relativité restreinte ne concerne que les processus « causaux », et qu’un processus tel que la trajectoire de la tâche lumineuse sur le mur n’est pas un processus causal mais un « pseudo-processus ». Les théories processuelles visent à expliquer ce qui distingue ces deux types de processus, et se propose d’utiliser la notion de processus causal pour expliquer les relations causales.

L’idée de Reichenbach, développée en détail par Salmon (1984), était d’expliquer la notion de processus causal en termes de la notion de « transmission de marque » (sur cette approche et ses difficultés, voir Dowe (2008, sections 3 et 4)). Cette ligne de pensée est aujourd’hui largement rejetée en faveur d’une approche alternative expliquant les processus causaux en termes de quantités conservées. La version la plus connue de cette approche est celle de Dowe (2000). (Voir aussi Aronson (1971), Fair (1979), Kistler (1998, 1999) et Salmon (1997)).

On peut distinguer trois étapes dans la théorie de Dowe. Premièrement, Dowe offre une définition des processus causaux selon laquelle ce qui les distingue des « pseudo-processus » est le fait qu’ils possèdent à chacune de leurs étapes une quantité conservée, c’est-à-dire une quantité physique obéissant à une loi de conservation, par exemple une énergie, un moment linéaire, une charge électrique, etc. La trajectoire d’un photon dans l’espace constitue ainsi un processus causal puisque le photon possède à chaque étape de sa trajectoire un quantum d’énergie. En revanche, le trajet la tâche lumineuse projetée par le phare sur le mur ne possède pas de quantités conservées, ce qui en fait un pseudo-processus. (On pourrait penser que la tâche lumineuse possède une énergie; selon Dowe, l’énergie en question doit cependant être attribuée au mur lui-même et non à la tâche elle-même.)

Deuxièmement, Dowe introduit la notion d’interaction causale. Une interaction causale consiste en l’intersection (le chevauchement dans une région de l’espace-temps) de deux processus causaux durant laquelle ces deux processus échangent une quantité conservée. L’idée centrale de Dowe est que les relations causales peuvent être expliquées en termes de telles interactions. Dans l’exemple de Hall, la « ligne de monde » de la bouteille (c’est-à-dire l’ensemble des points constituant la trajectoire de la bouteille à travers l’espace-temps) constitue un processus causal, et ce processus intersecte le processus constitué par la trajectoire du caillou de Suzy au moment et à l’endroit où le caillou rentre en contact avec la bouteille. C’est parce que durant cette intersection a lieu un échange de quantité conservée entre ces deux processus (le caillou« échangeant » de l’énergie avec la bouteille) qu’il existe une relation causale entre le caillou et le bris de la bouteille. Aucun échange similaire de quantité physique conservée n’ayant lieu entre la bouteille et le caillou lancé par Billy, ce dernier n’est en revanche pas une cause.

Le concept d’interaction causale permet de déterminer si deux objets ou événements sont causalement connectés l’un à l’autre, mais non de déterminer lequel est la cause et l’autre l’effet, puisque la notion d’échange de quantité observée entre deux processus est symétrique. Dans la troisième étape, Dowe propose d’expliquer la direction causale à la manière de Reichenbach : la direction des relations causales est la direction dans laquelle les fourches ouvertes prédominent (cf. section 3.2). Les notions de processus et d’interactions causaux rentrent donc en jeu uniquement pour caractériser la nature du lien entre la cause et son effet ; l’asymétrie causale en revanche, est expliquée de manière probabiliste.

Cette théorie est réductionniste, puisqu’elle explique la causalité en termes de notions (processus, quantité conservée et interaction causale) définies elles-mêmes en termes non-causaux. Est-elle humienne ? Comme dans le cas de l’approche contrefactuelle, la réponse dépend de la position que l’on adopte sur le statut métaphysique des lois de la nature. Dans la théorie de Dowe, ce sont ces lois – spécifiquement les lois de conservation – qui dictent quel type de quantité doit être échangé entre deux processus pour que ceux-ci interagissent causalement. La question du statut humien ou non de la théorie dépend donc de la question de savoir si ces lois impliquent des connexions nécessaires ou sont de simples régularités décrivant la manière dont certaines quantités physiques sont de facto distribuées dans notre univers.

Une différence importante séparant l’approche processuelle de la plupart de ses concurrentes est que la première ne se présente pas comme une analyse de notre concept ordinaire de causalité (dont il est peu plausible de penser qu’il inclue une notion aussi ésotérique que celle de « quantité conservée »). Dowe la conçoit comme une « analyse empirique », c’est-à-dire une explication scientifique de ce qu’est réellement la causalité dans notre monde (Dowe (2000, ch. 1) ; voir aussi Kistler (2014, sect. 3) et Kutach (2013, ch. 1)). L’idée qu’une théorie de la causalité doit procéder sous la forme d’une telle analyse empirique peut être motivée par analogie avec des concepts comme ceux d’énergie (Dowe, 2000, p. 7) ou de substance nutritive (Kutach 2013, p. 3-4). De même que la meilleure manière de comprendre ce qu’est l’énergie ou une substance nutritive est de se tourner vers les sciences (en l’occurrence la physique ou la diététique), non de consulter nos intuitions « profanes » sur ces notions, de même la meilleure manière de comprendre la causalité est de se tourner vers les découvertes empiriques faites par les sciences à son sujet. En l’occurrence, la découverte empirique centrale est le fait que les interactions entre une cause et son effet impliquent l’échange de quantités conservées. L’idée qu’une analyse empirique vise uniquement à révéler ce qu’est la causalité dans notre monde signifie que la théorie de Dowe vise bien à expliquer les cas ordinaires de causalité, elle n’a pas vocation à s’appliquer à des situations imaginaires telles qu’un scénario dans lequel le jet d’un sort transforme immédiatement et magiquement le prince en grenouille. Notre inclination à décrire de telles situations en termes causaux sans qu’aucun échange de quantité conservée n’y ait lieu n’est donc pas un contre-exemple à la théorie.

Comme le note Hausman (2002, 718), cette position méthodologique soulève la question des critères de confirmation d’une analyse empirique. Si la théorie de Dowe ne doit pas être évaluée à l’aune de nos intuitions profanes sur la causalité, de quelle manière doit-elle être jugée ? L’usage du terme « cause » en physique semble trop peu régimenté pour fournir un point de référence solide (sans parler du fait que si les physiciens utilisent souvent informellement le terme « cause », l’idée que les équations de nos théories physiques décrivent le monde en termes causaux est loin d’être évidente – cf. Russell). Et si une théorie scientifique de l’énergie ou des substances nutritives peut être évaluée expérimentalement, il est difficile de voir en quoi une telle évaluation expérimentale pourrait consister dans le cas de la causalité. Un certain nombre de philosophes estiment qu’une analyse empirique doit s’appuyer sur certaines assomptions à propos du contenu de notre concept ordinaire de causalité, et qu’en ce sens la distinction entre analyse empirique et analyse conceptuelle est bien moins tranchée que ne le laisse entendre Dowe.

b. Causalité sans connexion physique et connexion physique sans causalité

L’une des difficultés auxquelles se heurte l’approche processuelle est qu’il semble exister des relations causales où aucune connexion physique ne relie la cause à l’effet. Il en va ainsi des cas où c’est une omission qui joue le rôle de cause, comme lorsque ma plante meurt parce que je ne l’ai pas arrosée. Ici aucun échange de quantité conservée entre cause et effet n’a lieu, une « entité négative » telle qu’une omission ne pouvant posséder et donc transmettre une telle quantité. Les cas de causalité par « double empêchement » (double prevention), dans lesquels c cause e en empêchant l’occurrence d’un événement d qui aurait empêché l’occurrence de e, sont un autre exemple. Un exemple de Woodward (2003, 225) : lorsque du lactose est présente dans l’environnement d’E. coli, la bactérie produit certains enzymes, la raison étant que le lactose désactive un gêne régulateur empêchant ordinairement la production de telles enzymes. Le lactose est la cause de la production des enzymes, mais aucun échange de quantité conservée ou autre forme de connexion physique ne lie l’un à l’autre.

La réponse la plus courante est que la causalité par omission ou par double prévention n’est pas vraiment de la causalité (Dowe 2000 ; voir aussi Armstrong 2004 et Beebee 2004) mais seulement un proche cousin. Mais les coûts théoriques de cette position sont élevés, puisqu’elle contredit certains jugements scientifiques. (Les biologistes ne montrent aucune réticence à décrire la relation entre lactose et enzymes comme causale). Schaffer (2000b) montre en outre que de nombreux cas ordinairement considérés comme des exemples paradigmatiques de causalité sont des cas de double empêchement. Par exemple, appuyer sur la gâchette d’un pistolet provoque un tir de balle en libérant un percuteur jusque-là retenu par la gâchette. Le théoricien processuel se trouve dans la position peu enviable de devoir soutenir que Suzy cause le bris de la bouteille lorsqu’elle jette un caillou dans sa direction, mais non lorsqu’elle lui tire dessus.

Une autre difficulté est que les échanges de quantités conservées sont partout dans la nature, y compris entre événements intuitivement causalement indépendants l’un de l’autre. Lorsque Charlie regarde passivement Suzy jeter sa pierre, le corps de Charlie émet des photons dont certains vont heurter la bouteille, lui transmettant une quantité (certes extrêmement faible) d’énergie. Le fait que Charlie ne soit pas une cause du bris de la bouteille est donc difficile à expliquer pour l’approche processuelle. Plus généralement, celle-ci semble conduire à une douteuse prolifération des relations causales. (Voir Kistler (1999) pour une solution à ce problème en termes de lois de la nature).

Ces deux problèmes, on le notera, marquent une revanche des théories dépendantistes. Il semble évident que la raison pour laquelle le jardinier est une cause de la mort de la plante (ou le lactose une cause des enzymes) est que dans les deux cas, l’effet dépend de la cause (contrefactuellement et probabilistiquement). Et la raison évidente pour laquelle Charlie n’est pas une cause du bris de la bouteille est que l’occurrence de ce dernier ne dépend pas de la présence de Charlie.

c. L’approche mécaniste

L’application de l’approche processuelle aux cas de causalité économique, psychologique ou biologique soulève certaines questions. D’une part, la théorie présuppose une thèse réductionniste très forte quant à ces types de causalité. Elle implique par exemple que le rôle causal des dépressions économiques dans l’augmentation du chômage est explicable entièrement en termes d’échange d’énergie (ou d’une quantité similaire) entre différents processus physiques – une affirmation qui n’a rien d’évident. En outre, les méthodes couramment utilisées dans ces sciences pour établir une relation causale entre deux facteurs ne reposent certainement pas sur l’identification et l’examen de processus d’échange de quantités conservées reliant les facteurs en question. Il n’est pas évident de comprendre comment l’approche processuelle peut expliquer la fiabilité de ces méthodes.

Partiellement en réponse à ce problème, un certain nombre d’auteurs ont proposé une approche préservant l’idée que la causalité implique un `processus causal’ par lequel la cause produit l’effet, mais analysant ces processus causaux non en termes d’échange de quantités conservées (ou de notions similaires) mais à travers la notion plus générale de mécanisme (Glennan 1996, Machamer et al. 2000 ; cf. Glennan 2009 pour un aperçu). C’est l’existence de mécanismes socio-économiques reliant dépression économique et hausse du chômage qui constitue le lien causal entre les deux. L’identification et l’examen de tels mécanismes jouant un rôle important dans les sciences y compris celles autres que la physique, cette approche semble offrir une meilleure base que l’approche processuelle pour expliquer la méthodologie de ces sciences.

La plupart des définitions de la notion de mécanisme proposées dans cette littérature s’accordent sur l’idée qu’un mécanisme est un système composé de différentes parties interagissant pour produire de manière régulière un certain phénomène. L’une des questions que soulève cette idée concerne la notion d’interaction entre parties d’un mécanisme, qui semble elle-même être une notion causale. (Le mécaniste ne peut pas faire appel à la notion d’interaction causale proposée par Dowe ; cela ferait de l’approche mécaniste une simple version de l’approche processuelle). Glennan (1996, 2009) propose de concevoir ces interactions comme le résultat de « lois causales » elles-mêmes explicables en termes de mécanismes sous-jacents. Par exemple, le mécanisme par lequel l’exercice physique provoque un sentiment de bien-être implique de multiples interactions entre neurones durant lesquelles des endorphines se diffusent d’un neurone à un autre. Ces interactions sont le produit de lois causales régissant les conditions sous lesquelles de tels processus de diffusion ont lieu. Ces lois sont elles-mêmes le produit de mécanismes sous-jacents (impliquant un certain nombre d’interactions entre les différentes composantes des neurones en question et de leurs synapses) eux-mêmes régis par leurs propres lois causales, etc. Selon Glennan, on arrive au terme de ce processus de décomposition à des mécanismes physiques basiques et gouvernés par des lois causales fondamentales non-explicables en termes d’autres mécanismes et irréductibles à des phénomènes non-causaux. Contrairement à la plupart des théories examinées jusqu’ici, l’approche de Glennan ne propose donc pas de réduction de la causalité.

Le programme de recherche mécaniste étant encore à ses débuts, il soulève moins des objections précises que des questions générales quant à sa nature et sa portée. Par exemple, la notion de mécanisme est-elle applicable aux cas de double empêchement et de causalité par omission qui posent problème pour l’approche processuelle ? Les notions de contrefactuel ou de probabilité ont-elles un rôle à jouer dans la compréhension de ce qu’est un mécanisme ? La notion de mécanisme permet-elle d’expliquer la nature de la direction causale ?

Il n’existe pour l’instant pas de réponse consensuelle à ces questions dans la littérature mécaniste. La question de savoir si et comment l’approche mécaniste permet d’éclairer les problèmes centraux que pose la notion de causalité reste donc largement ouverte.


4. L’antiréductionnisme causal

 

L’une des leçons des sections précédentes est que les approches réductionnistes de la causalité –régularistes, contrefactuelles, probabilistes ou processuelles – font toutes face à des difficultés sérieuses. Si de nombreux philosophes restent convaincus qu’une analyse réductionniste de la causalité est possible, ces difficultés systématiques constituent une motivation importante pour l’antiréductionnisme causal, selon lequel la causalité est une composante fondamentale et irréductible du monde qu’il est vain d’essayer d’analyser en termes non-causaux. Voir Woodward (1990) et Carroll (1994) ; les travaux d’Armstrong (1997, 1999, 2004) et Tooley (1987) contiennent aussi des arguments importants pour l’antiréductionnisme.

Outre les échecs répétés des projets réductionnistes, un argument plus direct en faveur de l’antiréductionnisme est l’existence de scénarios dans lesquels la présence ou absence d’une relation causale semble sous-déterminée par les traits non-causaux de la situation. Dans un exemple proposé par Schaffer (2000a), Merlin et Morgane jette chacun un sort, chaque sort ayant une chance de 50% de transformer le prince en grenouille. A minuit la transformation a lieu. Il semble y avoir au moins deux possibilités : la transformation a été causée soit par le sort de Merlin, soit par le sort de Morgane. Les aspects non-causaux du scénario (y compris les faits concernant les lois de la nature auxquelles la situation obéit) semblent entièrement compatibles avec chacune de ces deux possibilités, et ne déterminent donc pas laquelle est la bonne. La structure causale réelle de cette situation est donc un fait fondamental et irréductible. (Schaffer (2008) lui-même soutient néanmoins qu’un tel exemple est trop irréaliste pour avoir une valeur probatoire, et que l’impression qu’il existe ici deux possibilités causales distinctes est une illusion.)

On l’a vu, un argument souvent attribué à Hume est que nous n’avons aucune raison de croire en l’existence de connexions nécessaires dans la nature dans la mesure où celles-ci ne sont pas observables. La plupart des antiréductionnistes (selon lesquels il existe bien des relations fondamentales de nécessitation causale dans la nature) soutiennent que cet argument repose sur une vision appauvrie du contenu de nos expériences, et qu’au moins certaines de celles-ci (par exemple l’expérience de l’agir ou les sensations tactiles associées à la pression d’un objet extérieur sur le corps) nous donnent un accès épistémique direct à des connexions nécessaires (Armstrong 1997 ; cf. également Anscombe 1971. Les expériences de Michotte (1946) sur la perception de causalité sont souvent utilisées en faveur de cette position).

L’objection peut-être la plus importante à l’antiréductionnisme a trait au statut de la causalité en physique. L’approche naturaliste et physicaliste qui domine de nombreux secteurs de la philosophie contemporaine implique que la physique fondamentale est notre meilleur guide quant à « l’ameublement ontologique » fondamental de notre monde. L’antiréductionnisme causal est donc en tension avec la thèse russellienne sur l’absence de la notion de causalité en physique. Le débat entre réductionnisme et antiréductionnisme fait ici connexion avec le riche débat contemporain sur le statut et la légitimité des notions causales en physique (voir Frisch 2014 pour un livre récent sur la question). Il est aujourd’hui relativement admis qu’au moins certaines théories physiques fondamentales font usage de principes d’apparence causale. Le débat porte sur la question de savoir si ces principes ajoutent réellement quelque chose au contenu de ces théories, où s’ils sont au contraire explicables en termes du contenu non-causal de la théorie. Par exemple, on l’a vu, la théorie de la relativité restreinte requiert une distinction entre processus causaux et pseudo-processus. Mais cette distinction semble explicable en termes non-causaux, comme le suggèrent les approches processuelles. Le statut de certains principes causaux apparaissant dans d’autres théories physiques fondamentales comme la relativité générale et l’électromagnétisme classique est moins clair. Par exemple, les équations de Maxwell admettent deux types de solutions (« retardées » et « avancées ») mais les physiciens ont tendance à privilégier les premières au titre du fait qu’elles seules satisfont au « principe de causalité » selon lequel les causes précèdent leurs effets. Si certains philosophes estiment que ce principe ajoute réellement quelque chose au contenu non-causal de la théorie (auquel cas on peut considérer que l’électromagnétisme postule l’existence de relations causales fondamentales dans la nature), d’autres estiment au contraire qu’il est dispensable, et que le privilège accordé aux solutions retardées est entièrement explicable en termes non-causaux. (Voir le débat entre Frisch (2009) et Norton (2009).) Certains auteurs soutiennent que l’approche « réaliste structurale » (voir l’entrée Réalisme Structural) des théories physiques mène naturellement à une interprétation causale de ces théories (Esfeld 2010).

La métaphysique « dispositionnaliste » des pouvoirs causaux (Harré et Madden 1975, Ellis 2001, Molnar 2003) est aujourd’hui la version sans doute la plus influente de l’antiréductionnisme causal. Selon cette approche, la causalité consiste en l’exercice ou la manifestation d’un pouvoir causal (la dissolution du sel dans l’eau étant par exemple une manifestation du pouvoir dissolvant de l’eau), les pouvoirs causaux étant entendus comme constituant une catégorie ontologique basique et irréductible. Un pouvoir causal étant essentiellement lié à ses manifestations, il existe donc bien des connexions nécessaires dans la nature. Selon les partisans de cette approche, c’est parce que la philosophie contemporaine reste prisonnière d’une image humienne du monde comme composée de faits particuliers entièrement indépendants et détachés les uns des autres que la causalité y est vue comme un concept particulièrement problématique; une fois cette image rejetée, les (pseudo-)problèmes que soulèvent la causalité disparaissent. Indépendamment de la question de savoir si les avantages théoriques de la métaphysique des pouvoirs sont suffisants pour contrebalancer ses coûts ontologiques, cette dernière affirmation est disputable. La causalité par omission, par exemple, soulève certains problèmes pour le dispositionnalisme: il n’est pas évident de comprendre comment les « entités négatives » que sont les omissions peuvent avoir et exercer des pouvoirs.


5. Le pluralisme causal

La plupart des approches antiréductionnistes partagent avec les théories réductionnistes le présupposé qu’il existe un et un seul type de relation correspondant au terme « cause ». Les approches pluralistes soutiennent qu’en réalité ce terme recouvre une pluralité irréductible de relations : les échecs systématiques des projets réductionnistes sont explicables par le fait que ces projets visent à offrir une définition unique de la causalité méconnaissant cette diversité sous-jacente. (Voir Hitchcock (2007a) et Godfrey-Smith (2009) pour des aperçus détaillés du pluralisme causal.)

Constatant ainsi que les approches dépendantistes et processuelles font chacune face à des difficultés persistantes et systématiques dans certains types de cas (la causalité redondante pour les unes, la causalité par omission pour les autres), Hall (2004) soutient qu’il existe deux types ou concepts de causalité, l’un explicable en termes de dépendance, l’autre (que Hall appelle « production ») analysable en termes de processus physiques. Anscombe (1971) et Skyrms (1984) défendent des formes plus radicales de pluralisme (cf. aussi Cartwright 2004). Anscombe note que toute relation causale peut être redécrite en termes d’une relation plus spécifique : l’incendie cause la destruction de la maison en la brûlant, l’épine cause le saignement en coupant la peau, etc. Selon Anscombe, le terme « cause » n’a d’autre fonction que de recouvrir cette variété de relations plus spécifiques, Pour Skyrms, notre concept de causalité est un amalgame de plusieurs critères, l’un exigeant que les causes soient liés par un processus spatiotemporel continu à leurs effets, l’autre qu’une cause augmente la probabilité de son effet, un autre encore qu’une cause puisse être manipulée pour influencer ses effets, etc. Dans les cas ordinaires de causalité, ces critères sont tous remplis. Mais dans certaines situations plus complexes ou exotiques, ils rentrent en conflit. Les cas de causalité redondante et par omission en offrent un exemple ; Skyrms, lui, se concentre sur le cas des « corrélations EPR » en physique quantique. Sous certaines conditions, les proprietés de deux électrons a et b émis d’une même source peuvent être corrélées les unes avec les autres de telle manière que par exemple, si le spin de a est mesuré comme aligné vers le haut, une mesure du spin de b indiquera nécessairement que celui-ci est aligné vers le bas. L’alignement du spin de a est-elle une cause de l’aligmement spin de ? Oui, selon certains critères, notamment probabilistes (la corrélation entre les spins des deux électrons persistant même si l’on tient fixe l’état de leur source). En revanche, d’autres critères impliquent une réponse négative, notamment le critère de continuite spatiotemporelle : si a et b soient suffisamment distants, une mesure du spin de a ne peut pas influencer le résultat de la mesure du spin de b par un processus spatiotemporel continu (à moins que celui-ci ne viole la prohibition des vitesses supraluminiques). Pour Skyrms, il n’existe aucune procédure pour régler ces conflits entre ces différents critères; dans ces situations de conflit, le concept de causalité n’est pas applicable, et perd de son intérêt.

Ces approches soulèvent la question de la nature exacte du terme de « cause ». Selon Hall, il s’agit d’un terme ambigu, utilisé pour désigner tantôt une relation de production tantôt une relation de dépendance. (Le fait que nous n’éprouvions en général pas le besoin de préciser ou « désambiguer » nos énoncés causaux constitue une difficulté pour cette approche). Les approches d’Anscombe et de Skyrms suggèrent plutôt que notre terme – ou plus précisément notre concept –de causalité est un « concept faisceau » (cluster concept) ou un concept vague. L’une des objections possibles à cette idée est que même si notre concept de causalité est irrémédiablement vague, il est permis de penser que le ou les concepts de causalité déployés dans les sciences sont suffisamment précis pour faire l’objet d’une explication informative (il est difficile autrement de comprendre le rôle central que jouent ces concepts dans la pratique scientifique), ou du moins que la construction de tels concepts ayant des conditions d’application unifiées et précises a un intérêt évident pour la méthodologie scientifique. C’est là l’un des projets de la théorie interventionniste de la causalité discutée dans la section qui suit.

6. Causalité et manipulation

 

a. L’approche manipulationniste

L’interventionnisme, dont Pearl (2000) et Woodward (2003) sont les principaux représentants (voir aussi Hausman 1998), est une version de l’approche « manipulationniste » ou « agentive » de la causalité, qui propose d’expliquer la causalité en termes du fait que les causes sont des outils ou « leviers » pour influencer leurs effets : lorsque c cause e, il est au moins en principe possible de manipuler e en manipulant c. Ce fait explique sans doute en grande partie pourquoi le concept de causalité nous est si utile. En outre, l’idée que ce qui distingue les corrélations véritablement causales des autres est que seules les premières offrent des leviers d’action est très répandue dans les sciences, notamment en statistique et en sciences sociales. Le lien causalité-manipulabilité constitue donc un point de départ prometteur pour tenter de comprendre la causalité. Mais deux difficultés surgissent immédiatement. D’une part la notion de manipulation est elle-même causale, manipuler un facteur revenant à influencer causalement l’état de ce facteur. Ce fait constitue un problème pour la plupart des théories manipulationnistes offertes au cours du 20e siècle (Collingwood 1940, Gasking 1955, von Wright 1971, Menzies et Price 1993), qui aspirent toutes à offrir une réduction de la notion de causalité. D’autre part, l’approche manipulationniste semble trop anthropocentrique. Aucun agent humain ne peut changer la position de la Lune, mais il est néanmoins incontestable que celle-ci est une cause des marées. Les théories manipulationnistes ont des difficultés à expliquer les relations causales de ce type impliquant des causes non humainement manipulables.

b. L’interventionnisme

L’une des idées directrices de l’interventionnisme est qu’il est néanmoins possible de construire une théorie éclairante de la causalité en termes de manipulation, à condition d’abandonner toute ambition réductionniste. Plus précisément, l’interventionnisme se propose d’expliquer la notion de causalité en termes d’un type spécifique de manipulation appelé « intervention » et lui-même caractérisé de manière ouvertement causale. Une fois ce type de manipulation défini, il est alors possible de définir précisément plusieurs formes de causalité, la plus simple obéissant à la définition suivante : C cause E si et seulement si une intervention changeant la valeur de C est associée à un changement dans la valeur de E. Selon la définition qu’en donne Woodward (2003, ch. 3), une intervention sur un facteur ou « variable » X est un processus causal fixant X à une certaine valeur de manière chirurgicale, ciblée et exogène. Une intervention est « chirurgicale » dans la mesure où elle détermine entièrement la valeur prise par X de telle manière que cette variable devient indépendante de ses autres causes. (Autrement dit, l’intervention opère une « chirurgie » séparant X de ses causes habituelles.) Une intervention est « ciblée » dans la mesure où X est la seule variable directement influencée par l’intervention. Enfin, une intervention est « exogène » dans la mesure où elle n’est pas elle-même causée par une cause de X. Ces trois conditions garantissent que si une intervention sur X est associée à un changement dans la valeur d’une autre variable Y, la seule explication possible est que X cause Y.

Pour illustrer, considérons l’exemple du baromètre et de l’averse. Les trois variables pertinentes sont Baromètre (dont les valeurs correspondent à différents états possibles du baromètre, par exemple pointer sur « pluie » ou pointer sur « temps sec »), Pression (correspondant à différentes valeurs possibles de la pression atmosphérique) et Averse (correspondant à l’occurrence ou non-occurrence d’une averse). Une manipulation de la valeur de Baromètre (par exemple l’action d’ouvrir le baromètre et de fixer son aiguille sur « temps sec ») constitue une intervention si elle satisfait les conditions suivantes. D’une part, la valeur de Baromètre doit être entièrement « contrôlée » par cette manipulation, de telle manière que la valeur de Pression n’exerce plus aucune influence causale sur la valeur de Baromètre. Dans ces conditions, le changement de valeur de Baromètre produit par la manipulation ne peut être associé à un changement antérieur dans la valeur de Pression que si la manipulation en question influence directement la pression atmosphérique, ou si la manipulation est elle-même causée par la pression atmosphérique ou l’une de ses causes. En exigeant qu’une intervention soit ciblée (c’est-à-dire n’influence directement que la valeur de Baromètre) et exogène (c’est-à-dire que l’intervention n’est pas causée par une cause de Baromètre, qu’il s’agisse de Pression ou d’une des causes de Pression), la définition de Woodward a pour effet d’exclure ces deux possibilités. L’interventionnisme implique donc qu’aucune intervention sur Baromètre n’est associée à un changement dans la valeur de Pression, et donc que l’état du baromètre n’est pas une cause de la pression atmosphérique. En revanche, Pression est bien une cause de Baromètre, dans la mesure où une intervention changeant la valeur de la pression atmosphérique est associée à un changement dans l’état du baromètre, au moins dans les contextes où le baromètre fonctionne correctement.

Cet exemple montre ainsi comment l’interventionnisme est en mesure de capturer l’asymétrie de la causalité. Cette asymétrie consiste dans le fait que la corrélation entre une cause X et son effet Y persiste dans les contextes d’intervention sur X, mais non dans les contextes d’intervention sur Y. Il montre aussi que la théorie résout le problème des causes communes. Ici, elle implique correctement que Baromètre n’est pas une cause d’Averse : une intervention sur Baromètre n’étant pas associée à un changement de pression atmosphérique, elle ne donne pas non plus lieu à un changement dans la probabilité d’une averse future. Plus généralement, en décorrélant leurs cibles de leurs causes, les interventions décorrèlent également leurs cibles des autres effets de ces causes.

Pour les interventionnistes, de nombreuses actions humaines sont des exemples paradigmatiques d’intervention. Comme les autres approches manipulationnistes, cette théorie a donc l’avantage d’expliquer élégamment pourquoi les représentations causales jouent un rôle si important pour nous (elles ont pour fonction d’identifier les corrélations qui persistent dans des contextes d’action, et qui peuvent donc être utilisées pour atteindre un résultat désiré). Néanmoins, toutes les interventions ne sont pas des actions: tout processus satisfaisant les conditions de chirurgie, de ciblage et d’exogénéité constitue une intervention, qu’il implique ou non une manipulation opérée par un agent humain. Si le baromètre était couplé à un mécanisme changeant aléatoirement la direction de l’aiguille, ce processus constituerait une intervention sur Baromètre. La notion d’intervention sur un facteur reste donc applicable dans le cas où le facteur en question n’est pas humainement manipulable : l’interventionnisme évite donc l’accusation d’anthropocentrisme soulevée à l’encontre de l’approche manipulationniste.

La définition interventionniste de la causalité n’est pas réductive, les conditions qu’un processus doit satisfaire pour compter comme une intervention étant elles-mêmes formulées en termes causaux, comme par exemple la condition stipulant qu’une intervention ne doit pas avoir d’influence causale directe sur une variable autre que sa cible. Pearl et Woodward sont eux-mêmes convaincus que toute approche réductionniste est vouée à l’échec ; cependant, rien n’interdit de considérer leur approche comme révélant des faits importants à propos de la causalité tout en continuant à penser qu’une réduction de la causalité est possible. A ce titre, l’interventionnisme peut être considéré comme une théorie restant neutre sur le statut métaphysique de la causalité.

Les défenseurs de l’interventionnisme soutiennent que son caractère non-réductif n’en fait pas une théorie triviale ou circulaire. Dans notre exemple, pour déterminer si une manipulation de Baromètre constitue ou non une intervention, il n’est pas nécessaire de savoir à l’avance si Baromètre est ou non une cause de Pression ; en ce sens, la conclusion que l’état du baromètre n’est pas une cause de la pression atmosphérique est une conséquence informative de la théorie. Plus généralement, Pearl et Woodward soutiennent qu’il est possible d’apporter un éclairage substantiel sur certaines questions centrales à propos de la causalité sans avoir à en offrir une réduction ou même à se prononcer sur la possibilité d’une telle réduction. L’émergence et la montée en popularité de l’interventionnisme à partir des années 2000 marque ainsi une réorientation importante des débats en philosophie de la causalité, jusqu’alors dominés par la question de la réductibilité de la causalité et de la forme exacte que devrait prendre une telle réduction le cas échéant.

Parmi les nombreux avantages proclamés de l’interventionnisme, on notera les suivants. Premièrement, l’interventionnisme offre un cadre permettant d’unifier et de préciser un certain nombre d’idées importantes sur la causalité. En offrant une approche contrefactuelle de la causalité (Y dépend contrefactuellement de sa cause X au sens où si certaines interventions sur X avaient lieu, Y changerait de valeur), la théorie interventionniste s’inscrit dans la lignée de Lewis. Elle propose cependant une sémantique des contrefactuels différente, où la notion principale n’est plus celle de miracle mais d’intervention. Woodward soutient que la sémantique interventionniste est à la fois plus précise que celle de Lewis et évite certaines objections auxquelles se heurte la sémantique lewisienne (Woodward 2003, pp. 133-145 ; voir cependant Glynn 2013). L’interventionnisme est également étroitement connecté à l’approche probabiliste et notamment à la théorie des « réseaux bayésiens causaux » évoquée en section 3.3. Hausman et Woodward (1999) soutiennent ainsi que la condition causale de Markov – le principe central de la théorie des réseaux bayésiens causaux– est une conséquence des connexions conceptuelles entre causalité et intervention. La connexion entre causalité et mécanisme (voir section 4.2) est selon Woodward (2002) elle aussi explicable en termes interventionnistes. Selon ses partisans, la capacité de l’interventionnisme à unifier ces différents thèmes en fait une alternative crédible au pluralisme causal.

Deuxièmement, l’interventionnisme apporte un éclairage nouveau et précis sur certaines questions méthodologiques. Il permet notamment d’expliquer le rôle central que jouent les expériences randomisées dans l’inférence causale : l’utilité et la fiabilité de ces expériences pour la découverte de relations causales s’expliquent par le fait qu’une expérience randomisée s’apparente à une intervention. De fait, l’un des avantages principaux de l’interventionnisme est qu’il permet de définir précisément un grand nombre de notions et d’outils formels extrêmement utiles pour le travail d’inférence causale dans les sciences, et dont il est malheureusement impossible ici de donner un aperçu même sommaire. (Voir Pearl (2000)).

Troisièmement, l’interventionnisme offre une perspective nouvelle sur les liens entre causalité, régularités et lois de la nature. L’interventionnisme implique qu’une cause X et son effet Y sont régulièrement associés l’un à l’autre (du moins dans les contextes impliquant une intervention sur X). Mais elle implique aussi que la relation entre X et Y n’est descriptible en termes causaux qu’à condition que cette connexion régulière puisse être « perturbée » ou « brisée » dans le cadre d’une intervention sur Y. C’est le sens de la condition de « chirurgie », qui implique que si Y est un effet plutôt qu’une cause de X il est possible d’intervenir sur Y d’une manière qui rende cette variable indépendante de X. C’est ainsi la possibilité d’intervenir sur le baromètre d’une manière telle que les variations de l’état de celui-ci ne sont plus associées à des variations de la pression atmosphérique qui sous-tend notre jugement que l’état du baromètre est un effet plutôt qu’une cause de la pression atmosphérique. Dans des circonstances où la régularité reliant X à Y est « stricte », c’est-à-dire sans exceptions possibles, l’asymétrie caractéristique de la causalité disparait : toute manipulation de X est associée à un changement de Y, mais toute manipulation de Y est elle aussi associée à un changement de X. Selon Pearl (2000) et Woodward (2007), c’est ce fait qui explique pourquoi, comme le pensent de nombreux philosophes de la physique, les notions causales sont inutiles voire même impossibles à appliquer dans le contexte de théories physiques visant à représenter les lois fondamentales strictes de l’univers : dans de tels contextes, l’idée de « chirurgie » perd de son sens, et « la causalité disparait parce que les interventions disparaissent » (Pearl, 2000, 349-50).

L’approche interventionniste fait cependant face à certains problèmes, ou doit du moins répondre à certaines questions difficiles. L’une de ces difficultés concerne l’existence de relations causales telles qu’une intervention sur la cause semble physiquement impossible. Par exemple, selon l’interventionnisme le lien causal entre la position de la Lune et les marées consiste dans le fait que l’horaire et la force des marées changeraient si une intervention changeant la position de la Lune avait lieu. Or une intervention sur X ne doit pas influencer directement d’autres variables que X. Mais tout processus physiquement possible aboutissant à un changement de position de la Lune (par exemple une collision entre la Lune et une météorite) aurait aussi des effets gravitationnels directs sur la Terre et donc sur les marées. Woodward (2003, pp. 127-133) soutient qu’un tel exemple doit être analysé en termes d’interventions physiquement impossibles, mais la question se pose alors de savoir comment il est possible d’évaluer les effets de telles interventions.

En outre, l’interventionnisme n’offre pas de réponse à certaines questions pourtant pressantes. L’une concerne l’asymétrie de la causalité. On l’a vu, l’interventionnisme explique cette asymétrie en termes d’une asymétrie propre aux interventions – une intervention sur X brise les relations de dépendance entre X et ses causes mais non entre X et ses effets. La question se pose donc de savoir d’où vient cette asymétrie. (Elle ne trouve sans doute pas son origine dans les lois fondamentales de la nature, qui sont elles-mêmes symétriques). La question des soubassements physiques de cette asymétrie est un important thème de recherche actuel (voir notamment les essais réunis dans Price et Corry (2007)).

c. Causalité redondante et équations structurelles

Un troisième problème a trait au fait que la théorie interventionniste expliquant la causalité en termes de dépendance contrefactuelle (elle-même expliquée en termes d’interventions), cette approche semble se heurter aux mêmes difficultés que l’approche contrefactuelle de Lewis dans les cas de causalité redondante. Le développement de l’interventionnisme est cependant lié à l’émergence d’un cadre d’analyse – celui des « équations structurelles » – qui trouve sa source dans le programme de recherche des « réseaux bayésiens causaux » (section 3.3) et offre aux approches contrefactuelles de nouvelles ressources pour résoudre le problème de la causalité redondante (cf. Hitchcock 2001, Woodward 2003, ch. 2, Halpern et Pearl 2005).

J’illustrerai ici cette approche avec le scénario de Hall (2004) décrit en section 2.3. Le cadre d’analyse des équations structurelles représente un tel scénario en termes de variables et d’équations reliant ces variables. Ici la situation peut être décrite avec les quatre variables suivantes :

  • SJ=1 si Suzy jette son caillou, 0 sinon
  • BJ=1 si Billy jette son caillou, 0 sinon
  • BH=1 si le caillou de Billy heurte la bouteille, 0 sinon
  • BB=1 si la bouteille se brise, 0 sinon

A chaque variable est associée une équation. Si la variable est exogène, c’est-à-dire que sa valeur n’est pas causalement déterminée par les autres variables du système, l’équation correspondante assigne à cette variable sa valeur « actuelle », c’est-à-dire celle qu’elle a prise dans la situation. Dans notre cas, les variables exogènes sont SJ et BJ, dont les équations sont donc :

(1) SJ=1

(2) BJ=1

Les deux autres variables sont endogènes, c’est-à-dire que leur valeur dépend causalement de la valeur prises par d’autres variables : la valeur de BB dépend directement de la valeur prise par SJ et BH, et cette dernière variable dépend elle-même directement de la valeur prise par SJ et BJ. Ces relations de dépendance peuvent être représentées à travers les deux équations suivantes :

(3) BH = BJ ∧ ¬SJ

(4) BB=BH ∨ SJ

(3) nous dit que le caillou de Billy heurte la bouteille tant que Billy mais non Suzy jette son caillou. (Il est implicitement stipulé que si Suzy jette son caillou elle le fait avant Billy, si bien que son caillou brisera la bouteille avant que le caillou de Billy ne le fasse). Et (4) nous dit que la bouteille se brise tant que le caillou de Billy heurte la bouteille ou Suzy jette son caillou.

L’avantage d’un tel système d’équations est qu’il offre une méthode générale pour déterminer la valeur qu’aurait prise une des variables du système si d’autres avaient été fixées à certaines valeurs par intervention. Supposons par exemple que l’on cherche à savoir quelle valeur BB aurait prise si SJ et BH avait été fixées aux valeurs 0 par intervention. La première étape consiste à remplacer les équations pour SJ et BH par des équations assignant à ces variables les valeurs qu’elles auraient prises sous ces interventions. Ici, on remplace donc (1) et (3) par (1*) SJ=0 et (3*) BH=0, les équations pour BJ et BB restant les mêmes. (Dans ce nouveau système d’équations, la valeur de BH est exogène, et ne dépend plus de BJ et SJ. C’est en ce sens que l’équation (3*) représente l’effet d’une intervention sur BH, qui (rappelons-le) a pour effet de rendre BH indépendant de ses causes). La seconde étape consiste à inspecter ce nouveau système d’équations pour déterminer la valeur qu’il assigne à BB. Les équations (1*), (2), (3*) et (4) impliquant que BB prend la valeur 0, on en conclue donc que si SJ et BH avaient été fixées à 0 par intervention, BB aurait pris la valeur 0. Autrement dit : si des interventions avaient eu lieu empêchant Suzy de jeter son caillou et empêchant le caillou de Billy de heurter la bouteille, la bouteille ne se serait pas brisée.

En offrant une méthode rigoureuse pour évaluer les contrefactuels propres à la situation considérée (y compris des contrefactuels complexes portant sur plusieurs variables), l’approche des équations structurelles permet de formuler des définitions contrefactuelles de la causalité bien plus sophistiquées que celles proposées dans la tradition lewisienne et qui rendent des verdicts corrects dans au moins un grand nombre de cas de causalité redondante. Je donnerai ici l’exemple de la théorie d’Hitchcock (2001). Pour la comprendre, il est utile de représenter le scénario de Hall sous la forme du graphe suivant :

C:\Users\Thomas Blanchard\Dropbox\Research\Encyclopedie Philosophique\GraphSuzy\Slide1.JPG

Dans un graphe de ce type, la présence d’une flèche d’une variable X à une autre Y indique que X apparait à droite dans l’équation structurelle pour Y, c’est-à-dire est une cause directe de Y. Un chemin dirigé de X à Y est une séquence de flèches connectant X à Y. Dans le cas présent, il existe par exemple un unique chemin dirigé de BJ à BB, qui passe par BH. Hitchcock note le fait suivant : dans le cas de SJ, il existe un chemin dirigé de cette variable à BB (celui ne passant pas par BH) tel que si les variables BJ et BH situées en dehors de ce chemin avaient été fixées à leurs valeurs actuelles par intervention, la valeur de BB aurait été contrefactuellement dépendante de celle de SJ. Autrement dit, si BJ et BH avaient été fixées à leurs valeurs actuelles (à savoir 1 et 0) par intervention, BB aurait pris la valeur 0 sous une intervention fixant SJ à 0. Ou encore : si Billy avait jeté son caillou mais celui-ci n’avait pas frappé la bouteille, alors la bouteille ne se serait pas brisée si Suzy n’avait pas jeté son caillou. On peut vérifier que ce contrefactuel est vrai en remplaçant les équations (1), (2) et (3) par les équations SJ=0, BJ=1 et BH=0 (l’équation pour BB reste la même, à savoir (4)) et en constatant que dans ces conditions BB prend la valeur 0. Selon Hitchcock, c’est pour cette raison que le jet de Suzy est bien la cause du bris de la bouteille : bien que ce dernier ne dépende pas contrefactuellement du premier, il en aurait dépendu si les variables situées en dehors du chemin avaient été fixées par intervention aux valeurs qu’elles ont prises dans la situation. La théorie d’Hitchcock fait ainsi de la causalité une forme de « dépendance de facto ». Cette définition implique que Billy, par contraste, n’est pas une cause du bris de la bouteille. Le seul chemin dirigé entre BJ et BB est en effet tel que si l’on tient la variable SJ située en dehors de ce chemin fixée à sa valeur actuelle 1 par intervention, la variable BB prendrait encore la valeur 1 même si une intervention fixait BJ à la valeur 0. (Cette théorie donne de mauvais résultats dans les cas de surdétermination, mais peut être facilement modifiée pour les accommoder : cf. Hitchcock (2001) et Halpern et Pearl (2005)).

Une analyse en termes d’équations structurelles permet ainsi d’analyser élégamment certains scénarios de causalité redondante auparavant considérés comme des contre-exemples décisifs à l’approche contrefactuelle. Même si la forme exacte que doit prendre une telle analyse reste débattue, cette approche a donc suscité et suscite toujours chez un certain nombre de philosophes un regain d’optimisme quant à la viabilité d’une approche contrefactuelle de la causalité.

Le cadre d’analyse en termes d’équations structurelles est lié à l’interventionnisme dans la mesure où les contrefactuels encodés dans un système d’équations structurelles sont ordinairement interprétés comme représentant les effets d’interventions hypothétiques. Cette interprétation est cependant optionnelle : on pourrait tout aussi bien lire ces contrefactuels de manière lewisienne, c’est-à-dire comme décrivant ce qui aurait lieu si telles ou telles variables étaient fixées à certaines valeurs par des « miracles » les rendant indépendantes de leurs causes. Il existe cependant un autre lien important entre l’interventionnisme et les équations structurelles. Même si l’on interprète les contrefactuels auxquels elle fait appel en termes lewisiens plutôt qu’interventionnistes, une approche telle que celle d’Hitchcock est beaucoup plus proche « idéologiquement » de l’interventionnisme que de Lewis, parce qu’elle ne vise pas à offrir une réduction de la causalité. Pour comprendre pourquoi, notons que les résultats donnés par la théorie d’Hitchcock dans une situation donnée dépendent du modèle utilisé pour la représenter. Imaginons un modèle du scénario de Hall n’incluant que les variables SJ et BB. Puisque BB est contrefactuellement indépendant de SJ, un tel choix aboutit à la conclusion que ces variables sont indépendantes l’une de l’autre, et donc toutes deux exogènes. Dans ce modèle la théorie d’Hitchcock implique donc que le jet de Suzy n’est pas une cause du bris de la bouteille, puisqu’il n’y a pas de chemin dirigé de SJ à BB. Intuitivement, la raison pour laquelle la théorie d’Hitchcock donne ici un résultat incorrect est que ce modèle offre une représentation trop appauvrie de la structure causale de la situation. La leçon importante ici est que pour appliquer correctement la théorie d’Hitchcock à une situation donnée, il faut déjà avoir une idée des variables nécessaires pour représenter adéquatement la structure causale de cette situation. Autrement dit, il faut déjà disposer de certaines informations causales à propos de la situation en question. C’est en ce sens que la théorie d’Hitchcock n’est pas réductive. (Ce qui ne veut pas dire qu’elle est pour autant triviale. Si un système d’équations structurelles représente la structure causale d’une situation, il ne nous dit pas explicitement quelle variable est la cause réelle d’une autre. Dans notre exemple, le système d’équations (1)-(4) n’indique pas explicitement que c’est Suzy et non Billy qui a causé le bris de la bouteille. La théorie d’Hitchcock est informative précisément parce qu’elle nous donne une méthode pour extraire cette information des équations structurelles.)

Le fait que le cadre d’analyse des équations structurelles nécessite de sélectionner un modèle « approprié » de la structure causale d’une situation soulève la question des critères que doit satisfaire un tel modèle (voir Hitchcock 2001, Halpern et Hitchcock 2010, Blanchard et Schaffer 2017). Se pose en outre la question de savoir s’il est possible que deux modèles différents mais également appropriés d’une même situation rendent des verdicts contradictoires. Halpern et Pearl (2005) soutiennent que la réponse à cette dernière question est positive, et qu’en ce sens la causalité n’est pas un phénomène purement objectif.


7. Les faits causaux sont-ils entièrement objectifs ?

 

En soutenant que les faits causaux sont relatifs au choix d’un modèle, Halpern et Pearl s’inscrivent en faux contre l’un des présupposés centraux des approches classiques de la causalité, selon lequel les faits causaux sont entièrement objectifs. D’autres positions et arguments récents tendent également à remettre en cause ce présupposé.

a. Causalité et normes

Dans une expérience célèbre, Knobe et Fraser (2008) invitent leurs sujets à considérer la situation suivante. Deux employées d’une entreprise, Lauren et Jane, utilisent le même serveur informatique, auquel elles peuvent se connecter depuis des terminaux différents. Lorsqu’elles se connectent en même temps, le serveur a tendance à tomber en panne. Pour éviter ce problème, le règlement de l’entreprise stipule que Lauren ne peut utiliser le serveur que le matin et Jane que l’après-midi. Un matin, Lauren et Jane se connectent toutes deux au serveur, qui tombe en panne. Les participants à l’expérience ont tendance à juger que c’est Jane et non Lauren qui a causé le dysfonctionnement du serveur. La seule différence qui semble pouvoir expliquer ce jugement est que Jane mais non Lauren a désobéi à une norme (ici une norme régulant le comportement des employés au sein de l’entreprise). Les jugements causaux semblent donc dépendre en partie de considérations normatives, et non seulement de la structure objective de la situation, que celle-ci soit analysée en termes de contrefactuels, de probabilités ou de processus.

Le cas de la causalité par omission offre un autre argument en faveur de cette conclusion (McGrath 2005). Supposons que j’avais promis à mon ami d’arroser sa plante, mais que j’ai oublié de le faire. Intuitivement, c’est moi et non la reine d’Angleterre qui ai causé la mort de la plante, en dépit du fait que cet événement dépend contrefactuellement aussi bien du fait que la reine d’Angleterre n’a pas arrosé la plante que de mon omission. Là encore, la différence semble due à un fait normatif, à savoir que mon omission mais non celle d’Elizabeth constitue une violation de norme (en l’occurrence la norme selon laquelle une promesse faite doit être respectée).

Sur la base de ces considérations, un certain nombre d’auteurs soutiennent que les considérations normatives jouent un rôle central dans nos jugements causaux ordinaires. (Selon Hitchcock et Knobe (2009) ce fait n’a rien de surprenant, notre concept ordinaire de causalité ayant pour rôle principal d’identifier les agents moralement blâmables pour un résultat indésirable). Plus généralement, il est aujourd’hui courant de soutenir que nos jugements causaux sont influencés par une distinction entre événements normaux ou « défauts » et événements anormaux ou « déviants »  ((Hall 2007, Hitchcock 2007b, Menzies 2007, Halpern 2008 ; mais voir Blanchard et Schaffer 2017), dont de nombreux auteurs estiment qu’elle est en partie liée à des jugements normatifs. Par exemple, lorsqu’un résultat indésirable dépend contrefactuellement de différentes omissions nous jugeons que seules celles de ces omissions qui contreviennent à une norme (morale, sociale, ou autre) et sont en ce sens « déviantes » ont causé le résultat en question.

b. Le perspectivisme causal

Une ligne d’argument anti-objectiviste très différente se base sur les remarques de Russell quant au fait que la direction de la causalité ne trouve pas sa source dans les lois fondamentales de la nature. On l’a vu, des auteurs comme Reichenbach ou Lewis ont cherché à montrer en réponse à Russell que l’asymétrie causale est néanmoins un fait parfaitement objectif, explicable en termes d’autres asymétries physiques. Mais selon certains auteurs (Price 2007, Price et Weslake 2009, Ismael 2016) la vraie leçon à tirer des remarques de Russell est que l’asymétrie causale trouve sa source en nous plutôt que dans la structure physique de notre monde. Plus précisément, cette asymétrie est une projection de certaines asymétries internes à la perspective que nous adoptons sur le monde en tant qu’agents, et notamment du fait que dans cette perspective le passé apparait comme « fixé » et le futur comme « ouvert ». Price (2007) soutient que cette perspective est contingente : la physique fondamentale est compatible avec l’existence de créatures orientées dans la direction inverse du temps, et considérant donc le passé comme ouvert et le futur comme fixé. Pour de telles créatures, la flèche de la causalité apparaitrait comme procédant du futur vers le passé. La distinction entre cause et effet est donc pour Price une affaire de perspective, au même titre que la distinction « ici/là-bas ». (Voir Frisch (2014, ch. 8) pour une discussion critique de cette approche).


8. La sélectivité des représentations causales

 

a. Causes et conditions

Un trait notable de nos jugements causaux qui n’a pas été évoqué jusqu’ici est que ceux-ci sont sélectifs. Cette sélectivité se manifeste notamment dans le fait que nous distinguons ordinairement entre les « vraies causes » d’un événement et les simples « conditions d’arrière-plan » (background circumstances) nécessaires à son occurrence. Le court-circuit est ainsi la cause de l’incendie, mais la présence d’oxygène dans l’immeuble (pourtant tout aussi nécessaire à l’incendie) est une simple circonstance d’arrière-plan.

Jusqu’à récemment, l’immense majorité des philosophes de la causalité ont eu tendance à considérer avec Mill (1843) que cette distinction est trop arbitraire pour être prise au sérieux, et ont donc adopté une approche « non-discriminante » (Lewis 1973a, 558-9) de la causalité ignorant cette distinction. Les théories traditionnelles (contrefactuelles, probabilistes ou processuelles) font ainsi de la présence d’oxygène une cause de l’incendie au même titre que le court-circuit. Cette orientation théorique est cependant disputable. Comme l’observent Hart et Honoré (1985), il existe un degré d’accord considérable sur la bonne manière de tracer la distinction. En outre, la distinction joue un rôle important non seulement dans nos attributions causales ordinaires mais aussi dans la pratique scientifique. Les généticiens distinguent ainsi couramment entre les gènes qui causent un trait phénotypique et ceux qui ne sont que des conditions d’arrière-plan nécessaires à l’émergence du trait en question (cf. Waters 2007 et Weber 2017), et cette distinction joue un rôle théorique et explicatif important en génétique. Il est donc permis de penser que la distinction entre causes et conditions d’arrière-plan n’est ni arbitraire ni accessoire, et qu’une théorie adéquate de la causalité se doit d’en rendre compte.

Deux grandes approches existent quant à la nature de cette distinction. La première est celle de Hart et Honoré (1985), selon laquelle parmi toutes les conditions impliquées dans la production d’un effet, nous considérons celles qui sont « normales » comme des conditions d’arrière-plan et les événements « anormaux » (ainsi que les actions humaines) comme des vraies causes. Tout l’enjeu est alors d’expliquer la notion de « normalité » en question. Hart et Honoré ont peu à dire sur ce sujet ; les travaux récents sur la distinction entre événements « défauts » et « déviants » évoqués dans la section précédente sont ici pertinents. L’autre approche trouve sa source chez Mackie (1965). Selon Mackie, une question telle que « pourquoi l’incendie a-t-il eu lieu ? » est contrastive, et doit être lue ainsi : « pourquoi l’incendie a-t-il eu lieu à ce moment ci plutôt qu’un autre ? » Puisque c’est la présence d’un court-circuit qui a fait la différence entre le moment où l’incendie a eu lieu et les autres, il est donc naturel que nous regardions celle-ci comme la « vraie cause » de l’incendie. En revanche, puisque il y avait de l’oxygène dans l’immeuble aussi bien au moment de l’incendie qu’aux moments où aucun incendie n’a eu lieu, l’oxygène n’est qu’une circonstance d’arrière-plan. La question de la nature de la distinction entre causes et conditions fait actuellement l’objet d’un regain d’intérêt parmi les philosophes de la causalité. On trouve dans la littérature contemporaine des versions sophistiquées des idées de Hart et Honoré (Weber 2017) ou de Mackie (Waters 2007), ainsi que des approches novatrices de la question (Franklin-Hall 2015).

b. Stabilité et proportionnalité

La sélectivité de nos représentations causales se manifeste également dans le fait que nous avons tendance à considérer certaines relations causales comme plus importantes ou plus « explicatives » que d’autres, comme l’ont montré un certain nombre de travaux récents. L’un des aspects de ce phénomène est lié à la notion de stabilité ou « insensibilité » (Lewis, 1986, pp. 584-588 ; Woodward 2006, 2010). Dans un exemple de Lewis, un professeur écrit une lettre de recommandation (r) pour l’un de ses étudiants. Celui-ci obtient de ce fait un poste dans une université australienne où il rencontre sa conjointe à une conférence, et a un enfant peu après (s). Une théorie comme celle de Lewis implique que r est une cause de s, le second événement dépendant contrefactuellement du premier. Mais si les circonstances avait été un tant soit peu différentes (par exemple si l’université n’avait pas ouvert de poste cette année-là, si la conférence avait été annulée, etc.), r n’aurait pas causé s. En ce sens, la relation causale entre r et s est instable. A l’inverse, une relation causale est stable lorsque son occurrence ne dépend pas sensiblement des circonstances exactes où elle a lieu. Par exemple, la relation causale entre un tir à bout portant et la mort de la victime est relativement stable : en général, un tir à bout portant entraîne la mort dans la plupart des circonstances. Woodward (2006, 2010) soutient que la notion de stabilité joue un rôle important dans nos représentations causales tant ordinaires que scientifiques : une explication causale d’un phénomène nous semble meilleure lorsque l’explanans cité est une cause stable du phénomène en question, et la construction de modèles scientifiques est guidée en partie par le besoin d’identifier des relations causales relativement stables entre les variables du système étudié.

La notion de proportionnalité (Yablo 1992, Woodward 2010) permet de capturer une autre distinction importante entre types de relations causales. Yablo donne l’exemple d’un pigeon conditionné à donner des coups de bec sur les cibles de couleur rouge, et à qui est présenté un stimulus de couleur écarlate. Il semble plus approprié d’expliquer le coup de bec en mentionnant le fait que le stimulus était rouge plutôt que le fait qu’il était écarlate : la teinte précise du stimulus ne semble pas pertinente, étant donné que le coup de bec aurait eu lieu même si le stimulus avait été d’une autre teinte de rouge. Autrement dit, le fait que le stimulus était rouge est une cause mieux « proportionnée » à l’effet que le fait qu’il était écarlate. Yablo et Woodward soutiennent qu’il est en général préférable d’expliquer un effet en termes d’une cause qui lui est proportionnée. Selon eux, ce principe permet d’expliquer plusieurs aspects importants de nos pratiques explicatives, notamment le fait que nous préférons en général expliquer les actions humaines en termes psychologiques plutôt que neurologiques, les causes psychologiques étant en général mieux « proportionnées » aux effets en question que les causes neurologiques. Shapiro et Sober (2012) et Franklin-Hall (2016) soulèvent plusieurs objections à l’égard de la notion de proportionnalité telle que déployée par Woodward et d’autres ; voir Kistler (2017) pour une réponse à ces critiques.

Si la question de savoir sous quelles conditions un événement en cause un autre a été et reste centrale dans la littérature philosophique sur la causalité, les travaux évoqués dans cette section mettent l’accent sur l’existence de différentes « variétés » de relations causales et sur la nécessité d’être attentif à ces distinctions pour comprendre nos pratiques de représentation et d’explication causale. L’intérêt croissant porté actuellement aux notions de stabilité et proportionnalité marque ainsi une évolution importante dans les débats récents en philosophie de la causalité.


Bibliographie

 

Albert, David (2000). Time and Chance. Cambridge (MA), Harvard University Press.

Anscombe, Elizabeth (1971). Causality and Determinism. Cambridge, Cambridge University Press.

Armstrong, David (1997). A World of States of Affairs. New York, Cambridge University Press.

Armstrong, David (1999). The Open Door: Counterfactual vs. Singularist Theories of Causation. In Sankey, H. (ed.), Causation and Laws of Nature, pp. 175-185. Dordrecht, Kluwer.

Armstrong, David (2004). Going through the Open Door Again. . In Collins, John, Paul, Laurie, et Hall, Ned (éd.), Causation and Counterfactuals, pp. 445-458. Cambridge (MA), MIT Press.

Arntzenius, Frank (2010). Reichenbach’s Common Cause Principle. In Zalta, Edward (éd.), Stanford Encyclopedia of Philosophy (Fall 2010 Edition). URL = <https://plato.stanford.edu/archives/fall2010/entries/physics-Rpcc/>.

Aronson, Jerrold. (1971). On the Grammar of ‘Cause’. Synthese, Vol. 22, pp. 414-430.

Beebee, Helen (2004). Causing and Nothingness. In Collins, John, Paul, Laurie, et Hall, Ned (éd.), Causation and Counterfactuals, pp. 291-308. Cambridge (MA), MIT Press.

Beebee, Helen, Hitchcock, Christopher, and Menzies, Peter, éd. (2009). Oxford Handbook of Causation. Oxford, Oxford University Press.

Bennett, Jonathan (1988). Facts and their Names. Indianapolis, Hackett.

Blanchard, Thomas et Schaffer, Jonathan (2017). Cause without Default. In Beebee, Helen, Hitchcock, Christopher et Price, Huw (éd.), Making a Difference, pp. 175-214. Oxford, Oxford University Press.

Carroll, John (1994). Laws of Nature. New York, Cambridge University Press.

Carroll, John (2008). Nailed to Hume’s Cross? In Sider, Ted, Zimmerman, Dean et Hawthorne, John (éd.), Contemporary Debates in Metaphysics, pp. 67-81. Oxford, Blackwell, 67–81.

Cartwright, Nancy (1979). Causal Laws and Effective Strategies. Noûs, Vol. 13, pp. 419-427.

Cartwright, Nancy (2004). Causation: One Word, Many Things. Philosophy of Science, Vol. 71, pp. 805-819.

Collingwood, Robin G (1940). An Essay in Metaphysics. Oxford, Clarendon Press.

Collins, John (2000). Preemptive Preemption. Journal of Philosophy, Vol. 97, pp. 223–34.

Davidson, Donald (1963). Action, Reasons, and Causes. Journal of Philosophy, Vol. 60, pp. 685-700.

Dowe, Phil (2000). Physical Causation. Cambridge, Cambridge University Press.

Dowe, Phil (2008). Causal Processes. In Zalta, Edward (éd.), Stanford Encyclopedia of Philosophy (Fall 2008 Edition). URL = <https://plato.stanford.edu/archives/fall2008/entries/causation-process/>.

Drouet, Isabelle (2012). Causes, propensités, inférences. Paris, Vuibert.

Eells, Ellery (1991). Probabilistic Causality. Cambridge, Cambridge University Press.

Elga, Adam (2001). Statistical Mechanics and the Asymmetry of Counterfactual Dependence. Philosophy of Science, Vol. 68, pp. S313-S324.

Ellis, Brian (2001). Scientific Essentialism. Cambridge, Cambridge University Press.

Esfeld, Michael (2006). Philosophie des sciences : une introduction. Lausanne, Presses polytechniques et universitaires romandes.

Esfeld, Michael (2010). Physics and Causation. Foundations of Physics, Vol. 40, pp. 1597-1610.

Fair, David (1979). Causation and the Flow of Energy. Erkenntnis, Vol. 14, pp. 219-250.

Franklin-Hall, Laura (2015). Explaining Causal Selection with Explanatory-Causal Economy: Biology and Beyond. In Malaterre, Christophe, et Braillard, Pierre-Alain, Explanation in Biology, pp. 413-438. Dordrecht, Springer.

Franklin-Hall, Laura (2016). High-Level Explanation and the Interventionist’s `Variables Problem’. British Journal for the Philosophy of Science, Vol. 67, pp. 553-577.

Frisch, Mathias (2005). Inconsistency, Asymmetry and Non-Locality: Philosophical Issues in Classical Electrodynamics. New York, Oxford University Press.

Frisch, Mathias (2009). “The Most Sacred Tenet?” Causal Reasoning in Physics. British Journal for the Philosophy of Science, Vol. 60, pp. 459-474.

Frisch, Mathias (2010). Does a Low-Entropy Constraint Prevent Us From Influencing the Past? In Huttemann, Andreas et Ernst, Gerhard (éd.), Time, Chance and Reduction, pp. 13-33. Cambridge, Cambridge University Press.

Frisch, Mathias (2014). Causal Reasoning in Physics. Cambridge, Cambridge University Press.

Ganeri, Jonardon, Noordhof, Paul, et Ramachandran, Murali (1996). Counterfactuals and Preemptive Causation. Analysis, Vol. 56, pp. 219-225.

Gasking, Douglas (1955). Causation and Recipes. Mind, Vol. 64, pp. 479-487.

Gillies, Donald (2002). Causality, Propensity, and Bayesian Networks. Synthese, Vol. 132, pp. 63-88.

Glennan, Stuart (1996). Mechanisms and the Nature of Causation. Erkenntnis, Vol. 44, pp. 49-71.

Glennan, Stuart (2009). Mechanisms. In Beebee, Helen, Hitchcock, Christopher, and Menzies, Peter (éd.), Oxford Handbook of Causation, pp. 315-325. Oxford, Oxford University Press.

Glynn, Luke (2010). A Probabilistic Analysis of Causation. British Journal for the Philosophy of Science, Vol. 62, pp. 343-392.

Glynn, Luke (2013). Of Miracles and Interventions. Erkenntnis, Vol. 78, pp. 43-64.

Godfrey-Smith, Peter (2009). Causal Pluralism. In Beebee, Helen, Hitchcock, Christopher, and Menzies, Peter (éd.), Oxford Handbook of Causation, pp. 326-338. Oxford, Oxford University Press.

Goldman, Alvin (1967). A Causal Theory of Knowing, Journal of Philosophy, Vol. 64, pp. 357-372.

Good, Irving J. (1961a). A Causal Calculus I. British Journal for the Philosophy of Science, Vol. 11, pp. 305-318.

Good, Irving J. (1961b). A Causal Calculus II. British Journal for the Philosophy of Science, Vol. 12, pp. 43-51.

Hàjek, Alan (2007). The Reference Class Problem Is Your Problem Too. Synthese, Vol. 156, pp. 563-585.

Hàjek, Alan (2012). Interpretations of Probability. In Zalta, Edward N. (éd.), Stanford Encyclopedia of Philosophy (Winter 2012 Edition). URL = <https://plato.stanford.edu/archives/win2012/entries/probability-interpret/>.

Hall, Ned (2004). Two Concepts of Causation. In Collins, John, Paul, Laurie, et Hall, Ned (éd.), Causation and Counterfactuals, pp. 225-276. Cambridge (MA), MIT Press.

Hall, Ned (2007). Structural Equations and Causation. Philosophical Studies, Vol. 132, pp. 109-136.

Halpern, Joseph (2008). Defaults and Normality in Causal Structures. In Brewka, G. et Lang, J (éd.), Principles of Knowledge Representation and Reasoning, pp. 198-208. Palo Alto, AAAI Press.

Halpern, Joseph et Pearl, Judea (2005). Causes and Explanations: A Structural-Model Approach – Part I: Causes. British Journal for the Philosophy of Science, Vol. 56, pp. 843-887.

Halpern, Joseph et Hitchcock, Christopher (2010). Actual Causation and the Art of Modeling. In Dechter, Rina, Geffner, Hector & Halpern, Joseph (éd.), Heuristics, Probability and Causality: A Tribute to Judea Pearl, pp. 383-406. Londres, College Publications.

Halpern, Joseph et Hitchcock, Christopher (2015). Graded Causation and Defaults. British Journal for the Philosophy of Science, Vol. 66, pp. 413-457.

Harré, Rom et Madden, Edward (1975). Causal Powers. Oxford, Oxford University Press.

Hart, Herbert L. A. et Honoré, Tony (1985). Causation in the Law, 2ème édition. Oxford, Clarendon Press (Première edition publiée en 1959).

Hausman, Daniel (1998). Causal Asymmetries. Cambridge, Cambridge University Press.

Hausman, Daniel (2002). Essay Review: Phil Dowe, Physical Causation. Studies in History and Philosophy of Modern Physics, Vol. 33, pp. 717-724.

Hausman, Daniel and Woodward, James (1999). Independence, Invariance, and the Causal Markov Condition. British Journal for the Philosophy of Science, Vol. 50, pp. 521-583.

Hitchcock, Christopher (2001). The Intransitivity of Causation Revealed in Equations and Graphs. Journal of Philosophy, Vol. 98, pp. 273-299.

Hitchcock, Christopher (2007a). How to be a Causal Pluralist. In Machamer, P. (éd.), Thinking about Causes, pp. 200-221. Pittsburgh, University of Pittsburgh Press.

Hitchcock, Christopher (2007b). Preemption, Prevention, and the Principle of Sufficient Reason. Philosophical Review, Vol. 116, pp. 495-532.

Hitchcock, Christopher (2016). Probabilistic Causation. In Zalta, Edward (éd.), Stanford Encyclopedia of Philosophy (Winter 2016 Edition). URL = <https://plato.stanford.edu/archives/win2016/entries/causation-probabilistic/>.

Hitchcock, Christopher and Knobe, Joshua (2009). Cause and Norm. Journal of Philosophy, Vol. 106, pp. 587-612.

Hume, David (1739). A Treatise of Human Nature, Book I. Trad. fr. par P. Baranger et P. Saltel, Traité de la nature humaine : livre 1 et appendice. Paris, GF-Flammarion.

Hume, David (1748). Enquiry Concerning Human Understanding. Traduction francaise par M. Malherbe, in Essais et traités sur plusieurs sujets, Paris, Vrin, 2008. Les numéros de page font référence à cette traduction.

Ismael, Jenann (2016). How Do Causes Depend on Us? The Many Faces of Perspectivalism. Synthese, Vol. 193, pp. 245-267.

Kistler, Max (1998). Reducing Causality to Transmission. Erkenntnis, Vol. 48, pp. 1-24.

Kistler, Max (1999). Causalité et lois de la nature. Paris, Vrin. Trad. anglaise Causation and Laws of Nature (2006). Oxford, Routledge.

Kistler, Max (2011). La causalité. In Barberousse, Anouk, Bonnay, Denis, et Cozic, Mikaël (éd.), Précis de philosophie des sciences, pp. 100-140. Paris, Vuibert.

Kistler, Max (2014). Analyzing Causation in Light of Intuitions, Causal Statements, and Science. In Copley, B. et Martin, F. (éd.), Causation in Grammatical Structures. Oxford, Oxford University Press.

Kistler, Max (2017). Higher-Level, Downward and Specific Causation. In Paolini Paoletti, M. et Orilia, F. (éd.), Philosophical and Scientific Perspectives on Downward Causation, pp. 54-75. New York, Routledge.

Knobe, Joshua et Fraser, Ben (2008). Causal Judgment and Moral Judgment : Two Experiments. In Sinnott-Armstrong, Walter (éd.), Moral Psychology. The Cognitive Science of Morality: Intuition and Diversity, pp. 441-447. Cambridge (MA): MIT Press.

Kripke, Saul (1972). Naming and necessity, Cambridge (MA), Harvard University Press. Trad. fr. par P. Jacob et F. Récanati, La logique des noms propres, Paris, Les éditions de Minuit.

Kutach, Douglas (2013). Causation and Its Basis in Fundamental Physics. New York, Oxford University Press.

Kyburg, Henry (1965). Discussion: Salmon’s Paper. Philosophy of Science, Vol. 32, pp. 147–151.

Lewis, David (1973a). Causation. Journal of Philosophy, Vol. 70, pp. 556-567.

Lewis, David (1973b). Counterfactuals. Oxford, Blackwell.

Lewis, David (1979). Counterfactual Dependence and Time’s Arrow. Noûs, Vol. 13, pp. 455-476.

Lewis, David (1983). New Work for a Theory of Universals. Australasian Journal of Philosophy, Vol. 61, pp. 343-371.

Lewis, David (1986). Postscripts to `Causation’. In Philosophical Papers, Vol. II, pp. 172-213. Oxford, Oxford University Press.

Lewis, David (2000). Causation as Influence. Journal of Philosophy, Vol. 97, pp. 182-197.

Lewis, David (2004). Causation as Influence. In Collins, John, Paul, Laurie, et Hall, Ned (éd.), Causation and Counterfactuals, pp. 75-106. Cambridge (MA), MIT Press.

Loewer, Barry (2007). Counterfactuals and the Second Law. In Price, Huw et Corry, Richard (éd.), Causation, Physics, and the Constitution of Reality, pp. 293-326. Oxford, Oxford University Press.

Loewer, Barry, Weslake, Brad, et Winsberg, Eric, éd. (2016). Time’s Arrow and the Probabilistic Structure of the World. Cambridge (MA), Harvard University Press.

Machamer, Peter, Darden, Linda, and Craver, Carl (2000). Thinking About Mechanisms. Philosophy of Science, Vol. 67, pp. 1-15.

Mackie, John (1965). Causes and Conditions. American Philosophical Quarterly, Vol. 2, pp. 245-264.

Mackie, John (1975). The Cement of the Universe. Oxford, Clarendon Press.

McDermott, Michael (1995). Redundant Causation. British Journal for the Philosophy of Science, Vol. 46, pp. 426-443.

McGrath, Sarah (2005). Causation by Omission: A Dilemma. Philosophical Studies, Vol. 123, pp. 125–48.

Mellor, Hugh (1995). The Facts of Causation. New York, Routledge.

Menzies, Peter (1996). Probabilistic Causation and the Pre-emption Problem. Mind, Vol. 105, pp. 85-117.

Menzies, Peter (2007). Causation in Context. In Price, Huw et Corry, Richard (éd.), Causation, Physics, and the Constitution of Reality, pp. 191-223. Oxford, Oxford University Press.

Menzies, Peter et Price, Huw (1993). Causation as a Secondary Quality. British Journal for the Philosophy of Science, Vol. 44, pp. 187-203.

Michotte, André (1946). La Perception de la causalité. Louvain, Institut Supérieur de

Philosophie.

Mill, John Stuart (1843). A System of Logic. Trad. fr. par Louis Peisse, Système de logique inductive et déductive: exposé des principes de la preuve. Bruxelles, Pierre Mardaga, 1988.

Molnar, George (2003). Powers: A Study in Metaphysics. Oxford, Oxford University Press.

Norton, John (2009). Is There an Independent Principle of Causality in Physics? British Journal for the Philosophy of Science, Vol. 60, pp. 475-486.

Papineau, David (1993). Can We Reduce Causal Direction to Probabilities? In Proceedings of the Philosophy of Science Association 1992 (Volume 2), pp. 238-252. East Lansing: Philosophy of Science Association.

Paul, Laurie, et Hall, Ned (2013). Causation: A User’s Guide. Oxford, Oxford University Press.

Pearl, Judea (2000). Causality: Models, Reasoning and Inference. Cambridge, Cambridge University Press. Une seconde edition a été publiée en 2009.

Price, Huw (2007). Causal Perspectivalism. In Price, Huw et Corry, Richard (éd.), Causation, Physics, and the Constitution of Reality, pp. 250-292. Oxford, Oxford University Press.

Price, Huw et Corry, Richard, éd. (2007). Causation, Physics, and the Constitution of Reality. Oxford, Oxford University Press.

Price, Huw et Weslake, Brad (2009). The Time-Asymmetry of Causation. In Beebee, Helen, Hitchcock, Christopher and Menzies, Peter (éd.), Oxford Handbook of Causation, pp. 414-443. Oxford, Oxford University Press.

Reichenbach, Hans (1956). The Direction of Time. Berkeley and Los Angeles, University of California Press.

Reichenbach, Hans (1958). The Philosophy of Space and Time. New York, Dover.

Russell, Bertrand (1912-13). On the Notion of Cause. Proceedings of the Aristotelian Society, Vol. 13, pp. 1-26. Trad. fr. par G. Bourdin revue par M. Kistler et J. Sackur, « Sur la notion de cause », Philosophie, Vol. 89, pp. 3-20. Les numéros de pages font référence à cette traduction.

Russell, Bertrand (1948). Human Knowledge. New York, Simon and Schuster.

Salmon, Wesley (1984). Scientific Explanation and the Causal Structure of the World. Princeton, Princeton University Press.

Salmon, Wesley (1997). Causality and Explanation: A Reply to Two Critiques. Philosophy of Science, Vol. 64, pp. 461-77.

Schaffer, Jonathan (2000a). Overlappings: Probability‐Raising without Causation. Australasian Journal of Philosophy, Vol. 78, pp. 40–46.

Schaffer, Jonathan (2000b). Causation by Disconnection. Philosophy of Science, Vol. 67, pp. 285-300.

Schaffer, Jonathan (2000c). Trumping Preemption. Journal of Philosophy, Vol. 97, pp. 165-181.

Schaffer, Jonathan (2005). Contrastive Causation. Philosophical Review, Vol. 114, pp. 327-358.

Schaffer, Jonathan (2008). Causation and Laws of Nature: Reductionism. In Sider, Ted, Zimmerman, Dean, et Hawthorne, John (éd.), Contemporary Debates in Metaphysics, pp. 82-107.

Schaffer, Jonathan (2016). The Metaphysics of Causation. In Zalta, Edward (éd.), Stanford Encyclopedia of Philosophy (Fall 2016 Edition). URL = <https://plato.stanford.edu/archives/fall2016/entries/causation-metaphysics/>.

Shapiro, Larry, et Sober, Elliott (2012). Against Proportionality. Analysis, Vol. 72, pp. 89-93.

Skyrms, Brian (1980). Causal Necessity. New Haven et Londres: Yale University Press.

Skyrms, Brian (1984). EPR: Lessons for Metaphysics. Midwest Studies in Philosophy, 9: 245-255.

Spirtes, Peter, Glymour, Clark et Scheines, Richard (1993). Causation, Prediction and Search. Cambridge (MA), MIT Press. Une seconde edition a été publiée en 2000.

Spohn, Wolfgang (2009). Bayesian Nets Are All There Is to Causal Dependence. In Causation, Coherence and Concepts, pp. 99-111. Dordrecht, Springer.

Suppes, Patrick (1970). A Probabilistic Theory of Causality. Amsterdam, North-Holland Publishing.

Strawson, Galen (1989). The Secret Connexion: Causation, Realism, and David Hume. Oxford, Oxford University Press.

Tooley, Michael (1987). Causation: A Realist Approach. Oxford, Oxford University Press.

Tooley, Michael (2009). Causes, Laws, and Ontology. In Beebee, Helen, Hitchcock, Christopher and Menzies, Peter (éd.), Oxford Handbook of Causation, pp. 368-386. Oxford, Oxford University Press.

von Wright, Georg Henrik (1971). Explanation and Understanding. Ithaca (NY), Cornell University Press.

Waters, Kenneth (2007). Causes that Make a Difference. Journal of Philosophy, Vol. 104, pp. 551-579.

Weber, Marcel (2017). Causal Selection vs Causal Parity in Biology: Relevant Counterfactuals and Biologically Normal Interventions. Minnesota Studies in Philosophy of Science, à paraître.

Williamson, Jon (2009). Probabilistic Theories. In Beebee, Helen, Hitchcock, Christopher and Menzies, Peter (éd.), Oxford Handbook of Causation, pp. 185-212. Oxford, Oxford University Press.

Price, Huw et Weslake, Brad (2009). The Time-Asymmetry of Causation. In Beebee, Helen, Hitchcock, Christopher and Menzies, Peter (éd.), Oxford Handbook of Causation, pp. 414-443. Oxford, Oxford University Press.

Woodward, James (1990). Supervenience and Singular Causal Statements. In Knowles, D. (éd.), Explanation and Its Limits, pp. 211-246. Cambridge, Cambridge University Press.

Woodward, James (2002). What is a Mechanism? A Counterfactual Account. Philosophy of Science, Vol. 69, pp. 366-377.

Woodward, James (2003). Making Things Happen. Oxford, Oxford University Press.

Woodward, James (2006). Sensitive and Insensitive Causation. Philosophical Review, Vol. 115, pp. 1-50.

Woodward, James (2007). Causation with a Human Face. . In Price, Huw et Corry, Richard (éd.), Causation, Physics, and the Constitution of Reality, pp. 66-105. Oxford, Oxford University Press.

Woodward, James (2010). Causation in Biology: Stability, Specificity, and the Choice of Levels of Explanation. Biology and Philosophy, Vol. 25, pp. 287-318.

Yablo, Stephen (1992). Mental Causation. Philosophical Review, Vol. 101, pp. 245-280.


Thomas Blanchard
Illinois Wesleysian University
tblancha@iwu.edu