La philosophie de A à Z

Plusieurs théories de l’explication scientifique ont été proposées par les philosophes des sciences, qui visent à définir les caractéristiques que toute explication scientifique est censée satisfaire. L’élaboration de telles théories exige au préalable de distinguer l’explication d’une simple description, et de différencier par ailleurs l’explication proprement scientifique d’une explication ordinaire (c’est-à-dire non-scientifique). Ce chapitre a pour but de passer en revue les théories de l’explication scientifique développées depuis les années 1950. Nous portons une attention particulière à la notion de pertinence explicative que les théories principales de l’explication scientifiques ont identifiée comme étant l’essence de l’explication scientifique.


Table des matières

Introduction

1. La théorie déductive-nomologique

2. L’explication causale

a. Théorie mécanique-causale de Wesley Salmon
b. La nouvelle philosophie mécaniste
c. Les théories manipulationnistes

3. Unification

4. Les théories pragmatiques de l’explication

5. Questions ouvertes

Bibliographie


Introduction 

Deux problèmes fondamentaux se posent lorsqu’on cherche à proposer une théorie de l’explication scientifique. Le premier est celui de la caractérisation de la notion d’explication par rapport, par exemple, à la notion de description. Il fait partie des problèmes anciens de l’histoire de la philosophie puisqu’Aristote, dans les Analytiques (II, 1), note qu’il existe une différence entre la connaissance du « quoi » (ti, qui renvoie à une description) et la connaissance « parce que » (da ti, qui renvoie à une explication). Le deuxième problème, plus récemment formulé et traité notamment par les néo-positivistes, est celui de la démarcation entre ce qui revêt ou non un caractère scientifique.

Proposer une théorie de l’explication scientifique revient donc d’une part à distinguer les connaissances descriptives de celles qui sont explicatives, et d’autre part à isoler, si elles existent, les caractéristiques qui « élèvent » une explication au rang scientifique. Dans ce chapitre, les deux problèmes identifiés sont réduits à un unique problème appelé le problème de la pertinence explicative ; ce problème nous invite à caractériser la relation qui existe entre le phénomène à expliquer (l’explanandum) et ce qui l’explique scientifiquement (l’explanans).

Développer une théorie de l’explication scientifique est particulièrement difficile dans le contexte de l’empirisme logique, puisque celui-ci cherche à purger son propre récit sur la science de tout ce qui se situe au-delà des données de nos expériences. Ainsi, alors qu’un lien étroit a été établi entre causalité et explication dans la théorie aristotélicienne des causes, puis par Hume, il est apparu que le concept de cause emmenait la notion d’explication sur le terrain de la métaphysique (Hempel et Oppenheim 1948 chapitre 4). Dès lors, dans la perspective de l’empirisme logique qui oppose science et métaphysique et gratifie la première tout en dénigrant la seconde, l’explication, si tant est qu’elle soit liée à la causalité, devait être étrangère à la sphère scientifique. Cela rejoint par exemple la conclusion de Pierre Duhem (1906), qui affirmait par ailleurs que l’explication devait nécessairement être prise en charge par une justification métaphysique. De son côté, Ernst Mach a défendu la thèse selon laquelle, pour être scientifique, une explication ne peut pas s’appuyer sur une description des causes et doit donc se réduire à une description condensée des phénomènes observables (2012, 393-394). Un strict pré-requis empiriste conduit finalement à conclure que l’explication ne peut pas figurer parmi les objectifs de la science à côté de la description, la prédiction et le contrôle des phénomènes naturels. Cela est, par exemple, la conclusion restée celèbre de Gustav Kirchhoff qui, dans son cours inaugural à l’Université de Berlin, avait affirmé que l’objet de la science était la description des phénomènes naturels, et non leur explication.
Il semble pourtant qu’éliminer l’explication des objectifs de la science implique d’abandonner une activité essentielle de la pratique scientifique,  non seulement nécessaire à la « compréhension » trop négligée par le positivisme, mais aussi à des pratiques qui sous-tendent la production des connaissances scientifiques. Par exemple, l’inférence abductive est fondée sur l’explication puisqu’elle revient à déduire une hypothèse sur la base de sa capacité à expliquer les phénomènes. L’explication, plus généralement, guide heuristiquement la recherche scientifique vers la formulation de nouvelles hypothèses et ainsi de nouvelles directions d’investigation. Pour cette raison, de nombreux philosophes, y compris au sein de la tradition empiriste (par exemple Carl Hempel et Ernst Nagel), ont revendiqué l’importance de fournir une théorie de l’explication en philosophie des sciences.
Dans ce chapitre, nous allons examiner les principaux efforts qui ont contribué au développement des théories de l’explication scientifique. Notre point de départ (section 1), sera la conception qui a été pendant longtemps bien acceptée, à savoir la théorie déductive-nomologique de Carl Hempel. Pratiquement toute la littérature qui a suivi, consacrée à l’explication scientifique, s’est confrontée à la théorie hempelienne et a tenté de trouver de meilleures solutions aux problèmes que cette théorie a rencontrés. Bien que les philosophes qui défendent aujourd’hui cette conception de l’explication scientifique ne soient plus très nombreux, il est important pour comprendre le débat actuel d’expliquer à la fois la théorie hempelienne, et les objections les plus importantes qui ont été formulées contre elle jusqu’ici (§ 1.2).
Dans la deuxième section, nous explorons les tentatives les plus discutées de fournir une caractérisation de l’explication causale : la théorie mécanique-causale de Wesley Salmon (§ 2.1), la théorie mécaniste (§ 2.2) et la théorie manipulationniste (§ 2.3).
La troisième section est consacrée à l’unificationnisme, illustré dans ses deux versions les plus célèbres : celle de Michael Friedman et celle de Philip Kitcher. La quatrième section est consacrée à deux versions différentes de la théorie pragmatique de l’explication : la théorie des questions de type « pourquoi » de van Fraassen et la théorie contextuelle de la compréhension de De Regt et Dieks.
Dans la cinquième et dernière section, nous donnerons un bref aperçu des principaux problèmes non résolus de la théorie de l’explication scientifique.


1. La théorie déductive-nomologique

La discussion sur l’explication scientifique dans la philosophie moderne des sciences s’est imposée dans le débat philosophique principalement grâce à la théorie de l’explication par les lois de couverture (ou déductive-nomologique, DN dans la suite de cet article), initialement formulée par Carl Hempel et Paul Oppenheim (Hempel et Oppenheim, 1948), puis élaborée dans sa forme la plus complète par Hempel seul (1965). Selon Hempel et Oppenheim, l’explication est fortement liée à la notion de compréhension. Cependant, selon les deux philosophes, le concept de compréhension est trop subjectif et anthropocentrique pour une théorie empiriste. Ils proposent alors de définir l’explication scientifique comme un argument qui rend compte de l’explanandum compte tenu de l’explanans.
Dans la théorie DN, le rapport de pertinence explicative est une relation d’inférence logique de l’explanans à l’explanandum. Plus précisément, dans une explication scientifique, l’énoncé qui exprime l’explanandum E est déductible logiquement de l’explanans. L’explanans est composé d’un ensemble de propositions exprimant des conditions initiales I1, I2, …In ainsi qu’une ou plusieurs lois de la nature L1, L2, …Ln qui « couvrent » ce qui doit être expliqué :

I1, I2, …In

L1, L2, …Ln

==========

E

Si les lois invoquées dans l’explication sont universelles et déterministes, alors l’explication est dite déductive-nomologique. Si parmi ces lois il y a au moins une loi statistique, l’explication est appelée statistique inductive (SI). Comme une explication doit rendre compte de l’explanandum, l’explication SI doit attribuer à l’explanandum une forte probabilité.
Il est important de noter que, selon Hempel et Oppenheim, explication et prédiction sont structurellement identiques : l’énoncé qui exprime la prédiction d’un phénomène est en effet déduit des conditions initiales et des lois de la nature pertinentes. La différence entre explication et prédiction est temporelle : une explication concerne généralement un événement qui est survenu dans le passé tandis qu’une prédiction touche à un événement qui se produira dans le futur.

Objections à la théorie DN

La théorie DN a reçu plusieurs critiques, en raison desquelles elle est aujourd’hui abandonnée par la majorité des philosophes. Néanmoins, malgré ses limites, elle constitue souvent un point de départ dans le développement et la discussion des théories alternatives de l’explication. Cela vaut donc la peine de produire ici une analyse détaillées de ses limites, qui servira à évaluer les autres théories présentées par la suite.
La première de ces critiques est que la théorie DN est à la fois trop étroite et trop large. Elle est trop étroite car les explications produites dans la pratique scientifique relèvent rarement  da la théorie DN. Considérons par exemple l’explication de la contraction des longueurs proposée par la relativité spéciale. La contraction des longueurs se manifeste lorsqu’une longueur donnée est jugée inférieure par un observateur en mouvement inertiel par rapport à l’objet mesuré. Une telle explication est tirée des modèles spatio-temporels de Minkowski. Pour expliquer ce phénomène, on représente sur un diagramme spatio-temporel deux tiges de longueur propre 1 : la première est au repos par rapport à nous dans un système de référence S, la seconde est au repos par rapport au système S’ qui est en mouvement inertiel par rapport à S (Figure 1).

 

fig-1-explication-scientifique

Figure 1. La contraction des longueurs. OA est la longueur propre 1 d’une tige au repos par rapport au système S. A’ est la longueur d’une tige au repos par rapport au système S’. OP’ est la longueur d’une tige au repos par rapport au système S’, telle que mesurée dans le système S. OP’ est alors plus courte que OA’.

La première chose à faire est de représenter les deux tiges. Pour représenter une tige dans un diagramme d’espace-temps (dans chaque système de référence) il suffit de trouver les deux événements qui 1) se situent aux extrémités de la tige et 2) sont simultanés dans le système de référence. Supposant que l’origine est l’un de ces événements (pour les deux tiges), le deuxième événement A (A’ pour le bord droit au repos dans S’) est l’événement de distance spatio-temporelle 1 à partir de l’origine O et placé sur l’axe des x (x’) de S (S’). Pour trouver A et A’ on doit donc trouver le lieu des points de distance espace-temps 1 de l’origine O et trouver le point d’insertion A (A’) de ce lieu avec l’axe des x (x ‘). Dans l’espace-temps de Minkowski, le lieu des points à distance spatio-temporelle 1 de l’origine est dit hyperbolique invariant 1 = x2 – y2.
Nous avons donc dessiné les deux tiges OA et OA’ avec la même longueur propre 1. Il faut alors noter que, par rapport au système S, une tige solidaire avec S’ et de longueur 1 serait représentée par le segment OP’, plus court que OA’. La longueur d’une tige est donc supérieure à sa longueur mesurée à partir d’un système en mouvement relatif.
L’explication que l’on vient de donner n’invoque ni des conditions initiales ni des lois de la nature ; elle ne présente pas une structure DN claire. Face à de tels cas, Hempel pensait qu’il ne s’agissait pas de véritables contre-exemples, mais de formulations simplifiées ou elliptiques de véritables explications DN. Selon lui, il suffisait de développer dans leur intégralité ces explications pour rendre explicite leur forme déductive-nomologique encore cachée. Dans notre exemple, on pourrait peut-être traduire l’explication de la contraction des longueurs dans la relativité restreinte sous la forme DN en déduisant ce phénomène des principes relativistes. Néanmoins, bien que de nombreuses explications scientifiques puissent être traduisibles en une version DN, cette traduction aboutit souvent à une explication moins convaincante. C’est ce qui apparaît dans l’exemple de la contraction de la longueur qui, une fois traduite dans une forme DN, perd considérablement son contenu explicatif. Ainsi, pour Harvey Brown et Oliver Pooley (2005), une dérivation de la contraction de la longueur à partir principes relativistes ne fait que montrer que les tiges « doivent se comporter d’une façon tout à fait particulière pour que les deux postulats soient vrais en même temps. Mais cela ne constitue pas une explication de ce comportement »[1] (pour une discussion de cette étude de cas, voir (Felline 2010)).
D’autres limites de la théorie DN touchent aux sciences dites spéciales, telles que la biologie ou la neurologie. Ici se pose un problème additionnel selon lequel le concept de loi de la nature, qui implique une généralisation sans exception, n’a pas le rôle privilégié qu’il assure en physique fondamentale (Fodor, 1989). Dès lors, les théories de l’explication scientifique qui font appel au concept de loi ne sont pas bien adaptées aux cas de ces sciences spéciales (Wimsatt 1976, Bechtel et Richardson 1993). Pendant longtemps, la philosophie des sciences néopositiviste a considéré la physique comme la reine des sciences et un modèle pour les autres sciences qui, pensait-on, devaient s’adapter à ce modèle. Il était donc naturel de sous-estimer le problème d’inadéquation de la théorie DN dans le contexte des sciences particulières, considérées comme immatures par rapport à la physique. Avec l’abandon de cette conception des sciences spéciales, il devient de plus en plus clair que les théories de l’explication gagnent à ne pas employer le concept de loi de la nature pour mieux coïncider avec la pratique scientifique.
Selon une deuxième objection, la théorie DN est trop large. La littérature regorge d’exemples qui illustrent ce problème. Nous prenons ici un exemple proposé par Hitchcock (1995) qui nous servira aussi dans l’analyse d’autres théories de l’explication scientifique. L’exemple est le suivant : M. Slim frappe une boule de billard avec une queue frottée à la craie bleue. Lors de la collision, de la craie bleue se retrouve sur la boule, qui tombe ensuite dans le trou. Dans cet exemple, le fait que la boule tombe dans le trou peut être déduit avec un argument déductif-nomologique qui invoque comme condition initiale la quantité de mouvement que l’extrémité bleue communique à la boule, et comme loi universelle le fait que tous les systèmes qui contiennent des objets avec une tache de craie bleue gardent leur quantité de mouvement inchangée. Il est clair qu’une telle déduction ne rentre pas dans notre conception pré-théorique de l’explication scientifique, et pourtant elle répond aux critères posés par la théorie DN. En particulier, ce contre-exemple illustre l’incapacité de la théorie DN à isoler la relation de pertinence explicative, étant donné qu’une telle théorie ne peut pas identifier la tache bleue sur la boule de billard comme étant un fait non pertinent a l’explanandum.
Un autre exemple du caractère large de la théorie hempelienne concerne l’incapacité de cette dernière à saisir l’asymétrie qui est généralement associée au rapport de pertinence explicative. Le contre-exemple classique dans la littérature est celui de l’explication de la longueur d’une ombre projetée par un drapeau. On peut expliquer la longueur de l’ombre à partir de la longueur du drapeau (ainsi que de la position du soleil et des lois de l’optique). On peut aussi expliquer la longueur du drapeau à partir de la longueur de l’ombre, ce qui va à l’encontre de l’asymétrie attendue.

L’explication SI de Hempel a également fait l’objet de sévères critiques. Comme nous l’avons dit (§ 1.1), il y a l’exigence selon laquelle une explication SI doit attribuer à l’explanandum une probabilité élevée. Une conséquence à cela est que les événements de faible probabilité sont inexplicables. Or cette conséquence l’intuition selon laquelle les phénomènes peu probables sont en principe, eux aussi, explicables.

Enfin, le dernier problème de la théorie DN que nous discutons ici est le fait que cette théorie, développée au sein d’une philosophie strictement empiriste, utilise la notion de loi de la nature. Nous avons déjà vu que ce concept est problématique dans les sciences spéciales. Cependant, indépendamment de son utilisation dans ces sciences, la notion de loi de la nature présente des problèmes conceptuels, en particulier dans une perspective empiriste.
Traditionnellement (par exemple Goodman 1947), Hempel et Oppenheim (1948, pp 264-70)) une loi de la nature est une proposition vraie de forme universelle
∀x (Q (x) → P (x)).
Les généralisations de cette forme ne sont pourtant pas toutes considérées comme de véritables lois de la nature, ni ne semblent en posséder les pouvoirs explicatif et prédictif. Prenons par exemple la loi de la nature : « tous les gaz, lorsqu’ils sont chauffés, se dilatent » (en supposant que la pression du gaz est maintenue constante). En tant que loi de la nature, cette proposition peut être utilisée pour prédire que le prochain gaz que l’on chauffera se dilatera. De même, nous pouvons expliquer pourquoi, hier, quand nous avons approché un gaz d’une source de chaleur, il s’est dilaté. Prenons maintenant un cas différent. Disons que nous avons une boîte dont nous savons qu’elle ne contient que des boules noires. La proposition N : « toutes les boules dans la boîte sont noires » est universelle et vraie, donc elle a la forme d’une loi de la nature telle que définie plus haut. Pourtant, contrairement à la généralisation précédente sur le gaz, N ne peut pas être utilisée pour prédire la couleur des prochaines boules qui seront insérées dans la boîte, ni pour expliquer pourquoi la boule à l’intérieur de la boîte est noire. Il ne s’agit pas d’une loi de la nature, mais d’une généralisation accidentelle.
De toute évidence, une formulation rigoureuse de la théorie DN exige également une description exacte de ses concepts clés, et donc une distinction claire entre généralisations accidentelles et lois de la nature. Or, depuis la formulation du problème de Hume de l’induction, l’établissement d’une distinction entre les lois empiriquement acceptables de la Nature et les généralisations accidentelles continue d’être l’un des problèmes les plus importants de la métaphysique et de l’épistémologie des sciences.

Certains philosophes — par exemple Armstrong (1979) et Tooley (1977) — expliquent la différence entre les lois de la nature et les généralisations accidentelles comme suit : les premières, contrairement aux secondes, décrivent des relations nécessaires dans la nature ; cette nécessité n’est pas logique, mais nomologique. Selon ce point de vue, si ∀x (Q (x) → P (x)) est une loi de la nature, alors il y a une relation nécessaire entre P et Q qui nécessite qu’un objet x qui est Q soit aussi P. Dans l’exemple de la loi qui lie la température au volume d’un gaz, il existe une relation nécessaire entre température et volume, ce qui explique pourquoi, lorsqu’il est chauffé, un gaz se dilate.
Pourtant, il faut rappeler que, parmi les vertus supposées de la théorie DN figure sa capacité à caractériser l’explication scientifique d’une façon non problématique d’un point de vue empiriste. Pour cela, nous l’avons vu, le fait que la théorie DN ne recoure pas à des concepts opaques comme celui de cause était considéré comme une vertu de cette théorie. Mais si la notion de cause est problématique pour un empiriste, c’est aussi le cas du concept de nécessité nomologique, qui est décrié par plusieurs philosophes des sciences (parmi lesquels David Hume et David Lewis).


2. L’explication causale
 

Bien que le concept d’explication soit traditionnellement lié à celui de cause, la nature problématique de ce dernier a dissuadé dans un premier temps les empiristes de l’utiliser dans leurs théories de l’explication scientifique. Par la suite, les travaux portant spécifiquement sur la notion de causalité ont permis d’en cerner plus précisément les contours et ainsi de lever certaines des réticences à son emploi. En parallèle, le nombre croissant de contre-exemples à la théorie DN a mis en lumière les limites de cette théorie. Tout cela a conduit de nombreux philosophes à penser que la théorie DN est pénalisée par l’absence de référence à la causalité.

Peter Railton a réintroduit le concept de mécanisme causal au centre des nouvelles discussions sur l’explication scientifique. Lorsqu’il a proposé sa théorie nomothétique-déductive de l’explication statistique (1978, 1981), son but était de surmonter une déficience particulière de la théorie hempélienne SI. Pour Railton, il manque à cette théorie une description des mécanismes impliqués dans la survenue de l’explanandum (1978, 748).
Ainsi, il faudrait donc proposer une analyse adéquate de la causalité en répondant à Hume, c’est-à-dire en proposant la causalité non comme concept métaphysique, mais en accord avec les exigences empiristes. Railton ne caractérise malheureusement pas en détail la notion de mécanisme, indiquant simplement que la description d’un mécanisme est « une description plus ou moins complète des maillons d’une chaîne causale » (1978, 748).
Le premier défi que les successeurs de Railton devaient relever était donc de proposer une caractérisation appropriée de la causalité pour fonder la théorie causale de l’explication. La présente section est consacrée aux tentatives qui ont contribué à faire avancer ce projet.

a. Théorie mécanique-causale de Wesley Salmon 

Wesley Salmon est probablement le philosophe qui a le plus contribué à l’élaboration de la théorie moderne de l’explication causale. Son travail, comme celui de Railton, a pour origine une tentative de dépasser la théorie hempélienne par une théorie de l’explication causale. Contrairement à Railton, cependant, une partie substantielle du travail de Salmon est consacrée à fournir une caractérisation non-métaphysique du concept de causalité.
La première tentative de Salmon est la théorie de pertinence statistique (1971), dans laquelle expliquer signifie montrer quelles conditions initiales sont pertinentes pour l’attribution d’une certaine probabilité à l’explanandum. Dans la théorie de pertinence statistique, l’explication n’est pas un argument qui devrait rendre l’explanandum ‘prévisible’. Dans ce contexte, Salmon peut donc abandonner l’exigence de probabilité élevée qui est au cœur de la théorie SI. Dans cette théorie, les facteurs qui influent positivement et ceux qui influent négativement sur la probabilité de l’explanandum sont pertinents du point de vue explicatif (cette idée était déjà présente dans la théorie des explications aléatoires de Humphreys (1981)).
Après plusieurs tentatives visant à perfectionner les théories de pertinence statistique, Salmon arrive à la conclusion que la relation de pertinence statistique entre les conditions initiales et l’explanandum n’est pas suffisante pour rendre compte des liens de causalité qui sont au fondement d’une explication scientifique et il abandonne alors l’approche statistique.
Dans L’explication scientifique et la structure causale du monde (1984) Salmon affirme qu’une explication scientifique adéquate devrait exhiber les mécanismes qui opèrent dans notre monde. Cette idée est au fondement de la théorie mécanique-causale (MC) de Salmon. La suite de cette section décrit brièvement les deux tentatives les plus célèbres de Salmon (d’abord présentées sous leur forme la plus complète dans (1984), puis dans (1994, 1997, 1998)) afin de rendre compte de la nature des liens de causalité, et en même temps de l’explication scientifique. À cet égard, il faudra garder à l’esprit que beaucoup des objections faites contre les théories de Salmon en interroge leur caractère causal et ne portent donc qu’indirectement sur leur valeur explicative.

Dans la théorie de Salmon, le concept fondamental est celui de processus causal. Les événements et les processus se distinguent par leur représentation géométrique dans l’espace-temps : les événements sont localisés dans l’espace et le temps alors que les processus ont une durée et une étendue spatiale (Salmon 1984, p.139). Un autre concept fondamental est celui d’interaction causale qui est l’intersection entre des processus causaux dans laquelle la structure des processus est modifiée. Dans la représentation spatio-temporelle, l’interaction est représentée par l’intersection entre deux lignes d’univers.
Salmon établit une distinction entre de véritables processus causaux et ceux qu’il appelle des pseudo-processus. Dans une première version de la théorie MC, Salmon articule cette distinction via le concept de marque, déjà introduit par Reichenbach (1927). Une marque peut être intuitivement représentée par un signe concret – par exemple, une marque de craie sur la surface d’une boule — bien qu’il puisse aussi renvoyer à une chose plus abstraite — par exemple, une quantité de mouvement. Ce qui distingue de véritables processus causaux des pseudo-processus est que seuls les premiers peuvent transmettre une marque, c’est a dire peuvent maintenir dans le temps un état modifié d’une caractéristique qui est invariable autrement dans un processus. Reprenons l’exemple de la boule de billard formulé par Hitchcock (§ 1.2). Lorsque M. Slim frappe la boule avec la queue, la collision implique un changement dans la quantité de mouvement de la boule, et cette quantité de mouvement reste maintenue tant que la boule n’est pas soumise à des forces extérieures. Le mouvement de la boule est donc en mesure de transmettre à travers sa trajectoire spatio-temporelle une marque, représentée dans ce cas par une quantité de mouvement. Selon la définition de Salmon, un tel mouvement est un véritable processus causal.
Cette formulation de la théorie MC a révélé un certain nombre de problèmes, au premier rang desquels figure le fait qu’elle fasse intervenir la notion de contrefactuel (Kitcher, 1989), tel que « si la boule avait été frappée par M. Slim, elle aurait gardé la même quantité de mouvement ». En outre, il est apparu que l’explication causale fondée sur la théorie de la marque de Salmon ne peut pas vraiment surmonter certaines limites de la théorie DN pour lesquelles elle avait pourtant été proposée comme solution. Dans l’exemple du jeu de billiard, la chaîne de processus causaux qui commence par la collision entre la queue et la boule, et qui se termine par la configuration où la boule est dans le trou, peut être décrite en utilisant différents éléments. La quantité de mouvement peut être utilisée comme une marque, mais la tache de craie peut l’être aussi puisqu’elle satisfait la définition de marque, le mouvement de la boule étant capable de la transmettre. Cependant, la tache de craie ne semble pas être pertinente dans l’explication de la boule dans le trou.
Pour surmonter ces difficultés, Salmon propose en (1994) une nouvelle version de la théorie MC, explicitement fondée sur la théorie de la causalité physique proposée par Phil Dowe (1992) et qui se concentre sur le concept de quantités conservées. Nous pouvons résumer cette version de la théorie de MC par ces trois points (Hitchcock 1995) :
1) une interaction causale est une intersection de lignes d’univers qui implique le remplacement d’une quantité conservée ;
2) un processus causal est une ligne d’univers d’un objet qui transmet une quantité conservée non-nulle à chaque moment de son histoire (c’est a dire à chaque point de l’espace-temps de sa trajectoire) ;
3) un processus transmet une quantité conservée Q du point A au point B, s’il possède une telle quantité Q dans A et B sans aucune interaction dans l’intervalle semi-ouvert (A, B], ce qui implique un échange de Q.
Par exemple, en l’absence de forces externes, une molécule de gaz m1 en mouvement du point spatio-temporel A au point B, maintient une quantité de mouvement constante. Conformément à la définition 3), par conséquent, le processus de mouvement libre de m1 transmet une quantité conservée de A à B (où l’intervalle semi-ouvert permet que, dans A, il existe une interaction qui détermine la quantité de mouvement possédée par m1). Selon la définition 2), la ligne de l’univers de m1 est un processus causal, étant donné qu’il transmet une quantité de mouvement non nulle en chaque point de l’espace et du temps. Enfin, conformément à la définition 1), une collision entre m1 et une autre molécule m2 (l’événement identifié par le point d’intersection des lignes d’univers des deux molécules) est une interaction causale, car elle implique un échange de quantité de mouvement entre les deux molécules, dans lequel la quantité de mouvement du système composé m1 + m2 est préservée.
Malheureusement, même cette définition de la causalité souffre de problèmes techniques qui affectent la fiabilité de la théorie comme théorie causale. Un autre exemple formulé dans Hitchcock (1995) est celui-ci : imaginons une plaque de métal dotée d’une charge uniforme non nulle sur sa surface. Imaginons en outre qu’une ombre soit projetée sur la plaque et qu’elle se déplace de telle sorte que la surface de la plaque dans l’ombre garde toujours la même taille. Les ombres mouvantes sont un exemple paradigmatique de pseudo-processus, mais selon les critères énumérés ci-dessus, elles tombent dans la catégorie des processus causaux véritables. La superficie occupée par l’ombre reste constante, elle possède donc une quantité constante de charge électrique (une quantité conservée) dans son mouvement d’un point A à un point B. Par conséquent, selon la définition 3), l’ombre transmet une charge électrique (une quantité conservée) et, selon la définition 2) le déplacement de l’ombre est un processus causal. (Hitchcock 1995, 314-315)

Ainsi, certains problèmes les plus graves posés par la version précédente de la théorie fondée sur le concept de marque se retrouvent ici quasi à l’identique dans cette version de la théorie MC (Woodward 2003a, Hausman 2002) — si bien que, encore une fois, les contre-exemples qui ont montré les limites de la première s’appliquent également ici. Dans le jeu de billard, différentes quantités conservées sont transmises dans le processus qui mène de la queue à la boule, puis à la chute de la boule dans le trou. Parmi ceux-ci se trouvent : le moment angulaire, le moment linéaire et la charge électrique. Or seule la quantité de mouvement est pertinente dans l’explication du fait que la boule est tombée dans le trou. Dans ce cas aussi, la théorie de Salmon est incapable de distinguer entre ce qui est pertinent causalement et ce qui ne l’est pas.
Une autre limite de la théorie causale de Salmon-Dowe est son caractère réductionniste (ou fondamentaliste) causal. Le réductionnisme causal est la thèse selon laquelle la causalité trouve son fondement dans les processus physiques les plus élémentaires (Glennan 1996) ou qu’une bonne explication scientifique doit être formulée à partir des théories scientifiques les plus fondamentales (Craver 2007, note 13). Cette exigence implique l’exclusion de toutes les explications données par les sciences particulières, qui ne sont pas incluses dans la théorie Salmon-Dowe puisqu’il ne décrit que la transmission de quantités conservées. Il suffit de penser à des phénomènes extrêmement complexes (l’origine d’un virus ou d’une tumeur, la transmission synaptique ou encore la propagation des mouvements xénophobes dans une société en crise), dont la description en termes de transmission et d’échange de quantité conservée ne serait non seulement pas réalisable en pratique, mais ne semble pas explicative.

La théorie de Salmon souffre aussi d’un autre problème ayant trait à la généralité. À plusieurs reprises, Salmon admet un certain pluralisme dans sa conception de l’explication scientifique (la déclaration la plus complète d’un point de vue pluraliste se trouve dans Salmon (1989 chapitre 5), mais on peut aussi consulter (1984, pp. 240-242)). Il demeure que pour lui, expliquer signifie montrer les structures fondamentales des régularités du monde. Puisque nous avons de bonnes raisons de penser que de telles structures sont causales, les explications scientifiques doivent être des explications causales. Il est donc essentiel que l’affirmation du succès universel de l’explication causale soit fiable. Or la pratique scientifique fournit plusieurs exemples d’explications qui ne semblent pas reposer sur un raisonnement causal. Les exemples les mieux connus proviennent de la physique fondamentale, où la notion de causalité est souvent difficile à appliquer (Russell 1912, Norton 2003). Un cas emblématique de ce point de vue est celui des explications dites « structurelles » en relativité restreinte et en mécanique quantique (Hughes 1992, Clifton 1998, Dorato 2007, Felline 2010, Dorato et Felline 2011). Un défenseur de la théorie MC peut répondre que, dans des cas comme celui-ci où l’on ne dispose pas d’un compte-rendu causal, l’explanandum demeure effectivement inexpliqué (Salmon 1984). D’autres soutiennent que l’explication de la contraction des longueurs en relativité restreinte, qui fait appel aux propriétés géométriques de l’espace-temps, ne peut pas avoir un réel pouvoir explicatif puisque l’espace-temps n’est pas une entité ayant un pouvoir causal, c’est à dire une entité qui peut interagir causalement avec autres entités et produire un effet (voir (Brown & Pooley 2005) et (Felline 2011) pour une réponse). Pour une critique plus générale de cette stratégie argumentative, voir (Woodward 1989).

Les domaines de la physique fondamentale ne sont néanmoins pas les seuls à offrir des exemples d’explications non-causales. Il suffit de penser aux explications du comportement de systèmes complexes typiques des sciences comme la biologie, les neurosciences et la sociologie (Berger 1998). Dans ces cas, il est beaucoup plus difficile à soutenir — comme dans le cas possiblement controversé de la relativité restreinte — que les phénomènes de ces domaines ne peuvent recevoir de véritable explication. Plus récemment, la question des explications non-causales est devenu l’objet de débats passionnés dans la théorie de l’explication scientifique (par exemple Batterman 2002, Baker 2005, Pincock 2007, Lange 2013, 2014).

b. La nouvelle philosophie mécaniste

La nouvelle philosophie mécaniste (Glennan 1996, 2002, 2011, Machamer, Darden et Craver 2003, Craver 2007, Darden 2008, Andersen 2011, Williamson 2011) est un ensemble de propositions visant à fournir une analyse adéquate de la notion de mécanisme et de son rôle dans la pratique scientifique. Les philosophes qui font partie de ce courant soulignent que, jusque très récemment, le rôle central que jouent les mécanismes dans la pratique scientifique n’a pas eu un grand retentissement en philosophie des sciences. La nouvelle philosophie mécaniste propose donc de mettre en évidence les avantages possibles que le concept de mécanisme peut apporter en philosophie des sciences, en particulier dans les théories de l’explication.

Une explication mécaniste d’un phénomène P nécessite une description, qui peut être plus ou moins idéalisée, des mécanismes sous-jacents de P (Glennan 2002, 2005 Abrahamsen et Bechtel, Craver 2006, Illari et Williamson, 2010). La nouveauté de la philosophie mécaniste par rapport à la théorie MC proposée par Salmon est sa définition du mécanisme comme système complexe. Dans la littérature, diverses formulations ont été proposées qui diffèrent entre elles mais de façon peu importante relativement à la plupart des applications philosophiques de ce concept. Ici, il sera quand même utile de signaler deux des définitions les plus citées : celle de (Glennan 2000) et celle de (Machamer et al. 2000).

Selon Glennan « un mécanisme engendrant un comportement est un système complexe qui produit ce comportement par l’interaction d’un certain nombre de parties caractérisée par des généralisations directes et invariantes mettant en corrélation les changements. »[2] (Glennan 2000, p. S344)

Selon Machamer et al. «Les mécanismes sont des entités et des activités organisées de façon à produire des changements réguliers depuis le début jusqu’aux conditions finales» (Machamer et al. 2000 p.3)

fig-2-explication-scientifique

Figure 2. (dessin tiré de Glennan 2011) Les deux côtés a et b d’un mécanisme sont eux-mêmes des mécanismes. Les flèches représentent l’interaction entre les parties a et b et les lignes pointillées représentent des relations constitutives. a et b sont aussi des systèmes complexes, les mécanismes dont le comportement est expliqué par le comportement des parties constitutives et de leurs interactions. L’interaction entre les parties peut également impliquer la médiation d’autres entités (I1 I2).

On retrouve aussi bien dans la version de Glennan que dans celle de Machamer et al. les propriétés de base des mécanismes de la nouvelle philosophie mécaniste. Tout d’abord, les mécanismes sont des systèmes avec un certain degré de stabilité. Deuxièmement, les mécanismes sont des systèmes hiérarchiques, au sens où chaque partie d’un mécanisme constitue elle-même un mécanisme. Le comportement de chaque partie est à son tour explicable à travers la description de ses composants et de leurs interactions. (Figure 2)

Les défenseurs de la nouvelle philosophie mécaniste affirment que dans ce cadre conceptuel on peut résoudre le problème de la pertinence de la théorie DN et des théories causales à la Salmon. Pour eux, expliquer consiste à décrire un mécanisme comme un ensemble de parties et d’interactions entre ces parties qui sont gouvernées par des généralisations directes et invariantes mettant en relation les modifications des comportements des parties avec ceux du mécanisme. Selon cette définition, la queue, la boule, la table et le trou sont des parties du mécanisme. Les interactions entre ces entités sont régies par des généralisations qui mettent en corrélation les changements dans le comportement des entités avec les changements dans le comportement du mécanisme. Par exemple : « lorsque la queue frappe la boule, se déplaçant dans la direction x, la boule se déplace également dans la direction x » est une généralisation qui concerne les changements, car un changement dans la direction selon laquelle la queue frappe la boule apporte un changement à la direction du mouvement de la boule, et donc à une modification du comportement final « entrer dans le trou ou non ». La craie, cependant, ne fait pas partie de ce mécanisme puisqu’un changement dans son comportement ne conduit pas à des changements dans le comportement final à expliquer. (Craver (2007) soutient que la version de ce mécanisme dans (Glennan 1996) ne va pas résoudre le problème de la pertinence. Pour une réponse à Craver, voir (Glennan 2011, p. 800-801).

Au-delà du fait qu’elle est une nouvelle approche au problème de la pertinence, la nouvelle philosophie mécaniste offre aussi une nouvelle perspective anti-réductionniste (anti-fondamentaliste) qui s’oppose à la théorie réductionniste de causalité de MC Salmon (§ 2.1 ). Rappelons que le fondamentalisme causal affirme que la base de la causalité est dans les processus physiques les plus élémentaires (Glennan 1996) ou qu’une bonne explication scientifique doit être formulée à partir des théories scientifiques plus fondamentales (Craver 2007, n. 13). Grâce à cette position anti-fondamentaliste, l’explication mécaniste a une application beaucoup plus large que les théories rivales à la Salmon. L’une des principales forces de la nouvelle philosophie mécaniste est l’omniprésence du raisonnement mécaniste dans la pratique scientifique.

c. Les théories manipulationnistes

Au sein des théories manipulationnistes de la causalité, l’expression « X cause Y » signifie qu’une manipulation de X implique un changement de Y. Avec la théorie mécaniste, la théorie manipulationniste est aujourd’hui l’une des mieux acceptées dans le débat sur l’explication. Elle ne constitue pas une nouveauté absolue en philosophie des sciences puisque des variantes ont été proposées dès les années 1970 (par exemple (von Wright 1971), mais aussi (Menzies et Prix 1993)). Néanmoins, c’est principalement grâce au récent travail de Jim Woodward (1997, 2000, 2002, 2003a, 2003b) qu’elle a trouvé une formulation plus moderne, particulièrement féconde dans son application à divers aspects de la théorie de l’explication. Cela a nécessité une analyse particulièrement sophistiquée de certains concepts-clés (en particulier via l’utilisation d’outils techniques et de réseaux causaux bayésiens), mais nous nous contentons ici de fournir les éléments de base de la théorie woodwardienne.

Woodward conçoit sa théorie comme une alternative à la théorie DN, et en particulier au rôle qu’elle assigne aux lois de la nature. Selon lui, pour qu’une généralisation soit explicative, il ne faut pas qu’elle fasse appel à une loi de la nature, puisqu’il suffit qu’elle révèle des motifs de dépendance contrefactuelle. Plus concrètement, une généralisation explicative doit être en mesure de donner des informations sur les conséquences liées à un changement donné dans la situation présente. Par exemple, prenons l’affirmation que l’apparition de tumeurs est liée à la consommation de café. Cette affirmation est potentiellement explicative de l’apparition d’une tumeur, car elle fournit l’informations contrefactuelle selon laquelle, si une population changeait sa consommation de café, le taux d’apparition des tumeurs changerait lui aussi. De toute évidence, pour que la généralisation soit véritablement explicative, le réseau de dépendances contrefactuelles qu’elle sous-tend doit être objectif. En d’autres termes, il doit être vrai que, si on changeait la consommation de café, le taux d’apparition de tumeurs changerait également.

Le contexte le plus naturel pour illustrer ce qu’est une intervention (ou une manipulation) est le test expérimental des énoncés causaux. Un exemple est l’affirmation d’un lien de causalité entre l’apparition du cancer et la consommation de café. Idéalement, le test expérimental d’une telle affirmation examinera deux groupes : le groupe 1, auquel on ne donne pas de café, et le groupe 2, auquel on donne une certaine quantité de café par jour. Pour tester le lien de causalité entre café et cancer, on compare les données sur la présence de tumeurs dans les deux groupes.

Admettons qu’à la suite de la prise de café, les sujets du groupe 1 développent une forme grave de stress, qui à son tour conduit à une augmentation inhabituelle de leur consommation de tabac. Il est clair que ce type de manipulation de la variable café n’est pas fiable pour tester le lien de causalité entre la consommation de café et l’apparition du cancer, étant donné qu’une éventuelle différence dans l’apparition des tumeurs dans les deux groupes pourrait dépendre directement des changements dans la consommation de café autant que de ceux du tabac. Pour que la manipulation conduise à un test fiable, il est essentiel que ce processus ne modifie pas d’autres variables du système. Le concept d’intervention sert exactement à identifier ce type de manipulation.

Étant donné un système caractérisé par un ensemble de variables, une intervention est donc un processus causal qui détermine la valeur de certaines de ces variables. Sans entrer dans les détails techniques, on peut voir une intervention (idéale) dans le sens de Woodward comme le résultat d’une action directe qui modifie les facteurs pertinents et dans une moindre mesure qui les autres facteurs.

Ainsi, selon la théorie manipulationniste, C explique causalement E si, suite à une intervention sur C, E change. De cette façon, une explication met en évidence le réseau de dépendances contrefactuelles entre l’explanandum et les facteurs qui sont ses causes (Woodward 2003, p. 191). Par exemple, nous expliquons l’apparition d’une tumeur quand nous montrons comment son taux d’occurrence change avec le changement des facteurs pertinents (tabagisme, pollution, stress, etc.).

La théorie manipulationniste caractérise l’explication scientifique comme étant étroitement liée à la pratique expérimentale et à la manipulation qui est inhérente à la pratique. Cependant, toutes les explications causales de la science ne sont pas liées à la manipulation ou à l’intervention sur les variables. Malgré le fait que cette dimension pratique de la théorie soit souvent décrite comme un avantage, elle en est également une limite. L’expérience extrêmement simplifiée que l’on vient d’illustrer n’en est qu’un exemple : pour des raisons éthiques, la plupart des données que nous avons quant à l’impact de certains facteurs sur l’apparition de tumeurs ne vient pas de la manipulation, puisque nous ne pouvons pas forcer les êtres humains à boire du café ou à fumer pour tester nos hypothèses. De même, l’approche manipulationniste semble inapplicable dans les cas qui impliquent des systèmes non manipulables par l’homme, comme les phénomènes atmosphériques ou astronomiques.

Une partie du travail de Woodward est consacrée à la défense de sa version du manipulationnisme contre de telles critiques. Pour ce faire, Woodward détache le concept d’intervention de ce que sont les limites réelles de la manipulation par l’humain. Il conçoit plutôt une manipulation comme le résultat de l’intervention de dieu dans le monde, qui laisserait le reste de la réalité environnante aussi inchangée que possible — en plaçant par exemple du café directement dans l’estomac des sujets du groupe expérimental sans qu’ils le remarquent, ou en déplaçant les planètes à volonté.

De cette façon, Woodward rend sa théorie plus générale, dépassant le cadre des sciences expérimentales pour toucher aussi aux sciences dites d’observation.

Néanmoins, l’application de la notion d’intervention reste controversée dans de nombreux cas d’explication causale. En effet, alors que la signification d’une telle intervention dans les cas simples qui viennent d’être mentionnés peut être suffisamment intuitive, il y a d’autres cas pour lesquels — pour des raisons logiques ou métaphysiques – il est très difficile d’imaginer ce que signifie « manipuler en changeant le moins possible ». Il suffit de penser aux études sur le rôle du genre dans les divers aspects de la vie sociale (tels que l’emploi, la carrière ou la masse salariale). Il est difficile d’imaginer ce que signifie, même idéalement, intervenir sur le genre d’une personne avec le moins possible d’effets secondaires.


3. Unification

L’idée derrière la théorie de l’unification est qu’expliquer et comprendre consistent essentiellement à réduire le nombre de lois qui régissent les régularités de la nature. La première formulation de la théorie de l’unification est due à Michael Friedman (1974), selon lequel la science augmente notre compréhension du monde en réduisant le nombre total de phénomènes indépendants que nous devons accepter comme ultimes ou donnés. Prenons par exemple les phénomènes liés au comportement d’un gaz parfait. La loi de Boyle et la loi de Graham dérivent du fait que les gaz sont constitués de molécules et que ceux-ci obéissent aux lois de la mécanique. Selon la théorie de l’unification, ce qui rend les lois de la mécanique explicatives à l’égard de la loi de Boyle et de la loi de Graham est le fait que les premières réduisent de trois à une seule le nombre de lois indépendantes que nous devons accepter pour comprendre ces phénomènes.

Deux ans après l’article de Friedman, la théorie de l’unification de Friedman a été reprise et développée par Philip Kitcher (1976, 1981, 1989). Kitcher critique la version friedmanienne de la théorie de l’unification puisque, selon lui, la compréhension ne repose pas seulement sur la réduction des phénomènes indépendants. Elle consiste plutôt à avoir conscience de l’existence de connexions et de motifs communs à different phénomènes là ou initialement on ne percevait pas ces similarités. Dans la version de Kitcher, unifier signifie dériver des phénomènes différents d’un même schéma : plus les phénomènes qui exemplifient ce schéma sont nombreux, plus le pouvoir explicatif de l’explication est grand. Selon Kitcher :

« [L]a science améliore notre compréhension de la nature quand elle nous montre comment dériver des descriptions de processus, en utilisant plusieurs fois les mêmes schémas de dérivation et, de cette façon, elle nous enseigne la façon de réduire le nombre de faits ultimes que l’on doit accepter. »[4] (Kitcher 1989, 423)

La version avancée par Kitcher saisit pourtant avec difficulté ce qui rend une explication scientifique véritablement explicative. Un premier problème est celui de l’asymétrie, déjà rencontré plus haut à propos de la théorie DN (§ 1.2). Dans l’exemple de la tige et de son ombre, il est aisé de voir comment, dans ce contexte, le problème se pose de manière similaire à celle évoquée plus haut. On peut objecter à la formulation de Kitcher que le schéma de dérivation qui part de la longueur de l’ombre pour en déduire la longueur d’un objet A (appelons-le O → A) ait un pouvoir d’unifier d’autres phénomènes similaire au schéma de dérivation qui part de la longueur de l’objet pour en dériver la longueur de son ombre (A → O). L’argument O → A devrait donc être accepté, selon la théorie de Kitcher, comme une explication scientifique. Kitcher (1989) tente de répondre à ce problème en observant que si l’on passe de l’argument A → O à l’argument O → A on perd en pouvoir unifiant. En effet, tous les objets ne projettent pas une ombre qui peut être utilisée pour déduire la longueur de l’objet lui-même. Il est important de noter que jusque là, la réponse de Kitcher ne montre pas que O → A n’est pas une explication, mais seulement que A → O est une explication plus générale que O → A. Pour en arriver à cette conclusion, Kitcher propose le principe selon lequel seul l ‘argument le plus général constitue une véritable explication. Il en résulte que O → A, moins général, ne peut pas être admis comme explication scientifique.

Cette solution au problème de l’asymétrie a été critiquée parce que le fait contingent que tous les objets ne projettent pas une ombre susceptible d’en calculer la longueur ne semble pas saisir correctement la distinction entre une explication véritable de type A → O et une explication fallacieuse de type O → A. Même en supposant qu’elle constitue une solution acceptable au problème de l’asymétrie, la solution originale proposée par Kitcher souffre à son tour de conséquences controversées pour sa version de la théorie unificationniste. Dans la pratique scientifique, le principe du « winner takes all » ne s’applique pas: une explication scientifique peut être acceptable, même si elle n’est pas la meilleure (dans ce cas, la plus générale) parmi celles qui sont disponibles. Par exemple, l’explication de la chute des corps donnée par la loi de Newton est universellement considérée comme une véritable explication scientifique, bien qu’il y ait une explication plus générale donnée par la théorie générale de la relativité d’Einstein.


4. Les théories pragmatiques de l’explication
 

Attribuer une nature pragmatique à l’explication consiste à supposer que les caractéristiques les plus fondamentales de l’explication dépendent à la fois des motivations, croyances et informations détenues par les agents cognitifs qui reçoivent l’explication, et du contexte dans lequel l’explication est évaluée. Ces facteurs déterminent le type d’explication (par exemple causal ou unifiant) nécessaires à la compréhension d’un phénomène.
La théorie pragmatique la plus connue et discutée jusqu’ici est probablement la théorie des questions de type « pourquoi ? » de Bas van Fraassen (van Fraassen, 1980). Pour ce philosophe, une explication est une réponse à une question de type « pourquoi ? ». Les explications scientifiques ne se distinguent pas des autres explications génériques par des caractéristiques intrinsèques ou structurelles, mais seulement par le fait que les premières utilisent de manière essentielle de l’information provenant des théories scientifiques. Par conséquent, la théorie de van Fraassen est en grande partie une théorie générale de l’explication, et non spécifiquement de l’explication scientifique.
En général, une question est une proposition exprimée par un énoncé interrogatif. En particulier, une question de type « pourquoi ? » est une question de la forme :
Pourquoi P ?
où P est l’objet de la question.
Une question dépend du contexte de deux façons : par sa dépendance à une « classe de contraste », et par sa dépendance au rapport de pertinence.
La classe de contraste est une classe :

X = {P1, P2, … Pk}
de propositions, dont l’une est l’objet de la demande et les autres sont des propositions qui représentent des alternatives à l’objet. Prenez, par exemple, la question « pourquoi Adam a-t-il mangé la pomme ? ». Si la personne qui pose cette question veut savoir pourquoi Adam n’a pas jeté la pomme, au lieu de la manger, la classe de contraste est :

X = {Adam a mangé la pomme, Adam a jeté la pomme}.

Mais la même question pourrait être posée par quelqu’un qui sait qu’Adam a mangé la pomme parce qu’il avait faim, et veut savoir pourquoi il a mangé une pomme plutôt qu’une poire ou une banane. Dans ce cas, la classe de contraste sera :

X = {Adam a mangé la pomme, Adam a mangé une poire, Adam a mangé une banane}
Un autre concept caractérisant les questions de type « pourquoi ? » est la relation de pertinence qui détermine de quelle façon nous voulons expliquer l’objet de la question. Nous appelons R le rapport de pertinence impliqué dans une question particulière Q. Disons qu’une proposition A est pertinente pour Q si A est en relation R avec la paire <Pk, X>, où Pk est l’objet de Q et X est sa classe de contraste. Par exemple, R peut être une relation de causalité, une raison religieuse, une inférence logique, et même dans ce cas, c’est le contexte qui décide du rapport de pertinence impliqué par la question.
Il est clair que l’aspect le plus attrayant de la théorie pragmatique est sa capacité à assimiler en une seule théorie différents types de pertinence explicative (entre autres, les explications causales, fonctionnelles et celles visant l’unification). Cela permet de contrer un des problèmes qui ont mis en crise le modèle DN et le modèle de l’unification, c’est-à-dire le problème de l’asymétrie. Selon van Fraassen, l’asymétrie n’est pas un véritable problème. Avec l’exemple de l’ombre et du drapeau, selon le contexte explicatif ou la question est posée, on pourrait expliquer la longueur de l’ombre à partir de l’ombre du drapeau, de la même manière que l’on pourrait expliquer la longueur du drapeau à partir de celle de l’ombre. Disons, par exemple, que le drapeau à été construit avec le but de projeter une ombre sur un édifice. Dans ce cas, une explication fonctionnelle de la longueur du drapeau doit légitimement faire référence à la longueur de l’ombre qu’il projette.

Cependant, cette même capacité peut aussi constituer son défaut majeur, en ce qu’elle réplique le problème d’être trop inclusive, comment le modèle DN. Par exemple, Kitcher et Salmon (1987) (voir aussi Kitcher (1989)) montrent que, selon la théorie de van Fraassen, toute proposition vraie A peut être admise comme une bonne explication de tout phénomène générique P, rendant ainsi triviale la notion d’explication.
Il est aussi intéressant de souligner que, malgré sa versatilité, la théorie pragmatique de van Fraassen n’est pas seulement trop inclusive. Comme le modèle DN, elle est aussi trop restrictive. Pour comprendre cela, il faut considérer que les explications scientifiques peuvent être des réponses aux questions de type « pourquoi ? », mais aussi à des questions de type « comment est-il possible que ? » ou même « comment s’est-il passé que ? » (Hughes 1993, p.133-134, Salmon 1989, p.231-232). Même si l’on admet qu’il est toujours possible de traduire ces questions sous la forme de questions de type « pourquoi ? », elles peuvent parfois perdre, une fois traduites, une partie de leur signification naturelle. Prenons le cas des questions de type « comment est-il possible que ? ». Contrairement à la question de type « pourquoi ? », qui admet une seule réponse, ces questions tolèrent plusieurs réponses en même temps: toutes celles qui, en fait, ne sont pas en contradiction directe avec les faits connus. Par exemple, dans les pays voisins du polygone du saut de Quirra (Sardaigne), il a été noté un taux de malformations congénitales et de leucémie comparable à celui du syndrome des Balkans. La question « comment est-ce possible ? » admet plus d’une réponse : il y a plusieurs situations qui peuvent « rendre possible » ce fait. En particulier, en l’absence d’études scientifiques suffisantes, plusieurs états de fait pourraient être admis parmi les explications de notre explanandum, en dépit de l’état de faits unique qui en est la cause véritable. Par exemple, le Général Molteni (ancien commandant du polygone) affirmait que les tumeurs et malformations étaient dues à des mariages entre cousins ​​et parents dans les pays concernés. D’autres ont soutenu que ce qui est maintenant appelée le syndrome de Quirra est causé par la pollution liée aux activités d’une base militaire (uranium appauvri, thorium radioactifs, pollution électromagnétique…). Pendant longtemps, les données réelles sur la pollution de la zone militaire de Quirra (Zucchetti 2011) ont été ignorées par l’essentiel de la population et des institutions. En l’absence de ces données, les deux points de vue pouvaient sembler cohérents avec les données connues. En tant que tel, les deux explications ont été acceptées par la communauté comme une réponse à la question de type « comment est-il possible que ? ». Les choses sont différentes si la question posée est une question de type « pourquoi ? » : « Pourquoi à côté du polygone de Quirra y a-t-il un taux de malformations et de leucémies comparable à celui du syndrome des Balkans ? ». Même si on ignore l’impact environnemental du polygone militaire, cette question admet une seule réponse. Comme réponse à cette question, par conséquent, les deux thèses sont en concurrence.
En conclusion, bien que la question de type « comment est-il possible que ? » puisse être traduite en une question de type « pourquoi ? », le passage d’une question à l’autre implique un changement dans le type de réponse autorisée.
Il est donc légitime de se demander dans quelle mesure une théorie de l’explication scientifique qui met l’accent sur les questions de type « pourquoi ? » est en mesure de saisir l’essence de l’explication scientifique — car elle court le risque de ne pas s’appliquer aux explications qui ne sont pas des réponses à des questions de type « pourquoi ? ».

Nous terminons cette section sur les théories pragmatiques avec la théorie de Henk de Regt et Dennis Dieks. Comme indiqué dans les sections précédentes, de nombreux philosophes de l’explication scientifique ont souligné la relation étroite qui existe entre l’explication et la compréhension. Beaucoup d’entre eux admettent également que justifier et clarifier les fondements de cette relation entre parmi les tâches essentielles d’une théorie de l’explication scientifique. De Regt et Dieks (2004) proposent ainsi une théorie de l’explication dans laquelle la compréhension joue le rôle de concept unificateur. À cette fin, ils introduisent deux critères : le critère de compréhension des phénomènes (CCF) et celui de l’intelligibilité des théories (CIT).
CCF : un phénomène P peut se comprendre s’il y a une théorie T de P qui est intelligible (et répond aux critères logiques typiques, méthodologique et empirique) ;
CIT : une théorie scientifique T est intelligible pour les scientifiques (dans le cadre C) si ceux-ci peuvent connaître les conséquences caractéristiques qualitatives de T sans effectuer les calculs exacts.
Le critère CIT sert d’une part à isoler les explications scientifiques des explications génériques. Tel est le rôle de la spécification sur les « critères logiques typiques, méthodologiques et empiriques ». D’autre part, la clause « dans le contexte C » vise à garantir le caractère contextuel de la compréhension; elle lie la compréhension du sujet cognitif à un contexte spécifique. Cela conduit à admettre la possibilité qu’une théorie puisse être intelligible pour un scientifique (ou une communauté de scientifiques) dans un certain contexte et non intelligible pour d’autres scientifiques dans d’autres contextes.
Selon De Regt et Dieks, la manière dont les scientifiques parviennent à une compréhension qualitative d’un phénomène dépend aussi du contexte. Dans certaines explications scientifiques, l’intelligibilité fait appel à la notion de causalité, dans d’autres à celle de réduction, etc. La compréhension qualitative peut être atteinte par divers instruments, et le choix et l’acceptation de ces instruments dépendent généralement des capacités du sujet cognitif et de sa connaissance de fond, y compris de ses croyances philosophiques.


5. Questions ouvertes

La théorie de l’explication scientifique, depuis la théorie DN, a historiquement beaucoup évolué en philosophie des sciences. En particulier, la formulation des théories de la causalité empiriste a eu des effets extrêmement féconds pour le développement de la théorie moderne de l’explication causale au point qu’elle est aujourd’hui, dans ses deux versions les plus avancées (théorie mécaniste et la théorie manipulationniste), la théorie la plus débattue dans cette branche de la philosophie des sciences.
Parmi les premiers points à l’ordre du jour figure celui visant à affiner la théorie causale, et plus précisément à dissoudre les problèmes encore non résolus dans les théories manipulationniste et mécaniste (dont nous avons discutés certains dans les chapitres précédents). En parallèle, il est devenu essentiel de mener une analyse adéquate de la relation entre manipulationnisme et mécanisme. À ce jour, le débat se situe entre ceux qui mettent l’accent soit sur l’un soit sur l’autre (voir, par exemple Psillos (2004) qui veut prioritaire de la théorie manipulationniste, Bogen (2004) pour une thèse adverse), et ceux qui soutiennent que les deux théories de la causalité représentent les deux faces d’une même pièce et qu’aucune théorie n’a la priorité sur l’autre, leur relation étant plutôt celle de complémentarité (ce qui est par exemple la position de Glennan (2011)).
Nous avons mentionné à plusieurs reprises dans le présent article le fait que, malgré le succès et la large applicabilité de l’explication causale, elle n’épuise pas vraiment la variété des explications scientifiques. Il y a en effet une littérature récente sur les différents types d’explications non causales (Batterman 2002, Backer 2005, Pincock 2007, Dorato et Felline 2010, Skow 2013, Lange 2013). Une analyse solide de ces variétés d’explication est nécessaire comme base pour la formulation d’une théorie générale des explications non causales, qui jusqu’à présent manque. C’est peut-être pour cette raison que beaucoup de philosophes sont réticents à abandonner la théorie de l’unification de l’explication, malgré le fait qu’il n’y ait pas de formulation bien acceptée de la théorie de l’unification.
Bien qu’une analyse détaillée de la nature spécifique des explications causales et non causales est importante pour une bonne compréhension de la pratique scientifique, il est également essentiel pour une théorie complète de l’explication scientifique de développer un argument plus général sur la façon dont ces types d’explication coexistent en science. La plupart des philosophes s’accordent aujourd’hui sur une vision pluraliste de l’explication scientifique — mais un appel général au pluralisme explicatif ne suffit pas dans ce cas. Dans cette perspective pluraliste, il est essentiel d’avoir un rapport sur la façon dont coexistent le causal et le non-causal (voir, par exemple, (Salmon 1998), (de Regt 2006), (Dorato 2014) et (Felline 2015)). Les explications causales et non causales s’appliquent-elles à différents domaines de la science ? Ou sont-elles applicables aux même phénomènes ? Et si oui, quelles sont les garanties que ces deux explications de ature différente identifient toujours les mêmes rapports explicatifs dans le monde ?


Bibliographie

Achinstein P., 1983, The Nature of Explanation, Oxford: Oxford University Press.

Andersen H. K., 2011, Mechanisms, Laws, and Regularities*. Philosophy of Science, 78(2), 325-331.

Armstrong David M., 1983, What is a Law of Nature? (Cambridge: Cambridge University Press).

Baker A., 2005, “Are there genuine mathematical explanations of physical phenomena?” Mind, 114(454), 223-238.

Batterman R. W., 2002, The devil in the details: Asymptotic reasoning in explanation, reduction, and emergence.

Bechtel W. E. Abrahamsen, A., 2005, Explanation: A mechanist alternative. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences, 36(2), 421-441.

Bechtel W. E. Richardson, R.C., 1993/2010. Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research. Repr., Cambridge, MA: MIT Press.

Berger R., 1998, “Understanding Science: Why Causes Are Not Enough”, Philosophy of Science, 65, pp. 306-332.

Bogen J., 2004, Analysing causality: The opposite of counterfactual is factual. International Studies in the Philosophy of Science 18 (1): 3–26.

Brown H. e Pooley, O., 2006, “Minkowski Space-Time: a glorious non-entity”, in Dieks D. (ed.), The Ontology of Spacetime, Elsevier, pp. 67-89.

Clifton R., 1998, “Structural Explanation in Quantum Theory” URL: http://philsci-archive.pitt.edu/archive/00000091/00/explanation-in-QT.pdf

Coffa J. A., 1977, Probabilities: reasonable or true?. Philosophy of Science, 186-198.

Craver C. F., 2006, When mechanistic models explain. Synthese, 153(3), 355-376.

Craver C. F., 2007, Explaining the brain. Oxford: Oxford University Press.

De Regt H. e Dieks, D., 2005, A Contextual Approach to Scientific Understanding, Synthése, 144, n.1., pp. 137-170.

Darden L., 2008, Thinking again about biological mechanisms. Philosophy of Science, 75(5), 958-969.

De Regt H. W., 2006, Wesley Salmon’s Complementarity Thesis: Causalism and Unificationism Reconciled?. International Studies in the Philosophy of Science, 20(2), 129-147.

Dorato, M., 2007, Relativity theory between structural and dynamical explanations. International studies in the philosophy of science, 21(1), 95-102.

Dorato, M., 2014, Dynamical versus structural explanations in scientific revolutions. Synthese, 1-21.

Dorato M. e Felline L., 2010, Structural explanations in Minkowski spacetime: which account of models?.  In V. Petkov (ed.), Space, Time, and Spacetime – Physical and Philosophical Implications of Minkowski’s Unification of Space and Time, Springer, Berlin, Heidelberg, New York, 193-209.

Dorato, M. e Felline, L., 2010. Scientific explanation and scientific structuralism. In A. Bokulich & P. Bokulich (eds.), Scientific Structuralism, Boston Studies in the Philosophy of Science, Springer, 161-177.

Douven I., 2011, Abduction, The Stanford Encyclopedia of Philosophy (Spring 2011 Edition), Edward N. Zalta (ed.), URL = <http://plato.stanford.edu/archives/spr2011/entries/abduction/>.

Dowe P., 1992. Wesley Salmon’s Process Theory of Causality and the Conserved Quantity Theory. Philosophy of Science 59: 195-216.

Duhem P., 1954/1906, The Aim and Structure of Physical Theory, Princeton : Princeton University Press.

Felline L., 2010, Remarks on a structural account of scientific explanation. In EPSA philosophical issues in the sciences, 43-53. Springer Netherlands.

Felline L., 2011, Scientific explanation between principle and constructive theories. Philosophy of Science, 78(5), 989-1000.

Felline L., 2015, Mechanisms meet structural explanation. Synthese, 1-16.

Fodor J., 1989, “Making Mind Matter More”, Philosophical Topics, 17: 59–79.

Friedman M., 1974, ‘Explanation and Scientific Understanding’, Journal of Philosophy, 71: 5-1

Glennan S. S., 1996, Mechanisms and the nature of causation. Erkenntnis, 44(1), 49-71.

Glennan S., 2002, ‘Rethinking mechanistic explanation’, Philosophy of Science, 69(S3), pp. S342-S353.

Glennan S., 2010, ‘Mechanisms, causes, and the layered model of the world’, Philosophy and Phenomenological Research, 81(2), pp. 362-381.

Glennan S., 2011, ‘Singular and general causal relations: A mechanist perspective’, in P. M. Illari, F. Russo and J. Williamson (eds.), 2011, Causality in the Sciences, Oxford: Oxford University Press, pp. 789-817.

Goodman N., 1947, The problem of counterfactual conditionals. The Journal of Philosophy, 113-128.

Hausman, D. (2002). Physical Causation. Studies in History and Philosophy of Modern Physics 33B: 717-24.

Hempel C. G, e Oppenheim P., 1948, “Studies in the Logic of Explanation”, Philosophy of Science 15, pp. 135-175.

Hempel C. G, 1965, Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, New York, The Free Press.

Hitchcock C., 1995, ‘Discussion: Salmon on Explanatory Relevance.’, Philosophy of Science 62: 304-20.

Hughes R. I. G., 1992, The structure and interpretation of quantum mechanics. Harvard university press.

Hughes R. I. G., 1993, Theoretical Explanation, Midwest Studies in Philosophy XVIII: 132-153.

Humphreys P,, 1981, ‘Aleatory Explanations’, Synthese, 48: 225-32.

Kitcher P., 1976, ‘Explanation, Conjunction and Unification’, Journal of Philosophy, 73: 207-12

Kitcher P., 1981, ‘Explanatory Unification’, Philosophy of Science, 48: 507-31.

Kitcher P., 1989, ‘Explanatory Unification and the Causal Structure of the World’, in (Kitcher and Salmon, 1989)

Kitcher P. e Salmon, W., 1987, ‘van Fraassen on Explanation’, Journal of Philosophy, 84, pp.315-330.

Kitcher, P. and Salmon, W., (eds.) (1989), Scientific Explanation, 410-505. Minneapolis: University of Minnesota Press.

Lange M., 2013, ‘What makes a scientific explanation distinctively mathematical?’ The British Journal for the Philosophy of Science, 64(3), 485-511.

Laudisa, F., 2012, ‘Causalità’, APhEx 5, (ed. Vera Tripodi). http://www.aphex.it/index.php?Temi=557D030122027403210E05767773

Mach E., 2012, Principles of the Theory of Heat: Historically and Critically Elucidated. Springer, Science & Business Media

Machamer P., Darden L., Craver C. F. 2000, ‘Thinking about Mechanisms’, Philosophy of science, 1-25.

Menzies P. and Price H., 1993, Causation as a secondary quality. British Journal for the Philosophy of Science 44:187–203.

Molinini D., 2013, ‘La Spiegazione Matematica’. APhEx 7, (ed. Vera Tripodi). URL: http://www.aphex.it/index.php?Temi=557D03012202740321070502777327

Norton J. D., 2003, Causation as folk science. URL: http://philsci-archive.pitt.edu/1214/

Pincock C., 2007, ‘A role for mathematics in the physical sciences’, Nous, 41(2), 253-275.

Psillos S., 2004, A glimpse of the secret connexion: Harmonizing mechanisms with counterfactuals. Perspectives on Science 12 (3): 288–319.

Railton P., 1978, ‘A Deductive-Nomological Model of Probabilistic Explanation.’, Philosophy of Science, 45: 206–26.

Railton P 1981, ‘Probability, Explanation, and Information.’, Synthese, 48: 233–56.

Reichenbach H., 1927, Philosophie der Raum-Zeit-Lehre, De Gruyter (trad. ingl. The Philosophy of Space and Time, Dover, 1958, trad. it. Filosofia dello spazio e del tempo, Feltrinelli 1977).

Russell B., 1912, ‘On the notion of cause’. In Proceedings of the Aristotelian society (pp. 1-26). Williams and Norgate.

Ruzzene A. 2012, ‘Meccanismi Causali nelle Scienze Sociali’ APhEx 5, (ed. Vera Tripodi). URL:http://www.aphex.it/public/file/Content20141117_02.APhEx5,2012TemiMeccanismiSocialiRuzzene.pdf

Kitcher P., 1971, ‘Statistical Explanation’, in Statistical Explanation and Statistical Relevance, W. Salmon, (ed.), 29–87, Pittsburgh: University of Pittsburgh Press.

Kitcher P., 1984, Scientific Explanation and the Causal Structure of the World, Princeton, Princeton University Press.

Kitcher P., 1989, Four Decades of Scientific Explanation, Minneapolis: University of Minnesota Press.

Kitcher P., 1994, ‘Causality without Counterfactual’, Philosophy of Science 61:279-312

Kitcher P., 1997, ‘Causality and Explanation: A Reply to Two Critiques.’, Philosophy of Science, 64: 461–477.

Kitcher P., 1998, Causality and Explanation, Oxford: Oxford University Press.

Skow B., 2013, Are There Non-Causal Explanations (of Particular Events)?. The British Journal for the Philosophy of Science, axs047.

Strevens M., 2008, ‘Comments on Woodward, Making Things Happen’. Philosophy and Phenomenological Research, 77(1), 171–192.

Tooley M., 1977, ‘The Nature of Laws’, Canadian Journal of Philosophy, 7: 667–698.

van Fraassen B. C., 1980, The Scientific Image. Oxford: Oxford University Press.

von Wright G., 1971, Explanation and Understanding. Ithaca, New York: Cornell University Press. Woodward, J. (1989), ‘The Causal Mechanical Model of Explanation’, in Kitcher and Salmon (1989).

Williamson J., 2011, Mechanistic theories of causality. Philosophy Compass, 6(6):421–447

Wimsatt  W. C.,  1976,  “Reductionism,  Levels  of  Organization,  and  the  Mind-BodyProblem.”  In Consciousness and  the  Brain:  A  Scientific  and  Philosophical Inquiry,  ed. G. Globus, G. Maxwell, and I. Savodnik, 202–67. New York: Plenum.

Woodward J., 1997, Explanation, Invariance and Intervention. Philosophy of Science 64 (Proceedings):  26-41.

Woodward J., 2000, Explanation and Invariance in the Special Sciences. The British Journal for the Philosophy of Science 51: 197-254.

Woodward J., 2002,. What is a Mechanism? A Counterfactual Account. Philosophy of Science 69: 366-377.

Woodward J., 2003a, Making Things Happen: A Theory of Causal Explanation. New York: Oxford University Press.

Woodward J., 2003b, Counterfactuals and Causal Explanation. http://philsciarchive.pitt.edu/archive/00000839/ .

Woodward J., 2008, « Causation and Manipulability », The Stanford Encyclopedia of Philosophy (Winter 2013 Edition), Edward N. Zalta (ed.), URL = <http://plato.stanford.edu/archives/win2013/entries/causation-mani/>.

Wright C., (manoscritto), Scientific Explanation: Mechanistic, Ontic, Epistemic.

Wright C. D., 2012, Mechanistic explanation without the ontic conception. European Journal for Philosophy of Science, 2(3), 375-394.

Laura Feline
fellinelaura@gmail.com