La philosophie de A à Z

Publié en septembre 2018

Notre monde contient beaucoup de comportements réguliers qu’il semble important de savoir distinguer. D’un côté, il y a des régularités comme celle de la vitesse maximale d’un objet matériel, toujours inférieure à celle de la lumière. De l’autre, il existe des amats d’or qui sont toujours de taille assez modeste. Si ces deux cas semblent montrer une importante différence, il s’avère toutefois très difficile de clarifier la nature de cette différence. C’est autour de cette tâche que se focalisent les débats sur les lois de la nature. Suite à une section introductive, l’analyse se structure comme suit.

La section 2a porte sur l’approche « régulariste » dans sa version « simple » selon laquelle une loi est une régularité universelle et contingente (non-nécessaire). La section 2b introduit l’approche régulariste du « meilleur système » dont l’idée essentielle est qu’une loi est un axiome ou théorème dans le meilleur système déductif qui systématise de façon optimale toutes les régularités.

La section 3a introduit une toute autre notion de lois – celle des nécessités. Selon le nécessitarianisme « d’universaux », la nécessité est physique et conçue comme un universel de second ordre dans le sens d’une propriété des propriétés. Selon l’approche nécessitarianiste « de pouvoirs », c’est le pouvoir causal qui est l’essence de toute occurrence de propriété et ceci à un niveau ontologique fondamental, nécessairement et à travers tous les mondes métaphysiquement possibles. La section 3b a pour but de comparer ces deux approches nécessitarianistes avec l’approche régulariste du « meilleur système ».

La dernière section porte sur deux débats corollaires. La section 4a questionne notamment si l’approche du « meilleur système » est condamnée à l’anti-réalisme des lois. La section 4b porte sur le rapport entre les lois physiques et celles des sciences spéciales qui sont des lois contingentes, a priori ou ceteris paribus.


Table des matières

Introduction

a. Contextualisation du débat
b. Résumé introductif

1. Contextualisation du débat

2. Résumé introductif de l’article

3. L’approche régulariste – les lois comme régularités universelles et contingentes

a. L’approche régulariste « simple »
b.  L’approche régulariste du « meilleur système »

4. L’approche nécessitarianiste – les lois comme nécessités

a. L’approche nécessitarianiste « d’universaux » et l’approche nécessitarianiste « de pouvoirs »
b. Comparaison des approches nécessitarianistes « d’universaux » et « de pouvoirs » et l’approche régulariste du « meilleur système »

5. Débats corollaires

a. Des objections anti-réalistes
b. Les lois physiques et les lois des sciences spéciales

Bibliographie


Introduction

a. Contextualisation du débat

Notre monde contient des entités qui possèdent un comportement régulier et constant ou montrent une apparence semblable : la vitesse d’un objet ne dépasse jamais celle de la lumière ; les électrons et les protons s’attirent ; elliptique est l’orbite des planètes de notre système solaire ; les lingots d’or sont relativement petits ; les enfants ressemblent à leurs parents… et enfin, il y aura toujours des philosophes qui s’interrogeront sur le statut de telles régularités et sur les enjeux qui en découlent.

Il semble évident que, sans cette nature régulière, constante et similaire des entités, il n’y aurait ni (débat sur les) lois de la nature, ni science, laquelle se caractérise par des descriptions systématiques, des explications adéquates, des manipulations fonctionnelles ou encore des prédictions correctes. En effet, à quoi bon s’interroger sur ce qui est possible ou impossible si rien ne possède de comportement universellement régulier, si rien ne suit de lois objectives ? Comment pourrions-nous expliquer quelque chose d’entièrement nouveau, manipuler ou prédire, si tout ce qui est est irrégulier et se comporte différemment ? En admettant d’une part le besoin de régularités pour faire de la science et comprendre le monde, d’autre part, nous constatons que ces régularités ne sont pas toutes égales. Certaines régularités sont logiquement nécessaires, donc a priori – et il est généralement admis qu’il ne peut pas s’agir de lois de la nature (Hume 1748 ; voir aussi section 3a), tandis que d’autres ne sont connaissable que par l’expérience et donc a posteriori. Parmi ces dernières, certaines semblent fondamentales et universelles, tandis que d’autres sont spatio-temporellement restreintes et probabilistes, certaines régularités semblent nécessaires, tandis que d’autres sont contingentes et accidentelles. Par conséquent, en fonction de leurs caractéristiques, il est souvent suggéré de dire des premières qu’elles sont des lois, lesquelles servent à fournir de véritables explications, là où les secondes ne sont pas de lois et demandent dès lors des explications.

Si nous prenons par exemple la théorie de la relativité : l’énergie pour accélérer un objet matériel augmente exponentiellement par rapport à sa vitesse, de sorte qu’il existe une vitesse maximale infranchissable, celle de la lumière c (lat. celeritas), qui atteint dans le vide circa 300.000 km/s. Prenons maintenant l’objet spatial le plus rapide jamais élaboré par l’homme, à savoir la sonde Helios 2, propulsée dans les années 1970 à une vitesse d’environ 70 km/s en direction du soleil. À la question de savoir pourquoi sa vitesse n’a pas été augmentée à, disons, 700.000 km/s, ce pour rendre son voyage plus rapide, on donnera pour explication, ensemble avec contraints techniques peut-être, la loi de la vitesse maximale, laquelle empêche la sonde Hélios 2 d’atteindre une vitesse supérieure à celle de la lumière.

Les choses s’avèrent bien différentes lorsque nous prenons le fameux exemple de Hans Reichenbach sur les objets en or (Reichenbach, 1947, p. 368). Il est vrai que tous les lingots d’or sur terre, et possiblement dans l’univers entier, sont relativement petits ; supposons que leur volume ne dépasse pas les 50 m3. Si nous posons la question du pourquoi, il serait inadéquat de fournir une explication en termes d’un éventuel volume maximal des lingots d’or, en tous cas pas dans le même sens qu’il existe une vitesse maximale pour les objets. L’explication la plus adéquate devrait plutôt évoquer des contraintes économiques, comme l’inconvénient logistique de posséder des lingots trop grands, ou encore le fait que le volume maximal d’un lingot soit simplement limité par le nombre d’atomes d’or disponible dans la nature. En ce sens, la régularité du volume maximum des lingots d’or n’est pas en tant que tel explicatif (parce qu’il ne s’agit pas d’une loi de la nature), mais demande plutôt une explication.

Suite à ces deux exemples introductifs très différents, voici alors certaines questions liées qui guideront la discussion à travers des sections suivantes (qui seront brièvement résumées plus loin) : Comment définir les lois de la nature ? Comment différencier les lois des autres régularités ? Quelle est la relation entre loi et explication ? Est-ce que les lois existent dans le monde indépendamment de nous et de nos capacités cognitives ?

b. Résumé introductif

 

La section deux porte sur l’approche dite « régulariste » qui, dans sa version « simple » (section 2a), affirme qu’une loi de la nature est une régularité universelle et contingente (non-nécessaire). Afin d’éviter d’ériger toutes les régularités universelles en lois (pensez à l’exemple des lingots d’or), la section 2b introduit l’approche régulariste du « meilleur système » (inspirée notamment par Mill, Ramsey et Lewis), dont l’idée essentielle est qu’une régularité est une loi seulement si elle figure comme axiome ou théorème dans le meilleur système déductif après avoir systématisé de façon optimale toutes les régularités.

En opposition à ce qui précède, la section 3a s’intéresse à l’approche dite « nécessitarianiste », laquelle conçoit les lois non plus comme des contingences, mais comme des nécessités. En fonction de la « force » de nécessité, l’approche peut se diviser en deux sous-approches : le nécessitarianisme « d’universaux » (défendu par Armstrong, Dretske et Tooley), et celui « de pouvoirs » (inspiré de Shoemaker, Swoyer, Ellis et Bird). Selon le nécessitarianisme « d’universaux », la nécessité est physique (ou nomique) et conçue comme un universel de second ordre dans le sens d’une propriété des propriétés. Néanmoins, une idée demeure, celle que si une loi est un fait métaphysiquement contingent, cette loi pourrait dès lors varier d’un monde possible à l’autre. Inversement, l’approche nécessitarianiste « de pouvoirs » stipule que l’essence de toute occurrence de propriété est son pouvoir causal, ceci à un niveau ontologique fondamental, nécessairement et à travers tous les mondes métaphysiquement possibles. Dans la section 3b, il s’agira d’approfondir ces deux approches nécessitarianistes et de les comparer avec l’approche régulariste du « meilleur système ».

La quatrième section porte sur deux débats corollaires qui poursuivent l’évaluation des approches introduites dans les deuxième et troisième sections. Plus précisément, nous aborderons l’interprétation antiréaliste des lois dans la section 4a, où il sera question, entre autres, de déterminer si l’approche du « meilleurs système » est condamnée au subjectivisme et, par conséquent, s’il est utile d’adopter une approche nécessitarianiste pour mieux défendre une position réaliste. La section 4b, quant à elle, portera sur les similarités et différences entre les lois physiques et les lois des sciences spéciales. Il sera notamment question de déterminer dans quelle mesure les notions de lois probabilistes, lois contingentes, lois a priori et/ou lois ceteris paribus permettent de distinguer les lois de la physique de celles des sciences spéciales.

1. Contextualisation du débat

2. Résumé introductif de l’article

3. L’approche régulariste – les lois comme régularités universelles et contingentes

a. L’approche régulariste « simple »

 

Une première motivation pour l’idée qu’une loi est essentiellement une régularité universelle – pour tout objet x, si x possède la propriété F, alors x possède aussi la propriété G (respectivement x se comporte de manière G, cause G, …) – se trouve dans la pratique scientifique qui vise la découverte voire la formulation de lois sous forme de régularités qui n’impliquent aucune exception, c’est-à-dire qui s’appliquent universellement, étant vraies partout et toujours. L’histoire de la physique regorgent d’exemples à ce propos, à l’instar des lois et des équations de Newton, celles d’Einstein ou encore de Schrödinger (voir aussi Esfeld 2017, chapitres 13, 16 et 17).

Une deuxième motivation, liée à ce qui précède, est à chercher dans le rôle que jouent certaines lois dans des débats de nature philosophique, notamment ceux portant sur les notions d’explication scientifique ou de causalité. Des lois sous forme de régularités universelles sont par exemple requises pour le modèle déductif-nomologique de l’explication scientifique (Hempel & Oppenheim 1948), et celles-ci s’avèrent au moins idéales pour tout autre modèle d’explication (même si d’autres modèles ne demandent pas forcement l’universalité des régularités ; on y revient notamment en section 4b). Similairement, la conception de causalité comme régularité implique une approche régulariste des lois, laquelle suggère, précisément, de concevoir la causalité comme régularité (Psillos 2002, pp. 137-138).

Une troisième motivation vient de la parcimonie métaphysique : une loi est simplement une régularité universelle et cette universalité apparaît comme un fait contingent dans le monde. Postulant l’absence de force modale sous forme de nécessité dans les lois de la nature revient à adhérer à l’empirisme de David Hume et/ou à l’idée de rasoir d’Ockham. C’est là une motivation clé, notamment en comparaison avec les approches opposées « nécessitarianistes » (section 3).

Quelle que ce soit la motivation, plusieurs questions se posent, d’autant plus si la caractérisation des lois comme régularités universelles et contingentes du comportement des objets ou propriétés d’un type est considérée comme une condition nécessaire et suffisante (voir l’analyse détaillée dans Armstrong 1983, chapitres 2-4 et Psillos 2002, chapitre 5). Sans controverse, la contingence seule ne permet pas de rendre une régularité nomologique ; il s’agit dès lors de déterminer comment une régularité peut être une loi malgré sa contingence. Cependant, ce critère d’universalité implique un double dilemme :

D’un côté, si l’universalité des régularités est nécessaire, alors les sciences spéciales ne possèdent pas de véritables lois – parce que les régularités dans le comportement des objets ou propriétés dont traitent ces sciences ont toujours des exceptions. En ayant ainsi à l’esprit le lien possiblement étroit entre les notions de lois, d’explication scientifique et de causalité, d’emblée, un potentiel conflit émerge : ne risque-t-on pas, en effet, de dénier la force explicative des sciences spéciales ainsi que l’existence de causes propres à leur domaine (voir aussi la discussion analogue sur des notions comme « lois probabilistes » ou « lois ceteris paribus » en section 4b) ?

De l’autre côté, si le fait d’être une régularité universelle est suffisant pour être une loi, alors on risque d’obtenir un nombre important de lois non-scientifiques, accidentelles, et surtout peu pertinentes, ce que rendrait vide la notion de lois (voir la critique de Goodman, 1983 ainsi que Barberousse, Kistler & Ludwig, 2000, chapitre IV). Parmi d’autres possibilités, toute complexification de l’antécédent F implique qu’il existe un seul (ou relativement peu de) Fx de sorte que, sans exception, Fx est (suivi par) Gx – et alors la quantification universelle « x (si Fx, alors Gx) » est vraie. Pour mieux illustrer cela, prenons l’exemple de Bird (1998, p. 19) et imaginons que la terre soit la seule planète qui abrite des formes de vie intelligente : nous pourrions ainsi rendre vrai la régularité selon laquelle toute planète avec une forme de vie intelligente possède une seule lune – mais n’est-ce pas là, selon nos intuitions en tout cas, une régularité universelle qui est accidentelle ?

L’approche régulariste « simple » n’est pas en mesure d’éviter ce dilemme, ce que démontre l’analyse suivante. En analogie avec l’exemple physico-chimique des lingots d’or, nous pourrions imaginer une caricature de régularité biologique : dans mon jardin aujourd’hui (C), tous les brins d’herbes (F) ont une hauteur maximale de 28mm (G). De façon schématique, la structure de la régularité est donc la suivante : « dans le contexte C, si Fx, alors Gx ».

Ceci-dit, nous pourrions d’emblée conclure qu’il ne s’agit nullement d’une loi, parce que la spécification du contexte restreint spatio-temporellement la régularité – elle est par conséquent non-universelle –, mais inversement, si nous ne spécifions pas le contexte, la régularité s’avère fausse, dans la mesure où il existe dans le monde des gazons dont la hauteur dépasse les 28mm. Toutefois, l’exemple de Bird sur les planètes avec une forme de vie intelligente suggère qu’il existe probablement de multiples possibilités pour complexifier F de sorte qu’il s’applique de facto seulement au gazon de mon jardin aujourd’hui, ce qui répondrait alors au problème précédent.

Avant d’approfondir cette possibilité, il est utile d’analyser une possibilité plus simple, laquelle est déjà envisageable dans l’exemple sur les lingots d’or : même si nous ne spécifions pas le contexte, nous pouvons toujours changer G jusqu’à obtenir la bonne valeur, c’est-à-dire une valeur qui octroie à cette régularité le degré d’universalité nécessaire pour en faire une loi. Ainsi, nous pourrions supposer que chaque monde possible contenant du gazon possède des brins d’herbe qui ont une hauteur maximale, puis imaginer arbitrairement que cette hauteur soit 120cm dans notre monde. Pourquoi pas, dès lors, appeler « la loi des 120cm » cette nouvelle régularité que l’on postule comme étant universelle ?

À cela, nous pourrions objecter que cette régularité n’est pas une loi, car non-pertinente, non-caractéristique et/ou non-explicative. En effet, évoquer une hauteur maximale de 120cm n’est ni pertinent, ni explicatif, pour la hauteur maximale de notre gazon qui était de 28mm. De plus, la valeur de 120cm ne semble pas caractéristique du gazon, elle est probablement très peu explicative pour autre chose, etc. Toutefois, un tel type de réponse est problématique, parce que cela présuppose un critère de pertinence, de caractérisation et d’explication. Or le débat sur les lois de la nature consiste notamment à identifier ce qui est objectivement pertinent, caractéristique ou explicatif dans le monde. Autrement dit, et idéalement, il s’agit d’abord d’identifier les lois, et ensuite de développer un modèle d’explication scientifique, de pertinence causale, etc.

Nous pourrions également formuler une deuxième objection à l’égard de cette régularité des 120cm, laquelle ne serait pas une loi, car non-nécessaire, extrêmement sensible au contexte et/ou potentiellement falsifiable. Évidemment, évoquer la nécessité n’est pas possible dans les limites de l’approche régulariste, laquelle considère que toutes les lois sont contingentes (la nécessité relève de l’approche nécessitarianiste ; voir section 3). De plus, sans nécessités dans le monde, les objections en termes de sensibilité au contexte ou de falsifications potentielles s’avèrent également problématiques. D’abord, l’idée intuitive est que la hauteur maximale du gazon dépend du contexte, lequel est influencé par divers facteurs, comme la force de gravitation, ou encore la présence soudaine de moutons. Nous pourrions dès lors envisager de pulvériser la limite de 120cm, en cultivant du gazon dans la Station Spatiale Internationale (SSI), où la force de la gravité diffère et, surtout, où il n’y a pas de moutons. Un problème toutefois se pose : en falsifiant de facto la valeur de 120cm, nous obtenons simplement une autre régularité universelle avec une nouvelle valeur maximale, disons 244cm. Or, au lieu de réaliser de telles expériences pratiques à bord de la SSI, nous pouvons également entreprendre le geste philosophico-théorique de l’expérience de pensée ou du raisonnement contrefactuelle, en postulant, par exemple, « si ce x, qui n’est pas du gazon, était du gazon, alors il serait plus petit que 120cm ». En règle générale, il est présupposé qu’un énoncé contrefactuel est vrai s’il est soutenu par une loi ; autrement dit, une régularité qui ne soutient aucun énoncé contrefactuel n’est pas de loi. Admettons la régularité « tous les brins d’herbes du gazon qui ont existé jusqu’à maintenant ont une hauteur maximale de 120cm ». Si celle-ci n’implique rien pour la hauteur d’aucun brin (futur ; contrefactuel) de gazon, comme il nous semble intuitivement, alors la régularité ne peut par conséquent pas être une loi. Toutefois, il se pose la question de comment remplacer nos intuitions par rapport à cette non-implication par quelque chose de plus fort, en fin du compte par une justification qui réfère à d’autres lois (par exemple celles qui concernent la stabilité des brins, la gravitation, les moutons, etc.). Cependant, à ce point un problème général (et bien connu émerge) : si l’analyse contrefactuelle sert à identifier des lois, l’argument devient circulaire (voir aussi Psillos 2002, pp. 145-148) ; l’analyse contrefactuelle ne peut pas exclure le statut nomologique de la régularité sauf si celle-ci est basée sur d’autres lois (celles qui, par exemple permettent une hauteur de 244cm sur la SSI), dont il se pose dès lors la question de leur identification.

En résumé, il est fortement suggéré d’identifier différemment les lois si l’on veut éviter que de simples modifications du conséquent G dans les régularités « x (si Fx, alors Gx) » impliquent une quasi infinitude des lois – au risque sinon de rendre vide la notion de lois. Pour pas perdre le survol, la discussion suivante se structure comme suit : d’abord nous reprenons l’analyse de ce qui est permit par rapport à la modification de l’antécédent F et/ou la spécification du contexte – juste pour aboutir à un problème analogue à celui identifié précédemment. Ensuite, et donc par conséquent, on fait la transition vers la prochaine section qui porte sur l’approche du « meilleur système ».

Comme rappel, il existe la possibilité de rendre une régularité universelle en modifiant l’antécédent F et en y ajoutant des spécifications du contexte : « pour tout x, si x est F (« un brin d’herbes dans mon jardin aujourd’hui »), alors x est G (« hauteur maximale de 28mm »). L’objection principale, que nous avons déjà évoquée, c’est que le terme d’universel implique l’idée d’une régularité étant vraie partout et toujours, c’est-à-dire sans restriction spatio-temporelle. En ce sens, l’énoncé ci-dessus n’est pas une loi, puisque non-universel, du moins pas au sens courant du terme. Toutefois, si le terme d’universel implique qu’aucune restriction spatio-temporelle ne soit permise, alors non seulement les sciences spéciales auront des difficultés à identifier et à formuler des régularités universelles, mais cela vaudra également pour la physique. Pour illustrer cela, prenons deux exemples tirés des lois de la nature : (1) la loi des orbites et (2) la loi de la gravitation.

La « loi des orbites » de Johannes Kepler (1571-1630) postule que les planètes du système solaire décrivent des trajectoires elliptiques dont le soleil est le foyer (Kepler 1609) ; or, cette « loi » ne s’applique qu’à un domaine spatio-temporel restreint, à savoir notre système solaire.

La « loi de la gravitation » d’Isaac Newton (1642-1726), dont la formule s’écrit « F = G  (m1 m2) / d2 », stipule que la force d’attraction (F) entre deux objets (m et m’) dépend de la constante de gravitation (G) et le carré de leur distance respective (d2) (Newton 1687). Toutefois, et comme l’a démontré Nancy Cartwright (Cartwright 1980, section I ; voir aussi Carroll 2016, section 9), la force d’attraction entre deux objets dépend également d’autres propriétés, comme par exemple leur charge, laquelle est décrite par la « loi de Coulomb » (F = k  (q1 q2) / d2), dont la forme est analogue à celle de la loi de la gravitation (Coulomb 1785).

Par conséquent, notre dilemme initial n’est toujours pas résolu : soit nous comprenons le terme d’universel dans le sens d’être vrai sans aucune restriction spatio-temporelle, ce qui implique le risque que les « lois » de la physique ne soient plus des lois, vidant ainsi de sa substance la notion même de loi (voir Earman & Roberts 1999 pour une critique) ; soit nous admettons les restrictions spatio-temporelles, mais la notion de loi perd également en signification, puisque n’importe quelle régularité pourrait être érigé au rang de loi (qu’on pense pour cela à l’exemple arbitraire de la hauteur maximale du gazon), et ceci renforce (voire est renforcé par) le problème qu’implique de possibles modifications du conséquent G (comme discuté plus haut).

Pour résoudre ce dilemme voire les problèmes rencontrés précédemment, on peut brièvement spéculer sur un critère ontologique. Par exemple, on pourrait essayer d’identifier un niveau de propriétés ontologiques fondamentales, et pour qu’une régularité puisse être considérée comme une loi, l’universalité et la contingence ne suffisent plus, il faut également que ladite régularité porte sur des propriétés fondamentales. Toutefois, il semble qu’une telle possibilité augmente même les problèmes rencontrés : à la fois il se pose la question d’identification d’un niveau ontologique fondamental sans connaissances des lois (on a donc de nouveau un problème de circularité dans l’identification des lois) ; à la fois on s’éloigne clairement d’une vision « minimaliste », pas seulement parce que nous ajoutons aux critères d’universalité et de contingence un troisième critère, mais aussi et surtout parce que ce troisième critère, celui du niveau de propriétés fondamentales, s’avère métaphysiquement plus important que les deux premiers. En vue de ces problèmes abordés, passons alors à l’approche régulariste du « meilleur système » qui est mieux en mesure d’identifier des lois et de distinguer les lois des autres régularités tout en évitant la circularité (jusqu’à un certain point au moins) et en restant dans un esprit « minimaliste ».

b.  L’approche régulariste du « meilleur système »

 

La discussion précédente a éventuellement donné l’impression erronée que les problèmes cruciaux sont toujours liés aux tensions qui résultent du contraste entre les lois physiques et celles des sciences spéciales. Or, même en physique, le caractère universel d’une régularité ne garantit pas à lui seul le statut de loi. Pour le démontrer, reprenons les deux exemples de notre introduction : la régularité sur la vitesse maximale des objets et la régularité sur la taille maximale des lingots d’or. Cela va sans dire : seule la première régularité peut prétendre au statut de loi. Néanmoins, il reste encore la question du pourquoi. Intuitivement, nous pourrions répondre que, jusqu’à maintenant, nous avons encore jamais vu d’objets matériels plus rapides que la vitesse de la lumière, ni supposer qu’à l’avenir, pareils objets puissent exister ; en revanche, si à ce jour, nous n’avons jamais vu des lingots d’or avec un volume de 50 m3, ceux-ci pourraient très bien exister à l’avenir (plus de 166.500 t d’or ont déjà été extraites des richesses terrestres, suffisantes pour envisager la production d’un lingot plus volumineux que 800 m3). Néanmoins, établir de telles distinctions sur le pouvoir et le non-pouvoir implique d’adopter à nouveau une approche nécessitarianiste (voir section 3). Un résumé plus abstrait du problème nous aiderait à envisager une autre piste : en tenant compte de seulement deux propriétés intrinsèques (l’universalité et la contingence), nous ne pouvons distinguer les véritables lois des régularités accidentelles ; en revanche, si nous ajoutons une troisième propriété intrinsèque (soit la nécessité, soit le niveau ontologique fondamental), nous abandonnons le point de départ « minimaliste ». Pourquoi pas, dès lors, ajouter une propriété extrinsèque afin de distinguer, pour mieux les systématiser, les lois des régularités accidentelles ?

C’est ce que propose l’approche « fonctionnaliste », dont l’attitude épistémique est la suivante : parmi toutes les régularités, nous identifions un sous-ensemble de régularités qui, par exemple, ont un degré élevé de confirmation, sont acceptées majoritairement par une communauté scientifique établie, ont un potentiel prédictif/explicatif et/ou s’intègrent adéquatement dans un système théorique plus large (voir par exemple Ayer (1956), Braithwaite (1953), Goodman (1983), Nagel (1961), Popper (1949), ou Hempel & Oppenheim (1948) ; voir aussi Marc Lange (2000) pour une nouvelle approche fonctionnaliste). Néanmoins, avec ce type d’approche, nous courons le risque de rendre la notion de loi plus subjective et anthropomorphique (n’était-ce pas, par ailleurs, l’intention affirmée de certains de ces auteurs ?). Malgré ce risque, de telles idées ont fortement influencé l’approche régulariste qui domine aujourd’hui, celle du « meilleur système », dont le Leitmotiv est multum in parvo, soit maximiser le résultat avec un minimum d’effort, ce qui correspond bien au « minimalisme ». En des termes moins figuratifs, l’idée principale est la suivante : par la mise en relation et la comparaison de toutes les régularités, on vise le système déductif le plus simple couvrant le monde entier ; chaque régularité dudit système, notamment s’il s’agit d’un axiome, est alors une loi.

Pour discuter ce qui précède, introduisons le concept de la « survenance humienne » de David Lewis, qui clarifie le cadre métaphysique de l’approche : « … tout ce qui existe au monde est une vaste mosaïque d’affaires locales de faits particuliers, rien qu’une petite chose et puis une autre et ainsi de suite … Nous avons la géométrie : un système des points avec des relations externes de distance spatio-temporelle entre eux. … En ces points se trouvent des qualités locales : des propriétés intrinsèques …. Et c’est tout. Il n’y pas de différence sans différence dans l’arrangement des qualités. Tout le reste survient sur cet arrangement » (Lewis 1986a, pp. IX-X, traduction par D. Stauffer dans Esfeld 2012, p. 44). Ce qui importe le plus ici est l’idée que les lois de la nature surviennent sur cette configuration de propriétés et son évolution dans le temps.

Ceci, transposé à l’un de nos exemples, signifie donc que, si, du début à la fin du monde, tout objet matériel bouge dans l’espace-temps d’une manière moins rapide que la vitesse de la lumière, alors il s’agit d’une régularité universelle qui survient sur le comportement des objets matériaux. Mais il s’agit aussi d’une régularité contingente, dans la mesure où elle survient sur la distribution initiale et la trajectoire dans l’espace-temps, c’est-à-dire deux propriétés contingentes, parce qu’il n’y a rien de nécessaire ou d’impossible qui est ancré dans l’inventaire ontologique fondamental du monde. C’est en raison de l’absence de toute force modale que nous qualifions de « humienne » ce concept de survenance et la métaphysique qui lui est sous-jacente. En découle, et c’est important de le préciser, une notion de lois réductionniste : les lois se réduisent à des régularités qui surviennent sur le niveau ontologique fondamental du monde de sorte que les lois ne sont pas ontologiquement fondamentales.

Dans ce cadre métaphysique, la stratégie de Lewis (voir notamment Lewis (1973 et 1994), qui a développé des idées de John Stuart Mill (1843) et Frank Ramsey (1928 et 1929)) pour identifier les lois est une mise en relation, et donc, une systématisation de toutes les régularités. Selon Ramsey, les lois sont des axiomes ou des théorèmes dans un système déductif qui organise tout le plus simplement : « … même si nous savions tout, nous aurions toujours l’envie de systématiser notre connaissance dans un système déductif, dont les axiomes généraux seraient les lois fondamentales de la nature »  (Ramsey 1928, p. 131, traduction libre par A. Cueto & C. Sachse) ; « … les lois seraient les conséquences des énoncés que nous considérerions comme axiomes si nous savions tout et que nous avions organisé notre connaissance aussi simplement que possible dans un système déductif » (Ramsey 1929, p. 138, traduction libre par A. Cueto & C. Sachse). À l’instar de Ramsey, Lewis aussi considère les lois de la nature comme des axiomes (ou théorèmes), mais cette fois, comme axiomes (ou théorèmes) du « meilleur système », définit comme le système déductif de régularités qui offre la meilleure combinaison ou balance entre les critères de simplicité et de force (Lewis 1973, p. 73 ; Lewis 1994 ; voir aussi la discussion critique d’Armstrong 1983, pp. 66-73 ; voir aussi Dorato 2005, chapitre 4 ; Esfeld 2012, chapitre 4 ; Lange 2009, chapitres 2.3-2.4)).

Le critère de « simplicité » fait référence au nombre d’axiomes (et à leur taille) qui figurent dans le système déductif qui décrit le monde ; quant au critère de « force », celui-ci porte sur le contenu d’information inclut dans les axiomes, voire dans ce qui se laisse déduire logiquement des axiomes du système. Or, et cela est inévitable, ces deux critères sont dans un rapport de tension, de sorte qu’il puisse en résulter des systèmes complètement différents : « Quelques-uns sont plus simples, mieux systématisés que d’autres. Quelques-uns sont plus forts, plus informatifs, que d’autres. Ces valeurs rivalisent : un système non-informatif peut être très simple, un compendium non-systématisé d’information variée peut être très informatif. Le meilleur système est celui qui parvient à trouver, autant que la vérité le permet, l’équilibre entre la simplicité et la force » (Lewis 1994, p. 478 ; traduction libre par A. Cueto & C. Sachse).

Indépendamment de savoir comment on obtient le meilleur équilibre entre simplicité et force (on y reviendra), nous précisons qu’il n’y a nulle controverse à considérer que l’ensemble des axiomes du meilleur système puissent reposer sur les lois physiques ; sans ces dites lois, en effet, ce système serait incapable d’expliquer un nombre important de phénomènes du monde. Néanmoins, il reste encore à déterminer si la régularité sur la vitesse maximale, la loi de la gravitation, la régularité sur les lingots d’or et celle sur mon gazon font partie de ce système.

Commençons avec la régularité sur la vitesse maximale des objets. Dans la mesure où la théorie de la relativité joue un rôle important pour décrire le monde, cette régularité se trouve soit au niveau d’axiome, soit se laisse déduire sur la base des axiomes du système, dans quel cas, affirme Lewis, elle constitue également une loi. Le cas semble légèrement différent concernant la loi de la gravitation de Newton. Si la théorie de la relativité est correcte, il n’est plus possible de comprendre la loi de la gravitation comme une force d’attraction immédiate, et en découle, il est fort peu probable que cette loi se retrouve parmi les axiomes du meilleur système. Néanmoins, en tenant compte des contraintes qui surviennent avec la théorie de la relativité ainsi que des régularités qui couvrent d’autres régularités d’attraction (comme celle de l’électromagnétisme par exemple ; voir section 2a), il se pourrait très bien que la loi de la gravitation soit contenue d’une manière ou d’une autre au sein du meilleur système sous forme d’un théorème – même si, en pareil cas, cela en présupposerait une interprétation non-newtonienne, dans le sens où ladite loi appartiendrait à un système dont l’ontologie diffère fondamentalement du système newtonien.

Quoi qu’il en soit, la situation s’avère totalement différente en ce qui concerne les régularités sur la taille maximale des lingots en or et sur la hauteur maximale des brins d’herbes du gazon. D’abord, il est fort peu probable que ces régularités soient érigées au rang d’axiomes du meilleur système. En effet, nous ne pouvons pas déduire grand-chose de ces régularités, de sorte que leur constitution axiomatique complexifierait le système sans le rendre plus fort pour autant. Ensuite se pose la question de leur éventuel statut de théorème, laquelle s’avère bien plus difficile à résoudre. Après tout, s’il n’existe ni lingots d’or plus volumineux que 50 m3 ni brins de gazon plus grands que 120cm, et si, simultanément, le meilleur système couvre, dans le cas idéal, la totalité du monde, il n’y a a priori aucune absurdité à soutenir que ces deux régularités (et/ou d’autres qui nous semblent intuitivement pas nomologiques) puissent être des théorèmes situés quelque part au sein du système déductif.

En partie similaire à cet inconvénient possible (qui dépend du monde), et pour clore cette section, reprenons les trois principales motivations pour l’approche « simple » (section 2a) afin de situer l’approche du « meilleur système » dans un contexte plus large qui invite à une réflexion critique et afin d’indiquer où dans la suite de l’article on revoit certains éléments particuliers de l’approche du « meilleur système » :

Pour l’approche régulariste « simple », nous l’avons déjà mentionné, une loi est essentiellement une régularité universelle. La première motivation se situe dans l’exigence suivante, à savoir que les théories scientifiques reconnaissent comme lois des régularités qui n’admettent aucune exception. Même si cela ne rentre pas en conflit direct avec l’approche du « meilleur système », il nous faut relativiser le rôle des régularités universelles, et ce pour deux raisons complémentaires (voir aussi Lewis 1986, notamment p. 123) : (1) il apparait très contrintuitif mais il est en fait possible que certains axiomes du meilleur système ne soient pas des régularités universelles parce que le « meilleur » système dépend d’un monde où possiblement tout peut changer un moment donné. (2) Il est possible qu’il y ait des lois « non-instanciées » (i.e. des lois qui ne s’appliquent à aucun objet dans le monde). La raison est la même qu’avant, et l’exemple classique est la première loi de Newton sur les corps inertiels, qui postule que « tout corps persévère dans l’état de repos ou de mouvement uniforme en ligne droite dans lequel il se trouve, à moins que quelque force n’agisse sur lui, et ne le contraigne à changer d’état » (tirée de la traduction française de 1759). Cette loi n’est toutefois pas instanciée au sens strict, car cela présupposerait un univers avec un seul objet sur lequel aucune force n’agisse. Néanmoins, dans la mesure où la loi améliore le système dans son équilibre entre simplicité et force du système, le rendant ainsi « meilleur », elle peut par conséquent y figurer. Ces détails sont notamment mentionnés pour montrer que, possiblement (cela dépend du monde), la différence entre l’approche régulariste « simple » et celle du « meilleur système » ne consiste pas forcement juste dans l’identification des lois par l’identification d’un sous-ensemble parmi toutes régularités universelles instanciées.

Comme deuxième motivation pour l’approche « simple », nous avons identifié le lien de la notion des lois avec des positions défendues dans d’autres débats philosophiques, notamment le lien étroit avec les modèles d’explication scientifique et la notion de causalité. Le lien avec la notion d’explication scientifique suffit pour illustrer un problème crucial de l’approche du « meilleur système » : d’un côté, on peut observer une similarité, analogie ou compatibilité forte entre l’approche du meilleur système et l’approche de l’explication par unification (voir classiquement Kitcher 1981 et 1984) ; de l’autre côté, il reste toujours à déterminer comment nous pouvons justifier, en vue de son objectivation, la meilleure balance entre simplicité et force – et donc des critères qui risquent de dépendre de nous (problématique très important sur laquelle nous reviendrons plus en détail dans la section 4a ; voir aussi Armstrong 1983, p. 67 et Dorato 2005, p. 91).

La troisième motivation pour l’approche régulariste consistait dans la parcimonie métaphysique, laquelle caractérise les lois uniquement comme des régularités universelles et contingentes. D’un côté, l’approche du meilleur système continue cette tradition métaphysique d’éviter tout recours à la notion de nécessité. De l’autre, elle n’implique pas forcément que les lois soient des régularités universelles ou instanciées. Toutefois, il faut noter que cela ne met pas (ou peu pour ce qui concerne les lois non-instanciées) en question la parcimonie métaphysique, parce que la principale différence entre l’approche « simple » et celle du « meilleur système » consiste dans l’ajout d’un critère extrinsèque, à savoir la systématisation des régularités.

4. L’approche nécessitarianiste – les lois comme nécessités

a. L’approche nécessitarianiste « d’universaux » et l’approche nécessitarianiste « de pouvoirs »

L’idée cruciale ici est de concevoir une loi comme une relation de nécessité (N) qui existe dans le monde, ou en des termes plus simples, toute loi implique sa propre nécessité. Par exemple, s’il est nécessaire que Fx soit suivi par Gx, alors la régularité universelle « x (si Fx, alors Gx) » exprime une véritable loi de la nature ; si tel n’est pas le cas, alors il s’agit d’une régularité accidentelle. Dans la mesure où la comparaison de l’approche nécessitarianiste avec celle régulariste est un cas classique dans le débat sur les lois de la nature, il nous semble utile de commencer cette section avec une transposition des trois motivations avec lesquelles nous avons abordé et terminé la section précédente.

La première motivation consistait dans l’idée qu’une loi est une régularité universelle dès que lors que celle-ci n’admet aucune exception. L’approche nécessitarianiste va encore plus loin que la seule observation régulariste, dans le sens où elle fournit une véritable explication : une régularité universelle est une loi parce qu’elle est sous-tendue par une nécessité physique. L’avantage semble double : (1) la distinction des lois avec les régularités accidentelles apparaît maintenant avec plus netteté, parce que l’existence d’une loi repose sur une propriété intrinsèque (Dretske 1977, pp. 253-254), laquelle dépend exclusivement de la présence ou de l’absence d’une relation de nécessité ; (2) contrairement à l’approche régulariste du « meilleur système », où les lois surviennent simplement sur la distribution et la dynamique contingentes des propriétés dans le monde, l’approche nécessitarianiste offre une véritable explication quant au fait que les régularités nomologiques sont universelles. Plus précisément, avec l’approche régulariste, s’il existe une explication pour une occurrence de type « Fx est Gx », celle-ci se réduit à la simple observation « chaque Fx est Gx » ; avec l’approche nécessitarianiste, il est désormais possible d’affirmer « Fx est Gx parce que Fx doit être Gx » et par conséquent, l’instanciation d’une loi devient en quelque sorte le « symptôme » (Psillos, 2002, p. 162) d’une nécessité (voir Hicks & van Elswyk 2015 pour une défense de l’approche régulariste relative à cette question de l’explication). Ce contraste entre les deux approches peut être formulé autrement : dans l’approche nécessitarianiste, la nécessité rend vraie des énoncés de lois et permet de résoudre facilement des questions contrefactuelles ; tandis que, dans l’approche du « meilleur système », la question reste ouverte quant à savoir ce qui rend vrai des énoncés de lois non-instanciées, mais aussi comment analyser des énoncés contrefactuelles (voir Lewis 1973 pour une telle analyse contrefactuelle et comparaison des mondes possibles). Les lois non-instanciées, par exemple, ne correspondent pas forcement aux faits, et ne sont donc pas vraies suivant le sens classique que nous donnons à la notion de vérité, c’est-à-dire comme correspondance entre un énoncé et le monde ou comme survenance sur des faits (voir l’exemple de particules de Tooley 1977, p. 669 ; voir aussi l’exemple des spins dans Carroll 1990 et l’exemple du nobelium-254 dans Bird 1998, p. 20 ; voir aussi Beebee 2000 pour une défense du « meilleur système »).

La deuxième motivation est à la fois semblable parce qu’il s’agit aussi de rendre compte, parmi d’autres positions défendues en philosophie, le modèle d’explication scientifique ainsi que la notion de causalité. Par contre, le lien que la notion de lois entretient avec celles qui concernent l’explication et/ou la causalité se distingue à plusieurs niveaux : Dans l’approche régulariste les lois, les explications scientifiques et les relations causales se trouvent toutes sur le même niveau – à savoir sur le niveau survenant, lequel est ontologiquement non-fondamental –, cela n’est pas le cas avec l’approche nécessitarianiste. Même si certains détails peuvent varier suivant les différentes approches nécessitarianistes (ce qu’on verra ci-dessous), toutes adhèrent néanmoins à l’idée que les notions de lois et de causalité se situent à un niveau ontologique fondamental. Par conséquent, et comme déjà dit au paragraphe précédent, certaines choses inexplicables dans l’approche régulariste – comme par exemple l’universalité des régularités nomologiques – deviennent explicables avec l’approche nécessitarianiste. De plus, en postulant la nécessité, nous obtenons un autre lien de dépendance entre les lois, les explications et la causalité. Développons cet aspect brièvement pour ce qui concerne l’explication. Dans la mesure où les problèmes que rencontre le modèle déductif-nomologique d’explications scientifiques – par exemple la difficulté d’identifier des explications pertinentes parmi des explications/prédictions vraies – résultent en grande parties de la notion de lois que dégage l’approche régulariste (voir aussi Bonnay 2011 ; Psillos 2002, chapitre 8), on a en tout cas deux types de possibilités : 1) on ajoute d’autres critères, par exemple en appliquant le modèle d’explication par unification, et c’est cela qui permet l’évaluation des explications du modèle déductif-nomologique et donc d’identifier des bonnes explications scientifiques ; 2) on change la notion de lois en acceptant le sens que lui donne l’approche nécessitarianiste et, par conséquent, c’est en premier la référence aux relations nécessaires au niveau ontologique qui constitue une bonne explication scientifique ; et, en second lieu seulement, cette explication s’avère encore plus pertinente dès lors qu’elle satisfait d’autres critères, comme ceux par exemple du modèle de l’explication par unification.

La troisième motivation possible est elle aussi une sorte de parcimonie, laquelle toutefois ne concerne pas le niveau ontologique fondamental sur lequel est ajoutée la nécessité (N), mais plutôt la possibilité de distinguer objectivement les lois des régularités accidentelles et de rendre les premières véritablement explicatives. Autrement dit, en ce qui concerne la parcimonie, l’approche du « meilleur système » gagne au niveau ontologique fondamental, parce qu’elle mobilise uniquement la « survenance humienne » voire la distribution et la dynamique de la mosaïque théorisée par Lewis (Lewis 1986a, pp. IX-X). Toutefois, cette parcimonie peut être considérée comme la raison principale pour laquelle l’approche régulariste se retrouve confrontées à une série de défis au niveau non-fondamental, à savoir, et sous forme de questions : comment distinguer les lois des régularités accidentelles ? comment trouver la meilleure balance entre simplicité et force ? par quels critères objectifs justifie-t-on cet équilibre ? etc. ? En revanche, et toujours en ce qui concerne la parcimonie, l’approche nécessitarianiste perd au niveau ontologique fondamental, mais c’est notamment par cet ajout que nous pouvons éviter les défis de l’approche régulariste, de sorte que l’ajout puisse être considéré comme un pas philosophique souhaitable ou comme une parcimonie plus raisonnable.

Suite à cette contextualisation quelque peu abstraite, il s’agit désormais d’aborder la question suivante, à savoir le type de nécessité qui caractérise les lois dans l’approche nécessitarianiste. Or, c’est là une question extrêmement difficile à résoudre (voir Ayer 1956), et eu égard à cette difficulté, nous nous proposons d’établir un schéma avec trois distinctions uniquement, ce afin de souligner certains des éléments parmi les plus cruciaux du débat :

I) La position selon laquelle les lois de la nature se caractérisent par une nécessité logique. Il est par exemple possible, d’un point de vue logique, de remplacer le « F » et le « G » dans la généralisation « x (Fx  Gx) » par « triangle » et « 100% vert », mais il n’est pas possible de remplacer « F » et « G » par « triangle » et « carré » ou par « 100% vert » et « 100% rouge ». Plus important peut-être, il faut se demander ce qui est logiquement impliqué lorsque nous affirmons que F signifie « triangle ». La réponse contiendra probablement « trois angles », car cette idée est contenue dans la définition même du triangle, mais notre réponse contiendra également d’autres éléments plus « lointains », c’est-à-dire qui se situent par-delà la seule définition explicite du triangle, comme par exemple le fait que la somme des trois angles intérieurs est égale à 180°. Bien entendu, cela dépend des axiomes admis, et il n’est nullement question ici de débattre sur l’axiomatisation logique de la géométrie. Il s’agit néanmoins de postuler qu’en fonction des axiomes logiques admis s’ensuit des nécessités logiques, lesquelles sont connaissables a priori.

Nonobstant l’évidence que les régularités accidentelles ne peuvent pas être des nécessités logiques, il semble que cette notion même de nécessité logique s’avère trop forte pour caractériser les lois de la nature. Après tout, les vérités qui sont des nécessités logiques ne sont-elles pas des vérités qui existent dans tous les mondes possibles ? Or, les lois de la nature sont généralement comprises comme dépendantes d’un monde en question ; elles peuvent par conséquent soit varier d’un monde à l’autre, soit n’exister que dans un seul ou une poignée de mondes possibles. De façon analogue, affirmer qu’un énoncé est logiquement nécessaire revient au même que d’affirmer que cet énoncé est nécessairement vrai, ce qui par extension suppose que la vérité de cet énoncé est connaissable a priori. Cependant, depuis l’avènement de l’empirisme de David Hume (1748, section IV.1), il est communément admis que les lois de la nature ne sont connaissables que par l’expérience, c’est-à-dire a posteriori (voir aussi Ayer 1956, notamment pp. 147-148 ; Armstrong 1983, notamment pp. 3-5 ; Psillos 2002, p. 160) :

« Si un objet nous est présenté, et si nous devons nous prononcer sur les effets qui en résultent, sans consulter les observations passées, de quelle manière, je vous prie, l’esprit devra-t-il procéder pour mener à bien cette opération ? … Il est impossible que l’esprit découvre jamais, même par la recherche et l’examen les plus rigoureux, l’effet de la cause supposée ; car l’effet est totalement différent de la cause, et il ne peut jamais par conséquent, être découvert en elle. (Hume, 1748, IV.I.25, traduction par P. Folliot)

La nécessité logique ne semble donc pas adéquate pour caractériser les lois de la nature, et sera par conséquent mise entre parenthèses pour la suite de cet exposé. Ceci-dit, l’idée d’utiliser des définitions a priori n’est pas sans espoir et, parmi d’autres, Elliot Sober (1997) propose des arguments concluants allant dans cette direction, du moins en ce qui concerne les lois des sciences spéciales (ce sur quoi on reviendra en section 4b).

II) Selon l’approche nécessitarianiste « d’universaux », les lois se caractérisent par une nécessité (N) qui est physique et comprise comme un universel qui connecte des types de propriétés comme F et G (compris également comme des universaux). Un universel est, selon Armstrong, un aspect répétable et général de la nature qui doit être instancié pour exister, comme par exemple la même couleur verte qui est instanciée dans deux brins de gazon (pour plus des détails, voir Armstrong 1989 et 1997). Prenons d’abord une citation de Fred Dretkse et une de David Armstrong, deux références classiques qui permettent de mieux introduire l’approche :

« Postuler qu’il s’agit d’une loi que ces F’s sont G revient au même que de dire « tous les F’s sont G », … à la façon d’un énoncé singulier décrivant une relation entre des propriétés universelles de type F-été et Gété » (Dretske 1977, p. 252, traduction libre par A. Cueto & C. Sachse)

« Admettons la loi suivante, que ces F’s sont des G’s. F-été et G-été sont pris comme des universaux. Une certaine relation s’établit ainsi entre F-été et G-été, une relation de nécessitation non-logique ou contingente …, laquelle est symbolisée par ‘N(F,G)’ » (Armstrong 1983, p. 79, traduction libre par A. Cueto & C. Sachse).

Contrairement à la notion de nécessité logique, la nécessité physique est connaissable a posteriori (voir classiquement, Kripke 1972), et ce qui est physiquement nécessaire dépend du monde dont il est question, la nécessité physique pouvant ainsi varier d’un monde possible à l’autre. Pour le dire de façon plus précise, l’ensemble des nécessités physiques du monde est un fait contingent (Armstrong, 1983, p. 80 ; voir aussi Tooley 1977, p. 673).

III) L’approche nécessitarianiste « de pouvoirs » est l’approche selon laquelle les lois de la nature se caractérisent par une nécessité métaphysique qui est, à l’instar de la nécessité physique, connaissable seulement a posteriori, mais qui s’avère bien plus forte que celle-ci, en raison précisément de sa dimension métaphysique. Afin de clarifier cette notion de nécessité, identifions d’abord le type de contingence qu’il soit encore permis d’établir : seules les propriétés qui existent dans un monde donné s’avèrent contingentes ; quant aux pouvoirs voire aux nécessités intrinsèques à chaque type de propriété, ceux-ci ne relèvent plus de la contingence. Autrement dit, « les lois de la nature sont des relations métaphysiquement nécessaires entre des propriétés » (Swoyer 1982, p. 222, traduction libre par A. Cueto & C. Sachse), et les relations de nécessité obtenues entre Fx et Gx sont identiques dans tous les mondes possibles et caractérisent l’essence des occurrences de type F et G. Illustrons cela à l’aide d’un exemple précis : qu’un monde possible contienne des électrons et des protons, c’est là un fait contingent ; mais si tel est le cas, alors il est nécessaire que ces particules éléments s’attirent mutuellement (ce que n’admet pas le nécessitarianisme « d’universaux » et, dans une plus large mesure, l’approche régulariste).

Par conséquent, on tend à ne plus distinguer l’occurrence de propriété de la loi qui l’accompagne, dans la mesure où les deux sont, pour le dire de façon figurée, mariés jusqu’à la mort. Une première manière relativement connue d’exprimer davantage une telle approche est la théorie causale de propriétés (Shoemaker 1980), qui postule, en résumé, que le pouvoir causal est l’essence de l’occurrence de propriété, et que l’essence d’une occurrence de propriété de type F reste la même dans l’ensemble des mondes possibles : « … ce qui fait d’une propriété ce qu’elle est en tant que propriété, c’est-à-dire ce qui détermine son identité, c’est son potentiel de contribuer aux pouvoirs causaux des entités qui la possèdent ». Shoemaker 1980, p. 114, traduction libre par A. Cueto & C. Sachse).

En revanche, et il nous paraît utile de le préciser ici, dans le nécessitarianisme de pouvoirs, et à l’inverse du nécessitarianisme d’universaux, les différences au sein même de la théorie relèvent avant tout des interprétations que s’en font les auteurs. Bird (2005), par exemple, défend l’idée que les lois surviennent sur des propriétés dispositionnelles, là où Mumford (2004) adopte un regard plutôt anti-réaliste vis-à-vis des lois, dans le sens où, selon lui, les connexions nécessaires dans la nature accomplissent le travail que nous réservons habituellement aux lois de la nature (voir aussi les sections 3b et 4a).

b. Comparaison des approches nécessitarianistes « d’universaux » et « de pouvoirs » et l’approche régulariste du « meilleur système »

 

En comparaison avec l’approche régulariste, les approches nécessitarianistes, indépendamment de leurs différences, établissent un autre ordre entre les lois, les explications scientifiques et la causalité. Contrairement à l’approche du « meilleur système », c’est désormais la nécessité qui rend vraie les lois et permet de distinguer ces dernières des régularités contingentes/accidentelles. Tel que nous l’avons déjà indiqué auparavant (section 3a), la nécessité est fixée soit d’un monde possible à un autre (selon le nécessitarianisme « d’universaux »), soit à travers l’ensemble des mondes possibles (selon le nécessitarianisme « de pouvoirs »). Ceci-dit, poursuivons la comparaison des deux approches nécessitarianistes entre elles, en vue de mieux les confronter avec l’approche du « meilleur système ».

Selon Dretske (1977, notamment pp. 253-254), il existe une différence intrinsèque entre une loi et la vérité universelle d’une régularité. Une loi implique sa vérité universelle, là où la vérité universelle d’une régularité n’implique nullement que celle-ci soit une loi (voir aussi Psillos 2002, p. 162). Plus précisément, une loi se distingue ici d’une régularité universelle vraie par la relation – celle d’une nécessité (N) – qui s’établit entre deux universaux voire deux types de propriétés (F et G) dans le monde. L’approche du « meilleur système », quant à elle, considère qu’il s’agit « seulement » d’une propriété extrinsèque, dans le sens où une loi ne peut se retrouver quelque part dans le meilleur système qu’uniquement après qu’on ait systématisé l’ensemble des régularités (voir section 2b). Toutefois, même si cette distinction entre les deux approches semble évidente, celle-ci est finalement fortement remise en question.

Pour mieux saisir ce problème, interrogeons-nous sur la nature de la nécessité. D’emblée, celle-ci n’est pas explicable, mais postulée comme un fait brut, ce qui n’est pas un problème en soi : n’a-t-on pas besoin en effet de postuler certains éléments fondamentaux, si nous voulons pouvoir ensuite parvenir à formuler des explications adéquates ? Il n’y aurait là également aucun problème si la nécessité se laissait observer scientifiquement (ce qui n’est pas possible, dans la mesure où la nécessité se dérobe au champ de l’expérience) ; si la nécessité se laissait postuler comme toute autre entité théorique dans le débat du réalisme scientifique (ce qui s’avère très problématique ; voir section 4a) ; ou encore si elle se laissait postuler pour accomplir des tâches dont l’approche du « meilleur système » est incapable. Or, c’est précisément cette dernière motivation qui sera l’objet principal de notre discussion comparative entre les approches régularistes et nécessitarianistes.

Selon Bas van Fraassen (1989), toutes les approches des lois de la nature sont confrontées à une double exigence : (1) le problème d’identification en tant que défi ontologique et épistémique, à savoir le fait que chaque approche doive démontrer comment elle parvient à identifier les lois, mais aussi comment elle opère à la distinction entre les lois et les accidents ; (2) le problème d’inférence en tant que défi logique, à savoir le fait que chaque approche doive démontrer comment inférer sur la base d’une loi la vérité d’une régularité universelle.

Le nécessitarianisme « d’universaux » ne rencontre théoriquement aucun problème d’identification, la nécessité étant un critère suffisamment net pour distinguer les lois des accidents. Même si la connotation intuitive de « nécessité » le suggère, il y a néanmoins une controverse autour de la question suivante, à savoir comment la relation de nécessité N constituant une loi entre des universaux F et G peut-elle logiquement impliquer la régularité universelle (« x (Fx  Gx) ») ? Armstrong est bien conscient de ces objections (voir notamment Armstrong 1983, chapitre 6, section 1 et chapitre 11), et suite aux critiques formulées par van Fraassen et Lewis (voir plus loin), il a modifié sa position comme suit : afin d’impliquer la quantification universelle, il faut comprendre la relation de nécessité comme une relation causale entre les types F et G (Armstrong 1993), et, par extension, la nécessité N comme une causalité (Armstrong 1997).

Or, cette modification d’Armstrong s’avère elle aussi controversée, et ce, pour au moins deux raisons :

(1) C’est là une idée non-conventionnelle, dans le sens où la causalité est normalement comprise comme une relation entre des occurrences et non entre des types. Par conséquent, la modification d’Armstrong rend le postulat de nécessité encore plus important, du moins d’un point de vue métaphysique et dans le cadre d’une comparaison de parcimonie des approches (voir aussi van Fraassen 1993, notamment pp. 435-437).

(2) Indépendamment de savoir si cela est admis ou non, un problème demeure, celui de déterminer en quoi le nécessitarianisme « d’universaux » se distingue de l’approche régulariste. En des termes lewisiens (1983), et sous forme de question : dans quelle mesure N (indépendamment de ce que nous suggère intuitivement la notion de « nécessité ») permet d’affirmer autre chose qu’une loi est une « conjonction constante » de F et G ou « régularité universelle » de F et G dans le monde donné ? Ce qui revient au même que de se demander : comment parvient-on à dépasser les limites du cadre théorique de l’approche du meilleur système ? Alexander Bird formule son objection comme suit : « La nécessitation de G-été par F-été apparaît simplement comme la régularité que les F’s sont G’s », « […] les exigences formelles en ce qui concerne la nécessitation semblent être satisfaites par les régularités du meilleur système » (Bird 1998, p. 35, 39, traduction libre par A. Cueto & C. Sachse).

Pour résoudre ce problème, deux alternatives sont possibles pour le nécessitarianisme « d’universaux » (voir aussi Bird 2005) : (1) soit nous modifions l’approche nécessitarianiste (ce que nous verrons plus loin en discutant l’approche nécessitarianiste « de pouvoirs ») ; (2) soit nous comparons ce problème avec celui de l’approche régulariste du « meilleur système » (ce qui sera également fait par la suite).

Sans aucune controverse, l’approche régulariste formule une réponse claire au problème d’inférence de van Fraassen (1989) : les lois sont simplement des régularités. Par contre, et comme cela fut déjà évoqué à de multiples reprises, il nous manque toujours une distinction nette entre les lois et les accidents. L’approche régulariste considère en effet que les régularités (tant les lois que les accidents) sont contingentes, c’est-à-dire qu’elles ne se distinguent pas intrinsèquement. L’approche du meilleur système, quant à elle, dans son ambition de distinguer extrinsèquement les lois des accidents, est confrontée à certains défis, notamment vis-à-vis de l’objectivité de ses critères de simplicité et de force ainsi que de l’idée de la meilleure balance (problème introduit en section 2b ; discussion plus détaillée en section 4a). Ce qui importe dès lors, c’est que même si nous parvenons à résoudre ou à accepter le problème d’objectivité (tel un coût philosophique à payer), il n’en demeure pas moins qu’un problème d’induction persiste (voir aussi Carroll 2016), lequel sous forme de question donne : comment une loi explique-t-elle ses instances ? Pour y répondre, prenons d’abord un passage d’Armstrong :

« Même si nous considérons l’uniformité humienne régularité universelle elle-même – à savoir que tous les F’s sont G’s –, n’est-ce pas expliquer cette uniformité, que de postuler que tous les F’s sont G’s est une loi. Or, suivant l’approche régulariste, ceci implique l’usage de la loi pour expliquer la loi elle-même. Nous avons besoin de mettre de la ‘distance’ entre la loi et sa manifestation, si la loi permet d’expliquer la manifestation » (Armstong 1983, p. 41, traduction libre par A. Cueto & C. Sachse).

Autrement dit, et c’est là un des problèmes majeurs de l’approche régulariste, les régularités universelles qui se trouvent dans le monde restent inexpliquées. Toutefois – et même sans aborder ce problème déjà évoqué, c’est-à-dire que l’origine d’une nécessité reste elle aussi inexpliqué, il s’agit de souligner que cette objection n’est convaincante qu’à condition qu’on adopte la prémisse suivante, à savoir que les explications requièrent quelque chose de « plus fort » que ce que l’approche régulariste du « meilleur système » propose. Or, et cela revient au même, il s’agit donc de postuler une sorte de nécessité dans le monde (ce qui est, précisément, nié par l’approche régulariste) ; ce qu’on veut montrer est déjà présupposé en quelque sorte (voir aussi Beebee 2000).

Dans ce contexte d’objection, ou plutôt de critique de l’objection, la raison pour laquelle van Fraassen conçoit ces deux problèmes (1989, voir notamment, pp. 38-39 et p. 64) doit nous apparaître désormais avec plus de clarté. En effet, l’approche régulariste ne permet pas, à l’instar du nécessitarianisme, d’expliquer l’instanciation des lois et ceci semble être étroitement lié au fait que ladite approche est en mesure de résoudre le problème d’inférence. Ce dernier s’avère en effet résolu parce qu’une loi résume, décrit voire se réduit à ses instances ; en ce sens, on ne peut pas expliquer une loi, sauf si derrière le terme d’explication, nous entendons celui de résumé ou de description, dénomination qu’Armstrong notamment conteste. Par-delà la conclusion anti-réaliste de van Fraassen, il est difficile de préférer l’approche du « meilleur système » au nécessitarianisme « d’universaux » sans présupposer des a priori quelque part.

Suite à ces problèmes donnés pour les deux approches comparées, reprenons un élément clé en vue de la transition vers l’approche nécessitarianiste « de pouvoirs ». Dans la mesure où N est, dans le nécessitarianisme « d’universaux », postulée afin de notamment distinguer les lois des accidents, et dans la mesure où N peut varier à travers des mondes possibles, le fait que N(F, G) ait lieu dans un monde donné ne se laisse alors pas véritablement distinguer d’une conjonction constante qui aurait également lieu dans ce monde. Par conséquent, les lois sont potentiellement les mêmes que celles identifiables par l’approche régulariste du « meilleur système » pour le monde en question. Ceci a de quoi surprendre. En effet, nous nous attendrions plutôt à ce que les lois des deux approches se distinguent à travers des mondes possibles, dans la mesure où les lois du « meilleur système » surviennent sur la distribution et la dynamique des propriétés dans le monde, là où les lois du nécessitarianisme « d’universaux » gouvernent – et surtout ne surviennent pas sur – la dynamique. Toutefois, il n’est nullement évident d’argumenter sur le fait que N(F, G) ait lieu dans un monde possible sans que la loi à laquelle elle se rattache fasse partie d’un « meilleur système » en tant qu’axiome ou théorème.

Les problèmes et les questions évoqués auparavant peuvent être perçus comme une exigence élevée ou motivation en vue d’une notion de nécessité N plus forte. Prenons d’abord un passage de Brian Ellis pour faire la transition vers l’approche nécessitarianiste « de pouvoirs » :

« Le problème principal avec toutes ces théories, c’est qu’elles visent à combiner ce qui relève principalement d’une théorie aristotélicienne de la nécessité naturelle avec une thèse de la contingence humienne en ce qui concerne les lois. Cela ne peut pas être fait. … Il faut quelque chose de plus radical – une théorie pure, dure et non-humienne de nécessitation naturelle » (Ellis 2001, pp. 216-217, traduction libre par A. Cueto & C. Sachse).

La radicalité du nécessitarianisme « de pouvoir » se situe au niveau du statut des lois, un statut de nécessité métaphysique, lequel postule que les relations de nécessité entre par exemple Fx et Gx ne varient pas d’un monde possible à l’autre. Par opposition à ce qui précède, le cadre métaphysique d’un David Lewis voire celui que propose l’approche régulariste du « meilleur système » est, du moins en règle générale, compris comme une distribution et une dynamique de propriétés catégoriques. Une propriété catégorique ne possède aucune nécessité, force modale, pouvoir ou disposition ; quant aux lois, celles-ci sont des relations contingentes desdites propriétés catégoriques. À titre de comparaison, le nécessitarianisme « de pouvoirs » considère les propriétés catégoriques comme étant essentiellement dispositionalistes, et ce sont ces propriétés qui figurent dans les lois de la nature (Bird 2005, p. 438).

Après cette première esquisse d’une approche nécessitarianiste radicalement non-humienne, il s’agit dès lors de distinguer – même s’ils sont liés – deux arguments qui tiennent compte de l’analyse précédente :

Premièrement, invoquons l’argument métaphysique et épistémique, ou plus précisément, l’objection postulée en des termes de quidditisme et d’humilité (voir Black 2000 ; Esfeld 2012, chapitre 4). Le quidditisme et l’humilité sont impliqués par le caractère intrinsèque et catégorique des propriétés, ce que nous retrouvons notamment dans la position métaphysique de Lewis, dans l’approche régulariste du « meilleur système » ainsi que, dans une moindre mesure, dans le nécessitarianisme « d’universaux » (pour cette extension, voir Mumford 2004, notamment pp. 102-103 ou Bird 2005). En résumé, ce terme de quidditisme signifie que les propriétés intrinsèques-catégoriques possèdent une essence qualitative primitive, laquelle se veut indépendante de tout rapport causal ou nomologique. La conséquence de ce qui précède est qualifiée d’humilité, laquelle sous-entend le constat suivant, à savoir que nous sommes dans l’impossibilité d’acquérir une connaissance adéquate desdites propriétés, que la systématisation selon l’approche du « meilleur système » ne reflète pas forcement l’essence desdites propriétés. Indépendamment si cette objection grave peut être résolue dans une métaphysique humienne (voir par exemple Sparber 2009), elle ne s’adresse toutefois pas au nécessitarianisme « de pouvoirs », pour lequel les propriétés sont essentiellement des dispositions causales, et c’est en raison de cette supposée essence, que tant les propriétés que les lois s’avèrent « facilement » identifiables, et par extension, connaissables.

Deuxièmement, les deux problèmes de van Fraassen semblent enfin résolus. Similairement au nécessitarianisme « d’universaux », le problème d’identification n’apparaît pas : les lois sont des nécessités qui viennent, pour ainsi dire, avec leurs dispositions ; le problème d’inférence n’apparaît toutefois pas (ou presque plus du moins), dans la mesure où la notion de nécessité s’avère plus forte que dans le nécessitarianisme « d’universaux » (voir aussi Ellis 2000). L’essence de Fx est de causer Gx et la quantification universelle « x (si Fx, alors Gx) » se retrouve, sur le plan des dispositions, toujours donnée ; et cela vaut aussi sur le plan de leurs manifestations, dans le sens où les conditions de manifestation ne sont rien d’autres qu’une spécification de la disposition dont il est question (ceci peut être vu en analogie avec l’idée d’universalité dans les lois ceteris paribus, laquelle sera abordée en section 4b).

Néanmoins, le débat reste encore ouvert, et ce pour diverses raisons. En premier lieu, parce qu’il n’est guère encore possible de comparer tous les avantages et les désavantages des différentes approches. En deuxième lieu, cette notion de nécessité – malgré le fait qu’il s’agisse de découvertes a posteriori des pouvoirs et des lois de la nature – s’approche peut-être trop de celle de nécessité logique, ce qui s’avère possiblement problématique pour le l’analyse scientifique et la notion d’explication (voir par exemple Ayer 1956). Similairement, en troisième lieu, enfin, la question de la distinction entre les propriétés essentielles et celles non-essentielles demeure ouverte, afin d’éviter par exemple que la caractérisation d’une entité n’implique de devoir faire référence à toutes les autres entités possibles et donc d’aboutir en fin du compte à un problème de circularité (voir aussi Armstrong 1983, p. 152).

7. Débats corollaires

Cet article a mis en avant au moins deux complexités : (1) qu’il existe différentes approches, lesquelles sont difficilement comparables entre elles ; et (2) que si le débat sur les lois de la nature s’avère aussi complexe, cela résulte de son étroite imbrication avec d’autres débats centraux en métaphysique et épistémologie. Ce qui rend encore plus passionnant ce débat – et explique au passage sa centralité en métaphysique des sciences –, se situe dans le fait qu’il est loin d’être achevé, et ce, même si nous choisissons l’une des approches discutées auparavant. Le but de cette dernière section est d’introduire deux autres thèmes qui à la fois ajoutent des nouvelles questions et permettent d’affiner la compréhension des approches et leur mutuelle comparaison. D’abord, nous aborderons les objections dites anti-réalistes (section 4a), pour ensuite nous tourner vers une approche comparative des lois physiques avec celles des sciences spéciales (4b).

a. Des objections anti-réalistes

La position réaliste vis-à-vis les lois de la nature postule que ces dernières existent dans le monde indépendamment de nous et de nos capacités cognitives, par lesquelles nous sommes en mesure de les concevoir, mais aussi de les connaître adéquatement. Pareille position était admise, du moins implicitement, dans la discussion qui précède. En début d’article, par exemple, nous affirmions que notre monde contenait des entités dont le comportement était régulier, ce qui, par extension, suggérait l’existence des lois de la nature, lesquelles ne sont connaissables qu’une fois qu’on soit parvenus à distinguer objectivement les différents types de régularités. Cependant, cette suggestion est questionnable.

Commençons avec l’approche régulariste du « meilleur système », pour laquelle les lois sont au niveau ontologique des régularités contingentes et non-fondamentales (voir les sections 2-3). Nous pouvons interpréter la critique d’Armstrong (1983, p. 8 ; voir aussi pp. 52-59) et celle d’autres comme suit : un réalisme des lois doit se distinguer d’un réalisme des régularités. Or, l’approche de « meilleur système » ne semble pas de le permettre, parce qu’il manque généralement une explication aux régularités existantes dans le monde, et plus précisément, les lois du « meilleur système » ne sont pas le résultat d’une inférence à la meilleure explication (voir aussi Carroll 2016) qui constitue une justification épistémologique majeure au réalisme. Trois commentaires à ce qui précède, afin d’orienter la suite de notre analyse : i) seule une nécessité physique (ou métaphysique) semble permettre d’expliquer les lois (l’approche nécessitarianiste, on y reviendra, apparaît comme le candidat naturel pour le réalisme des lois) ; ii) toutefois, la nécessité ne peut pas être présupposée, et son absence n’implique pas forcement l’anti-réalisme des lois, notamment si l’approche du « meilleur système » permet de distinguer objectivement les lois des accidents (on y reviendra au prochain paragraphe) ; iii) même si les lois sont des régularités ontologiques non-fondamentales, l’interprétation réaliste n’est pas exclue, sauf si par « réalisme », nous présupposons la fondamentalité ontologique (ce que même Armstrong ne fait pas).

Comment questionner l’objectivité de l’approche du « meilleur système », et montrer que l’approche implique un anti-réalisme des lois ? Voici trois possibilités (voir aussi Psillos 2002, chapitre 5.6) : i) les critères de simplicité et de force dépendent de nous ; ii) même s’ils sont objectifs, dans la mesure où ils s’opposent inévitablement (Lewis 1994, p. 478), il nous est nécessaire de balancer ces deux critères – or, cette balance manque d’objectivité ; iii) même si les critères et leur balance sont objectifs, rien n’exclut plusieurs systèmes comparables balancés mais incommensurables vis-à-vis des lois (voir aussi Ghins 2007). En ce qui concerne la possibilité i), il semble difficile de montrer l’objectivité ou la subjectivité des critères de simplicité et de force en tant que tel. Sans controverse, ces deux critères semblent intuitivement plutôt subjectifs. Toutefois, si nous concevons comme objective l’identification des lois selon une approche nécessitarianiste et si l’approche du meilleur système aboutit à identifier ces mêmes lois, cette intuition peut alors être remise en question – par exemple en argumentant que ça ne peut pas être de coïncidence d’avoir identifié les mêmes lois. Concernant les critiques plus aiguisées des possibilités ii) et iii), prenons l’un des plus fameux passages de Lewis (que nous laissons volontairement dans l’originale à cause de sa beauté) : « If nature is kind, the best system will be robustly best – so far ahead of its rivals that it will come out first and any standards of simplicity and strength and balance. We have no guarantee that nature is kind in this way, but no evidence that it isn’t. It’s a reasonable hope » (Lewis 1994, p. 479 ; voir aussi Armstrong 1983, p. 67, note de bas de page 2).

Poursuivons notre réflexion avec les approches nécessitarianistes qui, intuitivement, apparaissent comme les meilleures candidates pour un réalisme des lois. D’emblée, il s’agit de le préciser, pareille estimation ne peut être qu’affectée par le problème que rencontre le nécessitarianisme « d’universaux » à se distinguer de l’approche du « meilleur système » (voir section 3b). À titre de rappel, en effet, la notion de nécessité N ne semble pas affirmer autre chose qu’une loi est une « conjonction constante » ou une « régularité universelle » de F et G dans le monde donné – et donc, n’affirme rien d’autre que ce que permet déjà l’approche du « meilleur système » (voir Lewis 1983 et Bird 1998, notamment p. 35 et p. 39). Dans ce contexte, et pour néanmoins suggérer un réalisme de la nécessité et des lois, nous pourrions concevoir N comme une entité théorique qui permette d’expliquer pourquoi une régularité est vraie (comme nous pouvons aussi interpréter l’approche de Tooley). Sans controverse, l’inférence à la meilleure explication est un mode d’argumentation caractéristique du réalisme scientifique. Toutefois, selon Psillos (2002, p. 165), il existe une différence entre une entité théorique, disons l’électron, et la relation de nécessitation chez Armstrong, Dretske ou Tooley : le rôle causal d’un électron s’avère en effet bien plus important que le rôle qu’il joue dans l’explication d’un phénomène pour lequel il était postulé en tant qu’entité théorique. Par contre, si la relation de nécessitation est cantonnée au rôle d’expliquer la vérité d’une régularité, alors celle-ci ne fait rien d’autre que ce qu’elle est postulée de faire. Or, pareille notion de nécessitation n’est au final qu’une affirmation ad hoc.

La situation s’avère toutefois différente avec l’approche nécessitarianiste « de pouvoirs », laquelle apparaît comme plus favorable pour un réalisme, et ce pour deux raisons liées : i) la notion de nécessité est plus forte, et donc, la notion de lois se distingue plus clairement que dans l’approche du « meilleur système » ; ii) le fait de postuler une nécessité plus forte dépasse la seule visée d’explication des régularités, et permet entre autres d’éviter le problème du quidditisme (voir section 3b). Pour rappel, le nécessitarianisme « d’universaux » implique l’idée que les lois « gouvernent » le monde. Mais pour ce faire, les lois doivent être externes aux propriétés qu’elles gouvernent (ce qui est le cas chez Armstrong, Dretske et Tooley). Or, ce faisant, les propriétés gouvernées manquent des conditions propres d’identité, et il y a toujours le risque que le problème du quidditisme émerge (voir Mumford 2004, notamment pp. 102-103 ou Bird 2005). Notons que, même s’il s’agit là d’un argument extrêmement fort contre l’approche nécessitarianiste « d’universaux » (et plus encore contre celle du « meilleur système »), une interprétation réaliste des lois n’est pas forcément impliquée (Mumford 2004 fait l’exemple).

De plus, l’argumentation anti-réaliste peut également passer à un niveau plus méta et général (van Fraassen 1989) : dans la mesure où aucune approche n’est capable de résoudre ses propres problèmes (voir sections 2 et 3), pourquoi dès lors ferions-nous une interprétation réaliste des lois ? (pour une vision de la science sans lois, voir aussi Giere 1999, notamment chapitre 5). En analogie avec l’argument de l’induction pessimiste, il nous faut également admettre que les généralisations décrites en termes de lois sont dans la majorité des cas fausses (voir classiquement Cartwright 1980).

En outre, il nous faut encore préciser que les anti-réalistes sont aussi confrontés à des questions ambitieuses, comme par exemple celle de déterminer comment être anti-réaliste vis-à-vis des lois sans pour autant l’être à l’égard d’autres notions comme celles de contrefactuelle ou de causalité (Carroll 2016) ?

b. Les lois physiques et les lois des sciences spéciales

Quelles sont les différences entre les lois physiques et celles des sciences spéciales ? Afin de ne pas se perdre dans un débat complexe qui porte notamment sur la notion d’explication scientifique, commençons d’abord avec un exemple simple et classique : le modèle déductif-nomologique d’explication scientifique (voir classiquement Hempel & Oppenheim 1948), lequel présuppose uniquement les lois universelles que la physique contient. Or, peut-on conclure que seule la physique est en mesure d’expliquer le monde ? Et donc, que les sciences spéciales fassent autre chose, malgré des succès apparents en termes prédictifs et explicatifs ? Face à cette tension, il existe au moins deux options non-exclusives (combinées par exemple dans Woodward 2003 ou 2010 et dans Lange 2000 et 2009) : (1) soit nous changeons le modèle d’explication afin qu’il ne soit plus nécessaire que les lois revêtent la forme de régularités universelles ; (2) soit nous changeons la notion de lois sans pour autant rendre caduque leur rôle dans les explications. Cet article s’intéresse principalement à la deuxième option, en discutant de notions comme lois universelles, lois probabilistes, lois contingentes, lois a priori et encore lois ceteris paribus.

Vu que la notion d’universalité a déjà été discutée en section 2a, commençons avec la notion de probabilité. Sans rentrer dans tous les détails, il nous faut d’abord préciser que la notion de probabilité pose avant tout un problème à la notion de nécessité contenue dans les approches nécessitarianiste, mais ne s’oppose nullement à l’approche régulariste du « meilleur système », pour laquelle la probabilité signifie fréquence ou distribution statistique (en 1997, Armstrong fournit une réponse en termes de causalité singulière et de probabilité de causalité, mais sa réponse est controversée voire analogue à celle qu’il formule à l’égard du problème d’inférence). Or, cette nuance autour de la notion de probabilité n’est pas sans importance pour le statut des « lois » en sciences spéciales, et en conséquence, l’approche du « meilleur système » semble la plus attractive, à condition bien évidemment que notre but soit de conserver les lois des sciences spéciales. Pour le dire simplement, si un Fx n’est pas suivi par un Gx, c’est parce que cette relation causale relève du régime de la probabilité, ou en d’autres termes, qu’il n’y avait aucune nécessité à ce que pareille relation s’établisse. Bien entendu, la pratique ne saurait se réduire à une explication théorique aussi simple – et la suite de cet article se donne pour but de creuser un peu plus en cette direction.

Une probabilité objective signifie que le comportement probabiliste des entités est une partie intégrante de la nature, indépendamment de nous et de nos limites épistémologiques. L’existence des probabilités objectives est suggérée par certaines interprétations de la physique quantique (voir par ex. Ghirardi, Rimini & Weber 1986). Si ces interprétations sont correctes ou défendables, alors il nous faut envisager de modifier la notion de lois, afin que celle-ci tienne compte de la probabilité donnée (P), par exemple sous la forme suivante : « x P(Fx, alors Gx) » – et en conséquence, il nous faut aussi adopter un modèle d’explication scientifique qui soit cohérent avec des lois probabilistes.

D’un côté, la différence entre les lois physiques et celles des sciences spéciales (qui semblent toujours probabilistes, même si cela résulte avant tout de raisons épistémiques) tend à se réduire à une différence de degré, parce que la notion de probabilité fait partie des lois de toute science. De l’autre, la physique garde néanmoins une capacité unique à préciser des probabilités (voir Papineau 2001 ; ainsi que la discussion analogue sur l’universalité en section 2a).

Approfondissons ces éléments avec le cas analogue des probabilités épistémiques (non-objectives). D’un côté, une loi non-probabiliste « x (si Fx, alors Gx) » n’est rien d’autre qu’une loi avec la probabilité triviale de 1 (ou 100%), et la différence avec les lois des sciences spéciales qui contiennent toutes une probabilité <1 relève d’une différence quantitative, voire de degré. De l’autre côté, deux raisons corrélées suggèrent une différence plus qualitative que quantitative, c’est-à-dire que la différence est non plus de degré mais de nature. Ces deux raisons sont les suivantes : (1) la physique seule semble capable de porter sur des lois universelles non-probabilistes, de sorte qu’elle seule est en mesure d’appliquer le modèle déductif-nomologique, lequel demeure dès lors inaccessible aux sciences spéciales ; (2) les probabilités dans les lois des sciences spéciales sont épistémiques, dans le sens d’un manque de précision ou de connaissance, lequel est néanmoins potentiellement surmontable, notamment à l’aide de précisions physiques, avec le risque toutefois de placer les lois des sciences spéciales sous le signe des lois physiques (voir aussi ci-dessous les lois ceteris paribus).

Continuons notre démonstration avec les notions de contingence et de lois contingentes. Évidemment, l’interprétation exacte de cette notion dépend à la fois de l’approche adoptée (régulariste ou nécessitarianiste) et de l’existence de probabilités objectives. Cependant, il sera notamment question, dans la suite de cet article, d’exemples et de défis pour les sciences spéciales, et nous invitons les lectrices et les lecteurs à replacer eux-mêmes les exemples invoqués dans le cadre de leur approche régulariste ou nécessitarianiste préférée. Un des exemples classiques de lois contingentes – lesquelles ne sont pas considérées comme véritables lois selon John Beatty et d’autres – sont les lois mendéliennes en génétique (voir Beatty 1980 ; Sober 1997). Avec cet exemple, un problème apparaît, qu’il nous faut mettre en évidence : les lois mendéliennes acceptent des exceptions et elles présupposent la reproduction sexuelle, laquelle a émergé dans l’évolution passée sans que cela ne soit un événement physiquement nécessaire, ni même qu’elle persiste nécessairement à long terme. Voici deux passages de Beatty qui se laissent, d’ailleurs, facilement transposer à n’importe quelle loi des sciences spéciales :

« … la théorie de l’évolution peut changer comme résultat du changement évolutionnaire » ; « même s’il n’y a pas jusqu’à présent d’exception à la loi mendélienne, sa vérité serait contingente selon le statu quo évolutionnaire. Mais le statu quo évolutionnaire n’est pas permanent » (Beatty 1980, p. 407, 410, traduction libre par A. Cueto & C. Sachse).

Dans le contexte des options principales introduites en début de section – à savoir le changement de la notion de lois et/ou de modèle d’explication –, Beatty (1980) suggère de changer la notion d’explication à l’aide d’une nouvelle perspective sur les théories. La perspective dite « standard » (parfois appelée « syntactique ») consiste à concevoir une théorie dans l’esprit de l’empirisme logique, idéalement comme un système déductif des lois empiriques et universelles. Étant donné que certaines lois des sciences spéciales (comme les lois mendéliennes) ne s’y intègrent pas, Beatty propose la perspective dite « sémantique » des théories : au lieu d’un système déductif des lois empiriques qui décrivent le monde, il s’agit d’identifier des « lois », ou plutôt des modèles qui définissent chacune un « (sous-)domaine d’application », sans que ces domaines/lois ne forment nécessairement un système hiérarchisé entre eux (voir Beatty 1980, p. 410 ; pour une meilleure contextualisation de la discussion et pour la transition en vue de la perspective « sémantique », voir aussi Rosenberg 1994, notamment pp. 128-139).

L’avantage et l’inconvénient de l’approche de Beatty dépendent aussi de la réponse que nous pouvons donner à la question suivante (Beatty 1980, pp. 411-412) : pourquoi ne pas reconstruire la théorie de l’évolution de sorte que i) le principe de la sélection naturelle y figure comme axiome ; que ii) les lois mendéliennes (et d’autres également) deviennent, sous certaines conditions, des théorèmes déductibles ; et que iii) la perspective « standard » ne soit pas remise en question ? Selon Beatty, exceptés certains arguments inhérents à (la pratique scientifique de) la biologie dans la perspective « sémantique », il s’avère impossible de redéfinir ainsi la théorie de l’évolution, par le simple fait déjà que – même si l’évolution des espèces est une vérité a posteriori – le principe de la sélection naturelle n’est pas une loi empirique mais a priori. Sans doute, pareille redéfinition permettrait de soulever des questions intéressantes, notamment celles sur la place des lois a priori tant dans l’approche régulariste du « meilleur système » que dans celles nécessitarianistes. C’est là cependant un autre débat qui ne nous concerne pas directement, et dans la suite, nous nous focaliserons uniquement sur les arguments qui permettent d’accepter ou de nier des lois a priori.

Sober (1997), contre Beatty (1980 et 1995), suggère de rester silencieux par rapport à la question de savoir si une loi doit forcément être une régularité empirique. Selon lui, une régularité dont la vérité est connaissable a priori ne pose pas de problème, à condition qu’elle soutienne des contrefactuelles et décrive des relations causales et explicatives – ce type de régularité est une « loi de processus » (Sober 1997, p. 459). L’argument de Sober se base sur le problème de la contingence tel que celui-ci fut décrit par Beatty : i) au temps t1, il existe des conditions initiales (I), lesquelles causent à t2 la régularité « si Fx, alors Gx » ; ii) la régularité est contingente (elle n’est donc pas une loi), parce qu’elle dépend de l’émergence contingente des conditions initiales (I) au temps t1. Cependant, si nous modifions cette régularité de la manière suivante : « si (I) a lieu à t1, alors “si Fx, alors Gx“ apparaît à t2 », celle-ci semble beaucoup moins contingente, notamment dès lors que les conditions I sont formulées d’une façon aussi précise que théoriquement possible.

Vu que certains éléments seront abordés ci-dessous, voici seulement trois commentaires pour orienter la suite (voir aussi Elgin 2006) : (1) malgré leurs différences, il y a une évidente similarité cruciale entre la perspective « sémantique » de Beatty (1980), où une théorie définit le domaine d’application, et l’idée des lois de processus a priori de Sober (1997) ; (2) la partie empirique, dans les deux approches, relève de la question de l’identification la plus précise possible des conditions I, par exemple en suivant la méthodologie de l’approche interventionniste de Woodward (2010), laquelle cherche à identifier les causes des exceptions d’une régularité, afin de la rendre idéalement universelle ; (3) cela semble toutefois revenir à soutenir que toute régularité intuitivement non-explicative et qui ne soutient « normalement » aucun énoncé contrefactuel – comme par exemple la régularité qui fixe la hauteur maximale de tous les brins d’herbes de mon gazon à 28 mm (voir section 2a) – puisse devenir, une fois que nous l’avons adéquatement formulée, une loi de processus ou une théorie selon la perspective « sémantique ».

Indépendamment de la dimension extrême d’a priori qui est sous-jacente à l’approche de Sober, son idée de reformuler une régularité sous la forme modifiée de « si (I) a lieu à t1, alors “si Fx, alors Gx“ apparaît à t2 » est structurellement comparable à une loi disposant d’une clause ceteris paribus, que l’on nomme souvent et simplement « loi ceteris paribus ». L’idée d’une clause ceteris paribus consiste à contenir implicitement des conditions sous lesquelles une régularité/loi s’applique voire une relation causale s’établit (voir aussi Andler 2002, pp. 748-759). Il devient alors possible de transformer une régularité qui n’est à strictement parler pas universelle (par exemple les lois mendéliennes) en une vérité universelle sous forme de loi ceteris paribus (Mitchell 2002, p. 331).

Mentionnons d’abord deux conséquences possibles intéressantes :

(1) Le contraste courant veut qu’en physique il y ait des lois universelles s’appliquant sans aucune restriction spatio-temporelle, là où lois des sciences spéciales admettent des exceptions (leur universalité n’est pas donnée, elles sont probabilistes et/ou dépendent de conditions initiales). Pareil contraste se veut toutefois trop simpliste, non seulement parce que les lois physiques contiennent potentiellement des probabilités objectives ou inévitables, non seulement parce que les idées de « probabiliste » et d’« universelle » ne s’exclue pas forcément, mais aussi parce que les lois physiques peuvent également dépendre de conditions initiales. L’idée des lois ceteris paribus peut être vue comme un pas de plus dans cette direction de relativisation des différences, dans la mesure où la distinction entre les lois physiques et celle des sciences spéciales tend à disparaître dès lors que les clauses ceteris paribus permettent de rendre universelle des régularités non-universelles (Mitchell 2002, p. 331 ; voir aussi l’analogie avec la discussion sur l’universalité en section 2a).

(2) Vu la structure comparable entre les conditions initiales I chez Sober et l’idée de Beatty selon laquelle une théorie s’applique seulement au domaine qui satisfait la description en question, ce qui est dit sous (1) s’applique aussi – pace Beatty et Sober – à leurs approches de sorte que leurs différences – perspective « sémantique » voire une reconstruction a priori des lois – sont possiblement négligeables.

Toutefois, selon Mitchell (2002), l’effet que des clauses ceteris paribus puissent universaliser des régularités non-universelles pose problème quant à la compréhension des similarités et des différences entre la physique et les sciences spéciales (voir aussi Earman & Roberts 1999 ; Elgin 2006). Ce problème devient évident dès lors qu’il s’agit de remplir concrètement une clause ceteris paribus. Par exemple, comment spécifions-nous les conditions pour que les lois mendéliennes n’admettent aucune exception ? D’emblée, nous pourrions, en vue de les exclure, mentionner deux exceptions dans le sens suivant : on exige (1) qu’une reproduction sexuelle soit présente et (2) qu’il n’y ait pas d’interférence pendant la méiose. Toutefois, pour parvenir à spécifier les interférences possibles en vue de les exclure, on rencontre le problème suivant, à savoir que la biologie ne parvient pas à donner une liste approximativement exhaustive, ce que seule la physique pourrait (ce que peut être vue en analogie avec la capacité unique de la physique à spécifier des probabilités). Par conséquent, sans précision physique, « ceteris paribus » signifie en partie (ou tout simplement) que « toutes les conditions sont comparables » ou que « rien n’interfère » (Mitchell 2002, p. 331). Mais cela veut aussi dire la chose suivante : en voulant universaliser de cette façon des lois, les clauses ceteris paribus finissent par les rendre vides.

Par conséquent, il n’est pas clair que les lois ceteris paribus puissent figurer dans une approche régulariste du « meilleur système » ou être comprises comme des nécessités physiques/métaphysiques. Indépendamment de ces questions, Mitchell suggère la chose suivante, à savoir de comprendre les lois des sciences spéciales pragmatiquement et fonctionnellement (Mitchell 2002, p. 333). Même s’il existe des différences importantes entre elles, cette suggestion de Mitchell s’allie bien avec l’approche de James Woodward, du moins en ce qui concerne la notion de causalité et d’explication scientifique (voir par ex. Woodward 2003) : tout ce qu’il faut pour établir des prédictions et fournir des explications consiste à identifier l’invariance voire la stabilité des relations causales (voir par ex. Woodward 2010 qui traite de la causalité et de l’explication biologique en particulier). Autrement dit, et pour revenir aux possibilités exprimées en début de section, il s’agit dès lors d’élargir la notion de lois et celle d’explication scientifique, et, il importe de le dire, de rendre compte de la pratique scientifique en suivant cette approche, plutôt qu’en recourant à des considérations métaphysiques ou à des démarches de type perspective « standard ».

Face à la complexité de ce débat, nous nous proposons de le conclure en résumant les principales possibilités offertes aux lois des sciences spéciales : (1) elles ne sont pas de véritables lois (Beatty 1980) ; (2) leur conception en tant que lois empiriques peut être affaiblie, de sorte qu’on puisse obtenir des lois universelles par une construction a priori (Sober 1997 ; (3) leur conception en tant que lois universelles peut être obtenue par une construction ceteris paribus (Mitchell 2002 ; Elgin 2006) ; (4) leur conception en tant que lois universelles peut être affaiblie (Mitchell 2002), notamment si nous les combinons avec une autre modèle d’explication (par exemple celle de Woodward 2010).

Bibliographie

Andler, Daniel (2002) : « L’ordre humain » dans : Daniel Andler, Anne Fagot-Largeault et Bertrand Saint-Sernin (éds.) : Philosophie des sciences. 2 volumes, Paris : Gallimard.

Armstrong, David M. (1983) : What is a law of nature ? Cambridge : Cambridge University Press.

Armstrong, David M. (1989) : Universals : an opinionated introduction. Boulder : Westview Press.

Armstrong, David M. (1993) : « The identification problem and the inference problem », Philosophy and Phenomenological Research 53, pp. 421-422.

Armstrong, David M. (1997) : « Singular causation and laws of nature », dans : John Earman et John Norton (éds.) : The cosmos of science, Pittsburgh : Pittsburgh University Press, pp. 498-511.

Ayer, A. J. (1956) : « What is a law of nature ? », Revue Internationale de Philosophie 10, pp. 144-165. Réimprimé dans Michael Tooley (éd.)(1999) : Laws of nature, causation, and supervenience, Garland Publishing, pp. 52-73.

Barberousse, Anouk, Kistler, Max, et Ludwig, Pascal (2000) : La philosophie des sciences au XXe siècle, Paris : Flammarion.

Beatty, John (1980) : « What’s wrong with the received view of evolutionary theory ? », PSA : Proceedings of the Biennial Meeting of the Philosophy of Science Association, pp. 397-426.

Beatty, John (1995) : « The evolutionary contingency thesis », dans :

Beebee, Helen (2000) : « The non-governing conception of laws of nature », Philosophy and Phenomenological Research LXI, pp. 571-594.

Bird, Alexander (1998) : Philosophy of science, Routledge.

Bird, Alexander (2005) : « Laws and essences », Ratio (new series) XVIII, pp. 437-461.

Black, Robert (2000) : « Against quidditisme », Australian Journal of Philosophy 78, pp. 87-104.

Bonnay, Denis (2011) : « L’explication scientifique », dans : Barberousse, Anouk, Bonnay, Denis, et Cozic, Mikaël (éds.) : Précis de philosophie des sciences, pp. 13-61.

Braithwaite, Richard Bevan (1953) : Scientific explanation : A study of the function of theory, probability and law in science, Cambridge : Cambridge University Press.

Carroll, John W. (1990) : « The Humean tradition », The Philosophical Review, 99, pp. 185-219.

Carroll, John W. (2016) : « Laws of nature », Stanford Encyclopedia of Philosophy (Fall 2016 Edition), Edward N. Zalta (éd.), URL = <https://plato.stanford.edu/entries/laws-of-nature/>.

Cartwright, Nancy (1980). « Do the laws of physics state the facts », Pacific Philosophical Quarterly, 61, pp. 75–84. Réimprimé dans : Martin Curd & Jan A. Cover (éds.)(1998) Philosophy of science. The central issues. New York / London : Norton, pp. 865-877. Traduction française (2004) par Denis Bonnay dans : S. Laugier et P. Wagner (éds.) : Philosophie des sciences, Paris : Vrin, pp. 209-228.

Coulomb, Charles Augustin de (1785). « Premier mémoire sur l’électricité et le magnétisme », Histoire de l’Académie Royale des Sciences, p. 569-577.

Dorato, Mauro (2005) : The software of the universe, Ashgate.

Dretske, Fred I. (1977) : « Laws of nature », Philosophy of Science 44, pp. 248-268.

Earman, John et Roberts, John (1999) : « ‘Ceteris Paribus’, there is no problem of provisos », Synthese 118, pp. 439-478.

Elgin, Mehmet (2006) : « There may be strict empirical laws in biology, after all », Biology & Philosophy 21, pp. 119-224.

Ellis, Brian (2000) : « Causal laws and singular causation », Philosophy and Phenmenological Research, 61, pp. 329-351.

Ellis, Brian (2001) : Scientific essentialism, Cambridge University Press.

Esfeld, Michael (2012) : Physique et métaphysique. Lausanne : Pressens polytechniques et universitaires romandes.

Esfeld, Michael (2017) : Philosophie des sciences. 3ème édition. Lausanne : Pressens polytechniques et universitaires romandes.

Goodman, Nelson (1983) : Fact, fiction, and forecast (4ème édition), Cambridge : Harvard University Press.

Ghins, Michel (2007) : « Laws of nature : Do we need a metaphysics ? », Principia 11(2), pp. 127-149.

Ghirardi, Giancarlo, Rimini, Alberto et Weber, Tullio (1986) : « Unified dynamics for microscopic and macroscopic systems ». Physical Review D34, pp. 470-491.

Giere, Ronald N. (1999) : Science without laws. Chicago : University of Chicago Press.

Hempel, Carl G., and Oppenheim, Paul (1948). « Studies in the logic of explanation », Philosophy of Science, 15, pp. 135-175.

Hume, David (1748) : An enquiry concerning human understanding.

Hicks, Michael Townsen et van Elswyk, Peter (2015) : « Humean laws and circular explanation », Philosophical Studies, 172, pp. 433-443.

Kepler, Johannes voire Keplerus, Joannus (1609). Astronomia nova ΑΙΤΙΟΛΟΓΗΤΟΣ, seu physica coelestis, tradita commentariis de motibus stellae martis ex observationibus G.V. Tychonis Brahe, Heidelberg, Vögelin.

Kitcher, Philip (1981) : « Explanatory unification », Philosophy of Science 48, pp. 507-531.

Kitcher, Philip (1984): « 1953 and all that. A tale of two sciences », Philosophical Review 93, pp. 335-373 ; réimprimé dans : P. Kitcher (2003) : In Mendel’s mirror. Philosophical reflections on biology, Oxford : Oxford University Press, pp. 3-30.

Kripke, Saul (1972) : Naming and necessity. Oxford : Blackwell.

Lange, Marc (2000) : Natural laws in scientific practice. Oxford : Oxford University Press.

Lange, Marc (2009) : Laws and lawmakers. Oxford : Oxford University Press.

Lewis, David (1973) : Counterfactuals. Cambridge : Harvard University Press. Note que la section 3.3 appelée « The metalinguistic theory : Laws of nature » dont il est question dans mon analyse, est aussi réimprimé dans Michael Tooley (éd.)(1999) : Laws of nature, causation, and supervenience, Garland Publishing, pp. 74-79.

Lewis, David (1983) : « New work for a theory of universals », Australian Journal of Philosophy 61, pp. 343-377.

Lewis, David (1986) : Philosophical Papers. Volume II, New York : Oxford University Press.

Lewis, David (1994). « Humean supervenience debugged », Mind 103(412), pp. 473-490.

Mill, John Stuart (1843) : A system of logic, ratiocinative and inductive : Being a connected view of the principles of evidence and the methods of scientific investigation. Londres : John W. Parker.

Mitchell, Sandra (2002) : « Ceteris paribus – an inadequate representation for biological contingency », Erkenntnis 57, pp. 329-350.

Mumford, Stephen (2004) : Laws in nature. Londres : Routledge.

Newton, Isaac (1687). Philosophiæ naturalis principia mathematica. Traduction française (1759) : Principes mathématiques de la philosophie naturelle par Marquise du Chastellet, Paris : Lambert.

Nagel, Ernest (1961). The structure of science. New York : Harcourt Brace.

Papineau, David (2001) : « The rise of physicalism », dans : C. Gillet et B. Loewer (éds.) : Physicalism and its discontents, Cambridge : Cambridge University Press, pp. 3-36.

Popper, Karl (1949) : « A note on natural laws and so-called ‘contrary-to-fact-conditionals’ », Mind 58, pp. 62-66.

Psillos, Stathis (2002) : Causation and explanation. Acumen.

Ramsey, Frank Plumpton (1928) : « Universals of law and of fact », dans : Hugh D. Mellor (ed.)(1978) : F. P. Ramsey. Foundations : Essays in philosophy, logic, mathematics and economics. London: Routledge & Kegan Paul, pp. 128-132.

Ramsey, Frank (1929) : « General propositions and causality », dans : Hugh D. Mellor (ed.)(1978) : F. P. Ramsey. Foundations : Essays in philosophy, logic, mathematics and economics. Londres : Routledge & Kegan Paul, pp. 133-151.

Reichenbach, Hans (1947) : Elements of symbolic logic. New York : Macmillan.

Rosenberg, Alexander (1994) : Instrumental biology or the disunity of science. Chicago : University of Chicago Press.

Shoemaker, Sydney (1980). « Causality and properties ». Dans : Peter Van Inwagen (éd.). Time and cause : Essays presented to Richard Taylor. Dordrecht : Reidel, pp. 109–135. Réimprimé dans : Michael Tooley (éd.)(1999) : Laws of nature, causation, and supervenience, Garland Publishing, pp. 97-135.

Sober, Elliot (1997) : « Two outbreaks of lawlessness in recent philosophy of biology », Philosophy of Science, 64, S458-S467.

Sparber, Georg (2009) : Unorthodox Humeanism, Walter de Gruyter.

Swoyer, Chris (1982) : « The nature of natural laws », Australasian Journal of Philosophy 60, pp. 202-223.

Tooley, Michael (1977) : « The nature of laws », Canadian Journal of Philosophy 7, pp. 667-698. Réimprimé dans : Michael Tooley (éd.)(1999) : Laws of nature, causation, and supervenience, Garland Publishing, pp. 125-156.

Van Fraassen, Bas C. (1989) : Laws and symmetry. Oxford University Press. Traduction français (1994) : Lois et symétrie par Catherine Chevalley, Paris : Vrin.

Van Fraassen, Bas C. (1993) : « Armstrong, Cartwright, and Earman on Laws and Symmetry », Philosophy and Phenomenological Research, 53, pp. 431-444.

Woodward, James (2003) : Making things happen : a theory of causal explanation, Oxford : Oxford University Press.

Woodward, James (2010) : « Causation in biology: stability, specificity, and the choice of levels of explanation », Biology & Philosophy 25, pp. 287-318.

Christian Sache
Université de Lausanne
Christian.Sachse@unil.ch


Comment citer cet article ?

Sachse, C., (2018), « Lois de la nature », version académique, dans M. Kristanek (dir.), l’Encyclopédie philosophique, URL : http://encyclo-philo.fr/lois-de-la-nature-a/