La philosophie de A à Z

Résumé

L’attitude réaliste constitue de prime abord la posture du sens commun vis-à-vis de la science. Elle consiste à attribuer à la science l’objectif de décrire littéralement la réalité tout en lui reconnaissant la capacité, en vertu de ses méthodes, d’atteindre ce but. Si le réalisme scientifique apparait comme représentant le sens commun, il a dû, au courant du siècle dernier, s’ériger en véritable posture philosophique argumentée devant l’influence grandissante des différentes formes d’antiréalismes. Dans la mesure où la posture qu’un philosophe adopte concernant la prétention des théories scientifiques à décrire le réel a un impact sur son traitement d’à peu près toutes les questions pertinentes de son champ de recherche, on peut dire que l’examen de la question du réalisme scientifique est recommandable à quiconque souhaite mener une réflexion philosophique à propos de l’entreprise scientifique. Cet article débute sur la présentation des thèses fondamentales du réalisme scientifique pour ensuite le distinguer des autres postures réalistes et antiréalistes qui s’y sont opposées. Une fois les contours de la notion de réalisme scientifique précisés, il sera question des principales considérations qui ont été mises de l’avant en sa faveur et en sa défaveur. Le principal argument positif pour le réalisme scientifique est l’argument dit de l’absence de miracle. Au-delà de cet argument, tous les arguments du réalisme scientifique sont issus de répliques aux différents défis antiréalistes qui lui ont été lancés depuis la seconde moitié du 20e siècle. Il s’agira donc, par la suite, de présenter ces différents défis en identifiant les postures qui s’en réclament ainsi que les principales stratégies employées par les réalistes pour tenter de les relever. À la lumière de ce qui aura été présenté, l’article se conclut en interrogeant la distance qui sépare véritablement le réalisme scientifique de l’antiréalisme dans leurs formes contemporaines.


Table des matières

1. Qu’est-ce que le réalisme scientifique ?

a. Les thèses fondamentales du réalisme scientifique
b. Alternatives au réalisme scientifique
c. Une posture qui s’est façonnée à travers les grands débats philosophiques des cinquante dernières années.

2. L’argument positif pour le réalisme scientifique : l’argument de l’absence de miracle

3. Le réalisme en réaction aux grands défis antiréalistes du 20e siècle

a. Le défi de la sous-détermination des théories par l’expérience
b. Le défi de l’incommensurabilité
c. La réponse réaliste au défi de l’incommensurabilité : l’externalisme sémantique
d. Le défi sceptique de l’induction pessimiste
e. Le défi des alternatives inconcevables
f. Le défi de la précision de la notion de vérité approximative

3. Conclusion : Quelle distance entre le réalisme et l’antiréalisme ?

4. Bibliographie


1. Qu’est-ce que le réalisme scientifique ?

L’attitude réaliste constitue de prime abord la posture du sens commun vis-à-vis de la science. Elle consiste à attribuer à la science l’objectif de décrire littéralement la réalité tout en lui reconnaissant la capacité, en vertu de ses méthodes, d’atteindre ce but. Si le réalisme scientifique apparait comme représentant le sens commun vis-à-vis de la science, ce dernier a dû, au courant du siècle dernier, s’ériger en véritable posture philosophique argumentée devant l’influence grandissante des différentes formes d’antiréalisme parmi lesquelles figurent au premier plan l’instrumentalisme et l’historicisme.

Le réalisme scientifique, tel qu’on le retrouve dans le cadre des débats contemporains en philosophie des sciences, tire ses origines de la faillite de la forme d’instrumentalisme issu du programme néopositiviste du début du 20e siècle. Les positivistes distinguaient le langage observationnel (portant sur des entités et des propriétés directement observables par les sens) du langage théorique (portant sur des entités non observables comme les électrons, les quarks, les virus, etc.) et ne reconnaissaient de réelle signification qu’au langage observationnel, n’attribuant au langage théorique que le rôle d’instrument servant à prédire des phénomènes observables. Pour cette raison, le positivisme logique concevait les théories scientifiques (particulièrement de la physique) comme des constructions logico-mathématiques, dénuées de signification cognitive, postulant l’existence d’entités non observables dans l’unique but d’interpréter et de prédire les phénomènes observables. Pour la plupart des membres de ce courant, décrire le réel ne constituait ni la fonction ni le but de la pratique scientifique. Cette forme d’instrumentalisme est devenue impossible à défendre le jour où l’on s’est rendu compte que le langage observationnel n’était pas moins imprégné de théorie que le langage théorique, rendant ainsi caduque l’idée que le vocabulaire observationnel serait plus susceptible de générer une connaissance fiable que le langage théorique (pour une présentation du point de vue néopositiviste ainsi que ses principales critiques, cf. Zwirn 2000, chap. 1; pour une discussion plus détaillée des thèses du mouvement du point de vue du réalisme scientifique, cf. Psillos 1999, première partie).

C’est le philosophe américain Hilary Putnam qui, dans un article célèbre (Putnam 1962/trad. dans Jacob 1980, pp. 241-260) où il formulait la critique décrite plus haut, aurait relancé, au début des années 1960, le débat sur la question du réalisme en remettant en question la capacité du positivisme à mener à bien son entreprise de reconstruction rationnelle du discours scientifique (cf. Putnam 1997, p. 181). Comme nous le verrons, le principal argument qu’employait Putnam à cette époque pour justifier son adhésion au réalisme scientifique rallie encore la plupart des philosophes d’allégeance réalistes, il s’agit de l’argument de l’absence de miracle qui consiste à faire remarquer que le réalisme constitue la meilleure explication du succès de la science : « L’argument positif pour le réalisme est que c’est la seule philosophie qui ne rend pas le succès de la science miraculeux. » (Putnam 1975, p. 73/trad. dans Gandon et Smadja 2013, p. 123) Toutefois, même si une grande majorité de philosophes adoptent aujourd’hui le réalisme scientifique (cf. Bourget et Chalmers 2014), ce dernier n’a pas manqué d’être mis à l’épreuve tout au long de la seconde moitié du vingtième siècle. Comme nous le verrons, c’est à travers ses répliques aux différents défis que lui ont lancés les partisans de l’antiréalisme que s’est constituée la posture philosophique qui constitue l’objet de cet article.

Dans la mesure où la posture qu’un philosophe adopte concernant la prétention des théories scientifiques à décrire le réel a un impact sur son traitement d’à peu près toutes les questions de son champ de recherche, on peut dire que l’examen de la question du réalisme scientifique est recommandable à quiconque souhaite mener une réflexion philosophique à propos de l’entreprise scientifique.

Aussi, on sépare habituellement la philosophie des sciences en deux grands domaines. Le premier est celui de l’épistémologie des sciences qui traite des prétentions de la science à produire des connaissances. Le second est celui de la métaphysique qui cherche à établir une vision philosophique de la nature en s’inspirant des résultats de l’enquête scientifique (cf. Esfeld 2009, pp. 3-4 et chap. 10). Le réalisme scientifique est une posture en épistémologie des sciences, mais y adhérer constitue une condition préalable à qui veut s’engager dans une réflexion en métaphysique des sciences. En reconnaissant la capacité de nos meilleures théories scientifiques à décrire au moins approximativement la réalité, les philosophes qui y souscrivent reconnaissent habituellement la pertinence d’une telle entreprise qui non seulement permet de raffiner notre conception de la nature, mais peut parfois jouer un rôle significatif dans l’interprétation du formalisme de certaines théories scientifiques complexes (la mécanique quantique est un domaine où ce genre de discussion occupe une place significative). Historiquement, les philosophes qui adoptent des postures antiréalistes dans le cadre du débat entourant la question du réalisme en philosophie des sciences ont eu tendance à remettre en question la valeur de la métaphysique des sciences. Bien que ce ne soit plus forcément le cas, la posture que les philosophes adoptent vis-à-vis du réalisme scientifique a habituellement un impact non négligeable sur l’importance qu’ils accordent à la réflexion métaphysique inspirée du travail scientifique (la plupart des antiréalistes reconnaissent aujourd’hui la pertinence de procéder à une interprétation littérale du discours scientifique même s’il refuse de lui reconnaitre sa prétention à décrire véritablement la réalité, même partiellement – nous reviendrons sur cet aspect de l’antiréalisme contemporain en conclusion).

Le plan de cet article est le suivant. Nous commencerons par présenter les thèses fondamentales du réalisme scientifique ainsi que ses postures alternatives, réalistes et antiréalistes (section 2). Nous nous intéresserons ensuite aux grandes considérations pour et contre le réalisme scientifique. Le principal argument positif en faveur de ce dernier est l’argument de l’absence de miracle auquel nous avons fait référence plus haut (section 3). Outre cet argument, tous les arguments du réalisme scientifique constituent des répliques aux différents défis antiréalistes qui lui ont été lancés depuis la seconde moitié du 20e siècle. Nous poursuivrons donc notre article en présentant ces différents défis et en identifiant les postures qui s’en réclament ainsi que les principales stratégies employées par les réalistes pour tenter de les relever (section 4). Enfin, nous conclurons notre présentation du réalisme scientifique en présentant des considérations mettant en question l’idée qu’il y aurait une divergence profonde des points de vue des réalistes et des antiréalistes dans le contexte des discussions contemporaines (section 5).

Cet article adopte le point de vue du réalisme scientifique dans le but de mettre en lumière les principales raisons qui motivent ses partisans à l’adopter. Le lecteur est invité à se référer aux entrées pertinentes de l’encyclopédie pour accéder à une synthèse des points de vue alternatifs.

a. Les thèses fondamentales du réalisme scientifique

Les philosophes ont l’habitude d’analyser la posture du réalisme scientifique en trois thèses (cf. Psillos 1999; introduction; Zwirn 2000, chap. 6; Chakravartty 2007, introduction; Esfeld 2009, chap. 1). La première, que l’on appelle le réalisme métaphysique, stipule qu’il existe une réalité indépendante de toute représentation que la science tente de décrire le plus fidèlement. La seconde thèse concerne les conditions de vérité des théories scientifiques. Les philosophes l’appellent réalisme sémantique. Elle affirme simplement que la vérité d’une théorie dépend de son adéquation à la réalité. Enfin, le réaliste scientifique prétend aussi que nos théories scientifiques nous permettent d’avoir un accès cognitif à la réalité. C’est cette thèse, que l’on qualifie de réalisme épistémologique, qui est aujourd’hui la plus débattue parmi les philosophes.

Pour préciser notre compréhension du réalisme scientifique, il peut être utile de le comparer à la posture du sens commun que les philosophes appellent le réalisme scientifique naïf (cf. Zwirn, 2000, pp. 281-283). Comme le réalisme scientifique, ce dernier admet les trois thèses du réalisme scientifique. La grande différence entre les deux postures réside principalement dans l’interprétation qu’elles font de la troisième thèse (le réalisme épistémologique). Alors que le premier a tendance à penser que la science actuelle décrit littéralement la réalité, le réalisme scientifique, qui représente une posture issue des débats du dernier siècle en philosophie des sciences, est conscient des limites de la connaissance scientifique. Il reconnait par exemple que les énoncés de la science sont imprégnés de théorie, qu’aucun énoncé ne peut être confronté à l’expérience de manière isolée et que notre savoir est sous-déterminé par l’expérience de telle sorte que le statut de nos théories scientifiques relève davantage de l’hypothèse que de la certitude. Il est aussi conscient que l’histoire de la science est une histoire de révolutions scientifiques au travers desquelles les savants ont dû à maintes reprises rejeter des théories ainsi que les croyances qu’elles engendraient. Pour cette raison, le réalisme scientifique contemporain ajoute deux spécifications à sa position. D’abord, plutôt que de prétendre que la science décrit littéralement la réalité, il prétend seulement que nous sommes justifiés de croire que nos meilleures théories sont approximativement vraies. Nos meilleures théories étant nos théories les plus matures, il ajoute que nous ne pouvons reconnaitre la vérité approximative que pour ces dernières, reconnaissant qu’une théorie doit avoir résisté longuement à l’épreuve de l’expérience pour être éligible à un tel statut. Par conséquent, contrairement au réalisme scientifique naïf qui prétend que la science ne produit que des vérités infaillibles, le réalisme scientifique contemporain soutient plus simplement que nous sommes justifiés de croire que nos meilleures théories (les plus matures) sont au moins approximativement vraies.

b. Alternatives au réalisme scientifique

Antiréalismes

On ne peut pas défendre le réalisme épistémologique sans défendre le réalisme sémantique et le réalisme métaphysique. Toutefois, il est possible d’endosser le réalisme sémantique tout en niant le réalisme épistémologique. C’est ce que fait le philosophe canadien Bas van Fraassen dans le cadre de son empirisme constructif (cf. van Fraassen 1980). Ce dernier reconnait que la pratique scientifique se fonde sur une perspective réaliste et que l’objectif qu’entretiennent les savants est de décrire le réel, qu’en refusant de donner une interprétation réaliste aux théories qu’il utilise dans le cadre de ses fonctions, le scientifique praticien ne pourrait pas mener à bien sa tâche. Pour cette raison, l’empiriste constructif reconnait la pertinence d’adopter, du point de vue de la pratique scientifique, une interprétation littérale du discours scientifique. Néanmoins, prétend-il, rien ne nous permet de dire sur le plan philosophique que nos meilleures théories sont vraies ou approximativement vraies de telle sorte que nous devons demeurer agnostiques quant à notre capacité de connaitre le réel à travers la description que nous en donne la science. La principale raison pour laquelle l’empirisme constructif nie le réalisme épistémologique est liée au défi de la sous-détermination des théories par l’expérience que nous examinerons plus bas (section 4.1). Durant la première moitié du 20e siècle, les positivistes logiques défendaient pour leur part une théorie de la signification linguistique qui ne reconnaissait la capacité d’être vrais ou faux qu’aux énoncés portant explicitement sur des phénomènes observables. Il n’est pas certain que ces derniers ont rejeté la thèse du réalisme métaphysique, mais ils rejetaient explicitement le réalisme sémantique. Ils affirmaient que les énoncés portant sur des entités inobservables étaient dénués de signification cognitive et considéraient, par conséquent, les théories scientifiques comme de simples constructions conceptuelles destinées à prédire des phénomènes observables. On peut voir l’adhésion de l’empirisme constructif au réalisme sémantique comme une manière de remettre au goût du jour l’instrumentalisme après la faillite de la théorie positiviste de la signification. Contrairement au positivisme logique, ce dernier ne rejette pas l’idée que les énoncés théoriques puissent avoir une signification cognitive. Il nie seulement que nous puissions savoir s’ils sont vrais ou faux. L’empirisme constructif constitue une forme d’antiréalisme parce qu’il rejette la thèse fondamentale du réalisme selon laquelle nous sommes justifiées de croire que nos théories nous apprennent quelque chose sur la constitution fondamentale de la réalité.

Aujourd’hui, presque aucun philosophe ne nie l’existence d’une réalité indépendante de toute représentation (pour une forme contemporaine d’idéalisme, cf. Bonsack 1989). Toutefois, certaines formes d’historicismes considèrent que la science constitue un phénomène social qui a peu à voir avec la description de la réalité. Nous examinerons plus loin, lorsque nous nous intéresserons au défi de l’incommensurabilité, l’analyse kuhnienne de l’histoire scientifique qui est à l’origine de telles postures.

Alternatives réalistes

Les postures identifiées plus haut (empirisme et historicisme) constituent les principales formes d’antiréalismes qui sont encore discutées aujourd’hui. Mais il existe toutefois des variantes de réalisme qui n’adhèrent pas nécessairement à toutes les thèses identifiées plus haut. Ces dernières partagent avec le réalisme son intuition par rapport à la capacité des méthodes scientifiques à nous apprendre quelque chose sur le monde au-delà du simple fait de nous permettre de prédire correctement des phénomènes observables. Parmi ces postures, deux méritent de retenir notre attention.

La première est le réalisme structurel (cf. Poincaré (1902) 2014; Worrall 1989). Cette posture se veut une défense de l’intuition réaliste, mise de l’avant par l’argument de l’absence de miracle (section 3), face au défi de l’induction pessimiste que nous aborderons plus bas (section 4.3). L’induction pessimiste repose sur le constat que l’histoire des théories scientifiques est davantage une histoire d’échecs qu’une histoire de réussites. Cette dernière est truffée d’exemples de théories qui ont obtenu un grand succès et qui se sont révélées fausses. Le réalisme structurel prétend que même si plusieurs théories importantes ont été remises en question au courant de l’histoire, les théories qui ont été rejetées ont permis de mettre en évidence des structures qui sont reprises et réaffirmées au sein des théories qui les succèdent (voir la réponse du réalisme au défi de l’induction pessimiste dans la section 4.3). Sur cette base, le réaliste structurel, dans sa forme épistémique, soutient qu’à défaut de nous permettre de connaitre les constituants fondamentaux de la réalité, la science nous permet d’en connaitre la structure fondamentale (habituellement exprimée dans le formalisme logico-mathématique de la théorie), de telle sorte que l’on peut accepter les trois thèses du réalisme scientifique tout en modifiant la troisième (le réalisme épistémique) en précisant que notre accès cognitif à la réalité ne concerne que sa structure.

Cette forme de réalisme structurel doit être distinguée d’une autre forme de réalisme structurel qui fait actuellement l’objet de discussions chez les philosophes, il s’agit du réalisme structurel ontique qui affirme, en présupposant l’ensemble des thèses du réalisme scientifique, que, pour être cohérent avec la reconnaissance de la vérité approximative de nos meilleures théories scientifiques actuelles (au sein desquels la physique quantique occupe une place significative), nous devrions admettre l’idée que la réalité ne soit fondamentalement constituée que de structures (cf. French et Ladyman 2003). Cette posture appartient davantage au domaine de la métaphysique des sciences qu’à celui de l’épistémologie. On pourrait argumenter qu’il s’agit d’une des conséquences envisageables du réalisme scientifique sur le plan épistémologique, mais, à moins de donner une tournure métaphysique au réalisme scientifique, il est plus difficile d’établir qu’il s’agit d’une de ses variantes d’un point de vue épistémologique.

L’autre variante réaliste au réalisme scientifique qui mérite notre attention est la forme de réalisme mise de l’avant par le nouvel expérimentalisme. Celui-ci distingue le réalisme à propos des théories du réalisme à propos des entités et adopte ce dernier en refusant de croire aux théories tout en affirmant que nous devons reconnaitre l’existence des entités que les scientifiques arrivent à manipuler en laboratoire. Ian Hacking exprimait la dernière idée dans un passage bien connu du premier chapitre de son livre Concevoir et expérimenter (1983/trad. Hacking 1989) où il explique comment il s’était converti au réalisme suite à l’explication, par un ami physicien, d’une expérience au cours de laquelle ont bombarde une goutte de niobium avec des positrons ou des électrons pour en altérer la charge. Parlant des particules projetées, Hacking écrit : « En ce qui me concerne, si on peut les projeter, alors ils sont réels. » (Hacking 1983, p. 23/trad. p. 53). La thèse du nouvel expérimentaliste se fonde à la fois sur une étude de l’histoire des sciences inspirée des travaux de Kuhn et de la réplique réaliste à ce même défi, l’externalisme sémantique (ces deux thèses seront examinées dans la section 3.2). Alors que l’analyse kuhnienne de l’histoire des sciences met en question l’adéquation des théories à la réalité, l’externalisme sémantique permet au réaliste de dire qu’en dépit des révolutions scientifiques, la référence des termes théoriques fondamentaux de nos théories ne change pas (bien que la représentation que nous nous en fassions, au sein de nos théories, puisse être modifiée). Le nouvel expérimentaliste reconnait ces deux thèses et ajoute, à partir de données historiques et d’une analyse du travail en laboratoire (cf. Hacking 1983/trad. 1989, deuxième partie), que rarement les savants qui font des expériences sur les entités théoriques comme les atomes, les molécules et les cellules (et qui constituent des dispositifs permettant de manipuler ces mêmes entités) disposent de théories complètes. Ils doivent plus souvent se contenter d’une pluralité de modèles et d’esquisses de théories. À ce sujet, Nancy Cartwright soutient dans son livre How the Laws of Physics Lie (1983) que :

« […] dans plusieurs branches de la mécanique quantique, il est normal pour le chercheur d’utiliser toute une batterie de modèle du même phénomène. Personne ne pense que l’un de ces modèles représente la vérité dans sa totalité. Il s’agit d’outils intellectuels qui nous aident à comprendre le phénomène et à édifier morceau par morceau la technologie expérimentale. Ils nous permettent d’intervenir dans les processus et de créer des phénomènes nouveaux jusqu’alors inconnus. Mais les choses ne se produisent pas en vertu de l’ensemble des lois ou même des vraies lois. Aucune loi ne peut prétendre provoquer l’apparition de quelque chose. Ce sont les électrons et les diverses particules qui sont responsables des effets. Les électrons sont réels : ils produisent des effets. » (Hacking, 1983, pp. 37-38/trad. p. 76)

Se réclamant d’un tel propos, le nouvel expérimentaliste partage avec le réaliste l’idée selon laquelle la science nous permet de découvrir certaines vérités à propos de la réalité. Elle nous permet même d’en identifier certains constituants fondamentaux (nous avons accès, à travers leur manipulation en contexte expérimental, à certaines entités théoriques). En ce sens, il admet la thèse du réalisme métaphysique ainsi qu’une version limitée de la thèse du réalisme épistémologique. Alors que le structuraliste affirme que nos théories nous donnent accès qu’à la structure de la réalité, celui-ci nous dit que ce ne sont pas nos théories qui nous donnent accès à la réalité, mais le travail que les savants réalisent en laboratoire, alors qu’ils constituent des dispositifs permettant la manipulation des entités postulées au sein de ces dernières. Dans ce contexte, le nouvel expérimentaliste adopte une attitude instrumentaliste à l’égard des théories (modèles et esquisses de théories) qui, dit-il, ne servent que d’outils au savant en action dans son laboratoire. Ne croyant pas à la valeur épistémique des théories, on peut dire qu’il rejette le réalisme sémantique.

Contrairement au réalisme structural ontique, le réalisme des entités du nouvel expérimentaliste constitue bel et bien une alternative au réalisme scientifique dans le domaine de l’épistémologie des sciences, dans la mesure où il développe un véritable point de vue concernant la capacité de l’entreprise scientifique à produire des connaissances fiables au sujet de la constitution fondamentale de la réalité. Mais il est juste aussi de dire qu’en opposition au réalisme structurel ontique, le nouvel expérimentaliste prend position en faveur d’une conception plus traditionnelle de la constitution ontologique de la réalité (conçue comme un amas d’entités), ce qui en fait aussi un acteur des débats en métaphysique des sciences. Notons que le point de vue du réalisme que nous allons examiner dans le cadre de cet article reste indépendant de tels engagements au niveau métaphysique. Les implications ontologiques du réalisme scientifique peuvent faire l’objet de discussions, mais ce qui rallie les philosophes qui s’en réclament sur le plan épistémique est l’idée générale selon laquelle la science est en mesure de nous permettre de faire de véritables découvertes à propos de la réalité inobservable (la nature de ces découvertes est ouverte au débat) et qu’à travers son développement, la science nous permet de nous rapprocher de plus en plus d’une description littérale de cette dernière (ce qui n’implique pas que tous les réalistes scientifiques envisagent cet objectif comme réalisable).

c. Une posture qui s’est façonnée à travers les grands débats philosophiques des cinquante dernières années.

S’il a ses racines dans le sens commun, le réalisme scientifique, tel qu’il se présente actuellement sous la plume des philosophes des sciences, a été façonné à travers les grands débats philosophiques des cinquante dernières années. Comme il serait impossible de retracer tous ces débats dans le cadre de cet article, nous nous contenterons de donner au lecteur un aperçu de leur teneur en examinant les plus importants arguments pour et contre le réalisme scientifiques qui ont été au cœur des discussions des philosophes depuis que Putnam a remis au goût du jour le réalisme en philosophie des sciences au début des années 1960.

Si un des avantages des débats philosophiques est qu’ils permettent aux opposants de préciser leurs positions, il faut reconnaitre que, dans son histoire, le débat autour de la question du réalisme met parfois en scène des considérations issues d’une certaine mécompréhension mutuelle des différents protagonistes. C’est néanmoins à travers l’examen de ces mécompréhensions que se sont constituées les grands points de vue réalistes et antiréalistes qui s’opposent encore de nos jours dans l’arène de la philosophie des sciences.

Dans ce qui suit, le lecteur aura peut-être l’impression que les critiques qui sont adressées au réalisme scientifique s’adressent davantage à la posture du réalisme naïf que nous avons identifié plus haut. Dans la mesure où les prétentions du réalisme scientifique contemporain sont modestes et n’impliquent que la reconnaissance que l’objectif de la science est la vérité et que, à travers la théorisation, cette dernière est en mesure de développer des modèles de plus en plus adéquats de la réalité qui se cache derrière les phénomènes que nous sommes en mesure d’observer (sans nécessairement prétendre que nous puissions un jour atteindre l’objectif d’une description littérale et complète de la réalité), force est de constater que la plupart des grands défis antiréalistes du 20e siècle ne sont pas insurmontables pour ce dernier. Au terme de notre itinéraire, nous montrerons qu’il y a même lieu de se demander si l’antiréaliste contemporain n’est pas finalement en train de concéder au réaliste l’essentiel de ce qu’il revendique.

2. L’argument positif pour le réalisme scientifique : l’argument de l’absence de miracle

Le principal argument évoqué par les philosophes en faveur du réalisme scientifique consiste à dire que le fait que nos meilleures théories scientifiques soient au moins approximativement vraies constitue la seule explication plausible du succès de la science (cf. Putnam 1979, p. 73; Boyd 1989, section 1.3; Psillos 1999, chap. 4; Chakravartty 2009, introduction; Esfeld 2009, p. 6-7). Il est indéniable que la science est à l’origine d’énormes progrès techniques. Nos théories scientifiques les plus matures nous permettent non seulement d’expliquer une grande quantité de phénomènes, mais elles nous permettent aussi d’élargir le champ de notre savoir en en prédisant de nouveaux. Si l’on ajoute à cela le fait que ces dernières se sont montrées extrêmement résistantes face au tribunal de l’expérience, il semblerait que la seule explication plausible d’un tel succès réside dans le fait qu’elles décrivent au moins approximativement la réalité. Dépendamment de leurs allégeances sur le plan métaphysique, certains philosophes donnent une tournure ontologique à cet argument en insistant sur le fait que dire que nos théories matures sont approximativement vraies revient à affirmer que les entités théoriques qu’elles décrivent sont réelles (telles qu’elles les décrivent). Plusieurs critiques du réalisme scientifique insistent sur cette dimension dans la mesure où cela permet parfois de donner plus de dents à leurs critiques. Cependant, il n’est pas nécessaire de prétendre que la représentation du monde qui est mise de l’avant par la science contemporaine soit à ce point exacte pour admettre la conclusion de l’argument de l’absence de miracle (que nos théories matures doivent être au moins approximativement vraies). Sous la plume des philosophes, cet argument est habituellement appelé argument du miracle à cause de la formulation qu’en a donnée Putnam et que nous avons citée plus haut. Présenté ainsi, l’argument du succès est une abduction (une inférence à la meilleure explication). Il présuppose que toutes les autres tentatives d’explication du succès de la science échouent.

Éléments de discussion

On a souvent mis en question la méthodologie de l’argument de l’absence de miracles en faisant valoir que ce dernier repose sur une forme de raisonnement qui, tout comme l’induction, n’est pas valide. Par ailleurs, rien ne nous permet de savoir, dans le cadre d’une abduction, que la meilleure explication se trouve parmi les choix qui s’offrent à nous, de telle sorte que nous ne pouvons jamais savoir si notre raisonnement n’est pas plutôt une inférence à la moins pire d’un lot de mauvaises explications (cf. van Fraassen 1989, p. 143). Contre cette objection, le réaliste fait habituellement remarquer que l’abduction fait partie de l’arsenal méthodologique de la science au même titre que l’induction, et que si son adversaire souhaite remettre en question sa fiabilité, il devra le faire dans tous les contextes s’il souhaite rester cohérent (cf. Psillos 1999, pp. 215-222).

L’argument de l’absence de miracle est construit comme un défi lancé à ses adversaires. Celui qui consiste à produire une explication du succès de la science qui soit plus plausible que la sienne. Van Fraasen répond en partie à ce défi à travers une explication darwinienne du succès de la science. Le succès instrumental de la science s’explique par le fait que nous avons (naturellement) tendance à sélectionner les théories les mieux adaptées à nos besoins, c’est-à-dire celles qui sont les plus empiriquement adéquates (cf. van Fraasen 1980, p. 40). Mais on peut reprocher à cette tentative d’éviter la question posée par le réaliste plutôt que d’y répondre. S’il y a ici apparence d’explication, cette dernière reste beaucoup trop en surface. Comme le relève Psillos (cf. 1999, pp. 96-98), l’explication darwinienne correspond à une explication phénotypique alors que le type d’explication que recherche le réaliste correspond davantage à une explication génotypique. Nous pouvons très bien nous expliquer que tous les membres d’un groupe d’individus aient les cheveux roux par le fait qu’ils font partie de la bande des cheveux roux, un groupe qui n’admet que des gens ayant les cheveux roux (ce qui correspond à une explication phénotypique), mais cela ne nous explique pas pourquoi chacun des membres du groupe a les cheveux roux. L’explication qui permettrait de répondre à cette dernière question serait une explication de génotypique. C’est ce genre d’explication qui est recherchée à travers le défi lancé par l’argument de l’absence de miracle et que le réaliste scientifique prétend être en mesure de donner.

L’historiciste qui adhère à l’interprétation kuhnienne de l’histoire des sciences (voir section 4.2) et le sceptique qui brandit l’argument de l’induction pessimiste (voir section 4.4) voudront pour leur part mettre en question la légitimité du défi lancé par l’argument de l’absence de miracle. Pour ces derniers, l’histoire de la science n’est pas une histoire de succès, mais une histoire d’échecs. Il n’y a donc pas lieu de s’interroger au sujet de l’explication d’un succès inexistant.

Un autre reproche que les philosophes font couramment à l’argument de l’absence de miracle est de constituer un cercle vicieux (ou pétition de principe) (cf. Fine 1984, p. 263/trad. dans Laugier et Wagner 2004, pp. 336-337). Depuis l’analyse kuhnienne de l’évolution du progrès scientifique par remplacement de paradigme, il est largement admis que le choix d’un nouveau paradigme scientifique se fait en ayant recours à l’inférence à la meilleure explication. Admettant une telle analyse, on peut aussi reprocher au réaliste scientifique de présupposé ce qu’il tente de démontrer dans le cadre de l’argument du succès. À la question : « Quelle est la meilleure explication du succès instrumentale de la sélection des théories par inférence à la meilleure explication ? » Il répond que la sélection des théories par inférence à la meilleure explication permet de sélectionner des théories approximativement vraies. Le problème que voit l’antiréaliste avec un tel argument est qu’il se fonde lui-même sur le type d’inférence qu’il tente de rendre légitime. Face à une telle critique, le réaliste peut faire valoir que, bien qu’il y ait circularité dans l’argument du succès, cette circularité n’est pas vicieuse, puisqu’aucune des prémisses de l’argument n’affirme la fiabilité de l’inférence à la meilleure explication. Tout ce qui est dit dans les prémisses est que les théories sélectionnées par la méthode de l’inférence constituent la meilleure explication fond généralement preuve d’un certain succès instrumental. Ce type d’argument que l’on peut qualifier, suivant le travail de Brathwaith (1953), Van Cleve (1984) et Papineau (1993) de « circulaire du point de vue de la règle » [rule-circular] semble, contrairement à la pétition de principe, être tout à fait légitime pour le réaliste scientifique (cf. Psillos 1999, p. 81-90).

3. Le réalisme en réaction aux grands défis antiréalistes du 20e siècle

Comme nous le disions en introduction, au-delà de son caractère intuitif, outre l’argument du miracle, la plupart des arguments en faveur du réalisme ont été élaborés à travers les répliques de ces derniers aux différents défis que lui ont lancés les antiréalistes. Pour cette raison, nous examinerons, dans la section qui suit les plus importants défis auxquels s’est trouvé confronté le réaliste durant la seconde moitié du 20e siècle. Le premier repose sur la reconnaissance du phénomène, identifié à la fois par Pierre Duhem et W. O. Quine du caractère holistique de la connaissance scientifique, lequel engendre le phénomène de la sous-détermination des théories par l’expérience (section 4.1). Le second découle de l’analyse de l’histoire des sciences comme une histoire de révolutions idéologique, avancée par Thomas Kuhn dans les années 1960 dans son livre à succès La structure des révolutions scientifiques (1962), et qui culmine dans l’idée que les théories scientifiques qui se succèdent dans l’histoire seraient incommensurables, de telle sorte qu’il n’existerait aucune commune mesure sur la base de laquelle il serait possible d’établir que la nouvelle théorie constitue un progrès par rapport à la précédente (section 4.2). En réaction à ce défi, le réalisme scientifique a développé une conception de la signification des termes théoriques qui lui permet de rendre compte de la persistance de la référence du vocabulaire théorique à travers les révolutions scientifiques (section 4.3). Le troisième défi met l’emphase sur une conséquence importante de l’analyse kuhnienne de l’histoire des sciences, c’est-à-dire sur le fait que l’histoire scientifique est truffée de théories ayant remporté un certain succès qui se sont trouvées à être réfutées. Il s’agit du défi lancé par l’argument de l’induction pessimiste. Ce dernier s’oppose directement à l’argument du succès en remettant en question l’idée même du succès de la science (section 4.4). Le quatrième défi présuppose à la fois le défi de la sous-détermination et celui de l’induction pessimiste. Il s’agit du défi des alternatives inconcevables. Il a été récemment présenté par le philosophe américain P. Kyle Stanford et consiste essentiellement en une nouvelle mouture du défi de la sous-détermination fondée sur une méta-induction du même type que l’induction pessimiste (section 4.5). Enfin, le dernier défi que nous examinerons constitue probablement l’objection la plus forte contre le réalisme scientifique et repose sur l’incapacité du réalisme scientifique à produire une formalisation pertinente de la notion de vérité approximative (section 4.6).

a. Le défi de la sous-détermination des théories par l’expérience

Le premier défi que rencontrent les défenseurs du réalisme scientifique est celui de la sous-détermination des théories par l’expérience. Ce phénomène découle du caractère holistique du savoir scientifique qui a été mis en évidence d’abord par Pierre Duhem au début du 20e siècle dans La théorie physique, son objet, sa structure (1906) et, ensuite, par W. O. Quine, en 1951, dans son célèbre article sur les deux dogmes de l’empirisme. Ces deux penseurs ont insisté sur le fait que les scientifiques ne se contentent pas d’établir des généralisations inductives à partir d’observation empirique. Une large part de leur pratique consiste à inventer des hypothèses visant à expliquer les phénomènes qu’ils observent. Une fois qu’ils ont élaboré une hypothèse, ils doivent la mettre à l’épreuve de l’expérience. Toutefois, lorsqu’un savant ou un groupe de savants conçoit une expérience, ce dernier a recours à une variété d’hypothèses auxiliaires (théories logiques, mathématiques, hypothèses concernant le fonctionnement des instruments de mesure, etc.), de telle sorte que l’échec de son expérience ne lui permet pas de conclure à l’échec de son hypothèse. Ce qu’affirme la thèse de la sous-détermination des théories par l’expérience, c’est que dans une telle situation, nos savants peuvent apporter divers réajustements au sein de leurs présupposés théoriques afin de rendre leur hypothèse empiriquement adéquate, de telle sorte qu’il serait toujours possible d’imaginer une pluralité d’hypothèses empiriquement équivalentes, mais néanmoins incompatibles. Suivant Michael Esfeld, on peut reformuler la thèse de la sous-détermination des théories par l’expérience de la manière suivante : « Pour chaque ensemble de propositions élémentaire décrivant l’expérience, il y a toujours plusieurs théories logiquement possibles qui se contredisent mutuellement, mais qui permettent toutes de déduire l’ensemble de propositions en question. » (Esfeld 2009, p. 73)

Éléments de discussion

La thèse de la sous-détermination ne remet pas en question le réalisme métaphysique ni le réalisme sémantique. Ce qu’elle affirme n’est pas qu’il n’existe pas de théorie vraie, mais plutôt que nous sommes dans l’incapacité de découvrir des théories vraies. Parmi les thèses du réalisme, celle qui est mise en question par la sous-détermination des théories par l’expérience est le réalisme épistémologique. La reconnaissance de ce phénomène ne remet pas non plus en question la possibilité du progrès scientifique. Au-delà de l’adéquation empirique, les scientifiques ont l’habitude de s’en remettre à un certain nombre de vertus épistémologiques pour décider des hypothèses qu’ils retiennent. Parmi ces vertus, on peut noter la cohérence qu’une théorie entretient avec les autres savoirs établis, son pouvoir unificateur (sa capacité à donner une explication unique à un grand nombre de phénomènes), sa fécondité (sa capacité à prédire de nouveaux phénomènes), et le fait qu’elle ne contienne pas d’hypothèse arbitraire. Sur la base de tels critères, les scientifiques peuvent procéder à l’évaluation des hypothèses qui s’offrent à eux et éliminer celles qui ne constituent pas des explications plausibles desdits phénomènes et favoriser un nombre restreint de théories, voire une seule qui pourrait constituer la meilleure explication de ces mêmes phénomènes. C’est en utilisant ce type de critères pragmatiques que les scientifiques ont réussi à élaborer un corps de savoir faisant preuve d’un grand succès instrumental. Tout ce qui est nécessaire au réaliste pour justifier la possibilité du progrès scientifique est que les scientifiques disposent de critères leur permettant de restreindre le nombre d’hypothèses valables. En reconnaissant cela, le partisan de la thèse de la sous-détermination est en mesure de donner un sens au progrès scientifique sans prétendre que la science arrivera nécessairement à développer une seule et unique description littérale de la réalité. Dans la mesure où la thèse du réalisme consiste uniquement à affirmer que le but de la science est la vérité et que les méthodes employées par les scientifiques leur permettent de développer des théories qui s’en rapprochent de plus en plus sans nécessairement croire que l’objectif d’une description littérale de la réalité constitue un but atteignable, la sous-détermination constitue davantage un défi pour le réalisme naïf du sens commun qui croit que nous sommes en mesure de déterminer la pleine vérité de nos théories scientifiques (contrairement à leur vérité approximative). C’est pour cette raison que nous avons dit en introduction que le réalisme scientifique tient compte, en tant que posture philosophique, des limites de la connaissance scientifique.

Les philosophes accordent néanmoins une certaine importance au défi de la sous-détermination qui est au cœur de la défense de l’empirisme constructif qui conclut à l’impossibilité de pouvoir juger de la vérité de nos théories sur la base du fait qu’il est impossible de départager les interprétations empiriquement équivalentes (voir section 2.2).

Le défi de la sous-détermination est habituellement remis en question par les réalistes de deux manières (cf. Psillos 1999, chap. 8). La première consiste à remettre directement en question l’idée qu’il serait toujours possible d’imaginer une pluralité de théorie équivalente, mais contradictoire pour rendre compte d’un même ensemble de phénomènes. La seconde, consiste à remettre en question la présupposition de son adversaire selon laquelle seule l’adéquation empirique constituerait un critère valable sur la base duquel on puisse juger de la vérité d’une théorie. Dans le premier cas, le réaliste fait valoir qu’à part quelques exemples très isolés, il est très rare que l’on trouve des alternatives non triviales (qui ne sont pas issues de l’ajout d’hypothèses arbitraires) à nos meilleures théories scientifiques et que, dans les cas isolés où il des théories rivales existent effectivement, il est raisonnable de penser que de futures découvertes permettront de déterminer laquelle constitue la meilleure hypothèse. (cf. Esfeld 2009, chap. 9) De l’avis de ses partisans, l’existence de théories rivales dans certains domaines ne permet pas de réfuter le réalisme scientifique dans la mesure où ce dernier n’implique que la vérité approximative de nos théories les plus matures, c’est-à-dire celles qui ont à ce jour réussi à écarter leurs rivales. Sur le deuxième front, les réalistes considèrent que nous devrions reconnaitre le pouvoir explicatif (qui est déterminé par ses vertus épistémiques) d’une théorie comme militant en faveur de sa confirmation. Comme le choix d’une théorie sur la base de son pouvoir explicatif consiste à procéder à une inférence à la meilleure explication, cela nous ramène au type d’argument évoqué plus haut lorsqu’il était question de l’argument de l’absence de miracle. C’est aussi parce qu’il remet en question la fiabilité de la méthode de l’inférence à la meilleure explication que l’empirisme constructif s’inscrit en faux contre le réaliste, plaidant que nous devrions adopter une attitude agnostique vis-à-vis de la vérité (même s’il ne s’agit que de vérité approximative de nos théories les plus matures).

b. Le défi de l’incommensurabilité

Au même moment où Putnam affirmait la pertinence de revenir à une approche réaliste de la science, Thomas Kuhn publiait son ouvrage séminal sur La structure des révolutions scientifique (1962/trad. Kuhn 1972). Dans cet important ouvrage de la philosophie des sciences du dernier siècle, Kuhn procédait à une analyse de l’histoire des sciences qui mettait sérieusement en question la possibilité du progrès scientifique. Appuyant sa thèse sur de nombreux exemples tirés de l’histoire des sciences, Kuhn affirmait que la science n’est pas tant une histoire de découvertes que celle d’une alternance de visions du monde incarnées dans ce qu’il appelait des paradigmes qui se succédaient à travers des révolutions idéologiques. C’est de cette analyse historiciste qu’est issu le défi de l’incommensurabilité.

Kuhn admettait le caractère imprégné de théorie de l’expérience et l’holisme sémantique. Le premier phénomène a été mis en évidence par N. R. Hanson dans son livre Pattern of Discovery (1958). Il s’agit de la reconnaissance du fait que deux individus ne partageant pas le même ensemble de croyances perçoivent les mêmes phénomènes différemment, de telle sorte que la manière dont nous nous représentons la réalité à travers l’expérience que nous en avons a davantage à voir avec le schème conceptuel que nous adoptons qu’avec la réalité elle-même. Le deuxième a été mis en évidence par Quine dans son célèbre article « Les deux dogmes de l’empirisme » (1951). Il s’agit du fait que les concepts théoriques fonctionnent en réseaux de telle sorte qu’en modifiant la définition d’un concept, on influence la définition des autres concepts de notre théorie, dont la signification dépend, comme c’est le cas dans les langages naturels, de la relation qu’ils entretiennent avec les autres concepts du réseau. Quine associait l’holisme sémantique à la sous-détermination dans essaie séminal sur les deux dogmes de l’empirisme :

« […] l’ensemble de la science est comparable à un champ de forces, dont les frontières seraient l’expérience. Si un conflit avec l’expérience intervient à la périphérie, des réajustements s’opèrent à l’intérieur du champ. Il faut alors redistribuer les valeurs de vérité à certains de nos énoncés. La réévaluation de certains énoncés entraîne la réévaluation de certains autres, à cause de leurs liaisons logiques – quant aux lois logiques elles-mêmes, elles ne sont que des énoncés situés plus loin de la périphérie du système. Lorsqu’on a réévalué un énoncé, on doit en réévaluer d’autres, qui lui sont peut-être logiquement liés, à moins qu’ils ne soient des énoncés de liaison logique eux-mêmes. Mais le champ total est tellement sous-déterminé par ses frontières, c’est-à-dire par l’expérience, qu’on a toute liberté pour choisir les énoncés qu’on veut réévaluer, au cas où intervient une seule expérience contraire. » (Quine 1951, pp. 39-40, trad. dans Jacob 1980, p. 117)

Présupposant une telle représentation du savoir scientifique, l’analyse kuhnienne implique tout aussi bien la sous-détermination des théories par l’expérience.

En s’appuyant sur l’histoire des sciences, Kuhn montre que la science est davantage une pratique sociale qu’un phénomène rationnel, comme les réalistes ont l’habitude de se la représenter. Pour expliquer cette idée, il a introduit l’importante notion de paradigme scientifique. Le paradigme représente un ensemble de normes partagé au sein d’une communauté de savants travaillant dans un domaine scientifique donné. Ce dernier détermine ce qui est une bonne pratique scientifique dans ce domaine et permet de départager la bonne science de la pseudoscience. Bien qu’il dépasse la théorie, le paradigme est habituellement constitué autour d’une théorie ou d’un noyau de théories. Il valorise la vision du monde qui se dégage de l’adoption d’un tel cadre théorique qui permet de définir le champ de problèmes sur lesquels les scientifiques porteront leur attention ainsi que les critères auxquels ils s’en remettront pour déterminer les solutions admissibles. Alors que le paradigme de la physique classique s’érigeait autour de la mécanique newtonienne, le paradigme de la physique moderne s’érige autour des théories de la relativité et de la mécanique quantique.

La période où un paradigme est bien installé au sein d’un domaine de recherche correspond à ce que Kuhn appelle une période de science normale. Durant cette période, les scientifiques en poste dans les universités adhèrent au paradigme en vogue et on enseigne le paradigme. Les problèmes scientifiques sont générés par la théorie en place et les efforts des scientifiques vont dans le sens de sa confirmation. Toutes les théories ont des problèmes qui résistent aux solutions envisageables à l’aide des ressources du paradigme. Kuhn qualifie ces problèmes récurrents d’anomalies. Toute théorie présente des anomalies, mais du point de vue des adhérents aux paradigmes, de telles anomalies ne remettent pas en question la théorie. Comme le disait Quine, dans le passage que nous avons cité plus haut, on peut toujours remettre en question les conditions dans lesquelles la théorie a été mise à l’épreuve plutôt que remettre en question la théorie en question. On peut aussi ajouter des hypothèses auxiliaires visant à rendre la théorie cohérente devant les données récalcitrantes. Avec le temps, le nombre d’anomalies qui se manifeste a tendance à croitre et les hypothèses que l’on formule deviennent de plus en plus arbitraires, de telle sorte que la théorie est remise en question.

La science entre alors dans une période de crise et on voit apparaitre de nouvelles théories, habituellement élaborées par les chercheurs de la nouvelle génération. Chacune se propose de rendre compte des principales anomalies générées par l’ancienne théorie. Mais, comme c’est dans son ADN, la communauté scientifique n’adhèrera qu’à une seule de ces dernières qu’elle constituera en un nouveau paradigme. En plus d’entrer en compétition avec le paradigme en place qui continue à leur opposer une résistance, ces dernières doivent entrer en compétition les unes contre les autres.

C’est ici que l’analyse kuhnienne démontre son originalité. Ce que l’histoire des sciences permet de mettre en évidence à son avis est que la compétition qui s’installe entre les théories durant la période de crise ressemble davantage à une lutte politique qu’à un processus dirigé par la raison. Les théories scientifiques étant sous-déterminées par l’expérience, les données ne permettent pas de départager définitivement les théories concurrentes, avec le résultat que : « comme cela se produit dans les révolutions politiques, le choix du paradigme ne peut être imposé par aucune autorité supérieure à l’assentiment du groupe intéressé» (Kuhn 1962, p. 94/trad. p. 118). Comme l’adhésion à un nouveau paradigme implique une remise en question de sa vision du monde, dans la plupart des cas, la révolution scientifique ne s’opère définitivement que lorsqu’une nouvelle génération de scientifiques s’installe aux commandes des départements universitaires et utilise son influence pour favoriser l’adhésion de la communauté à un nouveau paradigme.

Admettant conjointement l’holisme sémantique et la sous-détermination des théories par l’expérience, ainsi que le fait que l’expérience est toujours imprégnée de théorie, l’analyse de Kuhn plantait le décor pour une autre thèse, développée conjointement avec Paul Feyerabend (cf. 1962 et 1975/trad. Feyerabend 1979). Il s’agit de la thèse de l’incommensurabilité des théories : « […] les changements de paradigmes font que les scientifiques, dans le domaine de leurs recherches, voient tout d’un autre œil. Dans la mesure où ils n’ont accès au monde qu’à travers ce qu’ils voient et font, nous pouvons être amenés à dire qu’après une révolution, les scientifiques réagissent à un monde différent. » (Kuhn 1962, p. 111/trad. p. 157)

Dans l’optique d’une telle analyse, l’adhésion à un nouveau paradigme relève davantage de la conversion religieuse que de la révision d’une croyance sur la base d’une justification rationnelle. Une fois que la communauté scientifique a adopté un nouveau paradigme, il ne lui est plus possible de percevoir les phénomènes qui relèvent de son domaine de la même manière qu’elle les percevait lorsqu’elle adhérait à l’ancien paradigme. Il n’y a aucune commune mesure entre le nouveau et l’ancien paradigme. La révolution entraine un Gestaltswitch, les savants qui adhèrent au nouveau paradigme ne vivent tout simplement plus dans le même monde que leurs prédécesseurs. Par exemple, la mécanique classique se représentait le monde comme étant composé d’objets séparés, alors que la mécanique quantique nous présente pour sa part un univers d’états intriqués. Les objets de la mécanique classique évoluaient dans l’espace te le temps, alors que la théorie de la relativité restreinte propose pour sa part un monde évoluant dans un espace-temps à quatre dimensions. Selon la thèse de l’incommensurabilité, comme il nous est impossible d’avoir accès à la réalité sans avoir recours à un schème conceptuel, reconnaitre que les schèmes proposés par les différents paradigmes sont incommensurables revient à reconnaitre qu’il est impossible de vérifier dans quelle mesure le nouveau paradigme constitue un progrès par rapport au précédent.

Il est possible de remettre plus directement en question l’idée avancée par Kuhn selon laquelle l’histoire des sciences ne serait rien de plus qu’une histoire de remises en question des théories précédentes et de remplacement de ces dernières par des visions du monde révolutionnaires qui leur sont incommensurables. Cette conclusion de l’analyse kuhnienne a été reprise par Larry Laudan (1981) dans un autre défi important qui a été lancé au réalisme scientifique au début des années 1980, celui de l’induction pessimiste que nous examinerons plus loin (section 4.4). Nous présenterons à ce moment-là les objections que peut présenter le réalisme scientifique à la lecture kuhnienne de l’histoire scientifique comme une suite de renversements gestaltistes. Néanmoins, le défi de l’incommensurabilité a constitué dans l’histoire récente du réalisme scientifique une importante pompe à intuition qui a permis de mettre au jour, dans les années 1960-1970, une nouvelle approche de la signification de concepts scientifiques qui remporte aujourd’hui l’adhésion d’une grande majorité de philosophes et qui constitue à l’heure actuelle une des composantes les plus importantes du réalisme scientifique.

Le défi de l’incommensurabilité consiste à dire que, si l’on admet que les théories qui se succèdent sont incommensurables, que l’observation est imprégnée de théorie et que les concepts théoriques obtiennent leur signification à travers leur participation à un réseau de concept (la théorie), alors force est d’admettre que les concepts employés par la nouvelle théorie ne peuvent pas être les mêmes que les concepts employés par la théorie précédente. C’est pour cette raison que Kuhn et Feyerabend suggéraient qu’il n’y a aucune commune mesure entre le nouveau et l’ancien paradigme nous permettant de déterminer si la nouvelle théorie constituait un progrès par rapport à la précédente.

c. La réponse réaliste au défi de l’incommensurabilité : l’externalisme sémantique

La principale réponse, qui rallie aujourd’hui la plupart des philosophes, au défi de l’incommensurabilité consiste à montrer qu’il y a une composante environnementale à la signification des concepts scientifiques et que c’est cette composante environnementale qui persiste à travers les changements de théories. Cette réponse a été donnée par Hilary Putnam dans son texte « Explication et référence » en 1973 (trad. dans Jacob, pp. 337-364) et se fonde sur la thèse de l’externalisme sémantique qu’il a développée parallèlement avec Saul Kripke au tournant des années 1970, et dont on retrouve son développement par Putnam dans son article « La signification de « signification » (1975/trad. partielle dans Fisette et Poirier 2003). L’externalisme sémantique de Putnam se concentre sur les termes d’espèces naturelles et les noms de grandeurs physiques, qui sont les termes que les philosophes visent lorsqu’ils parlent du vocabulaire théorique d’une théorie scientifique, et se veut une remise en question des approches descriptivistes de la signification inspirée par les travaux de Frege et Russell en logique au tournant du 20e siècle.

Pour les termes qui nous intéressent, qui sont des termes décrivant des entités réels (espèces biologiques, minéraux, substances, grandeurs, etc.), les philosophes distinguent, après Frege, le sens ou l’intention du concept, qui correspond à l’information détenue par un locuteur concernant le concept en question (ce que correspond pour l’essentiel à sa définition), et sa référence ou son extension, c’est-à-dire le ou les objets auxquels le concept fait référence dans le monde. Selon les approches descriptivistes, la référence d’un concept est donnée à travers une description, de telles sortes que l’individu qui ne possède pas les informations pertinentes concernant la référence d’un mot n’est pas en mesure de faire référence à son extension. Selon ces approches, la maitrise de la signification d’un terme est quelque chose qui se fait individuellement. Comme le disait Putnam, selon ces approches, la signification serait quelque chose qui se trouve dans la tête des gens. On comprend assez bien comment la perspective descriptiviste peut cautionner la thèse de l’incommensurabilité des théories scientifiques si l’on perçoit l’acquisition d’un paradigme comme l’intériorisation par les membres de la communauté scientifique d’un ensemble de définitions relatives à un réseau de concepts radicalement sous-déterminé par l’expérience. Si les informations détenues par les locuteurs d’une langue changent, alors, du même coup, la signification de leurs termes est appelée à changer.

Contrairement à cela, l’externaliste sémantique affirme que la signification des termes d’espèces naturelles (et de grandeurs physiques) déborde les informations qui sont détenues par les locuteurs individuels, de tel sorte que, même advenant un changement sans les informations détenues par les locuteurs d’une langue, la signification des termes d’espèces naturelles et de grandeurs physiques reste les mêmes. Si l’externaliste sémantique reconnait une dimension conventionnelle à la signification des termes d’espèces naturelles, cette dernière n’intervient qu’au moment de l’introduction du terme dans le langage. Elle sert à déterminer l’extension du concept en question. Une fois que cette dernière est déterminée, la signification du concept est entièrement déterminée par son extension. Comme c’est l’extension qui détermine la signification d’un terme d’espèce naturelle, nous devons reconnaitre qu’il est possible que nous ne disposions que d’informations fragmentaires concernant la nature de son référent. C’est justement le rôle de la science de découvrir la nature du référent des termes d’espèces naturelles.

Selon l’externaliste sémantique, la référence d’un terme d’espèce naturelle est déterminée par un acte de baptême initial. Au moment du baptême initial, le nom de la substance est attribué en référence à un exemple paradigmatique de la substance qui est nommée. Par exemple, nos ancêtres ont pu attribuer son nom à l’or en se servant d’un seul morceau d’or. Mais, à travers le baptême, leur intention n’était pas de baptiser cet unique morceau d’or, mais de se servir de cet exemplaire pour baptiser la substance possédant les propriétés particulières de l’or. D’après cette analyse, qui, de l’avis de Putnam, exprime davantage le genre de pratique référentielle que nous employons que les théories descriptivistes de la signification, il y a une décision collective qui est prise de nommer « or » toute substance possédant les mêmes propriétés nécessaires et suffisantes que l’exemplaire employé à l’origine pour déterminer ce qu’est de l’or.

Une fois que nous avons déterminé le nom que nous attribuerons à une substance naturelle, nous avons tendance à lui associer une représentation sommaire, que l’on peut qualifier de stéréotype. Le stéréotype n’est pas une définition essentielle de l’or. Il ne contient que les connaissances les plus minimales dont doit disposer un interlocuteur de la langue pour être en mesure d’employer un concept adéquatement dans les situations les plus courantes. De ce point de vue, l’or est un métal jaune et brillant auquel les gens accordent une certaine valeur monétaire et parfois sentimentale. On peut ajouter que l’or peut servir à fabriquer des bijoux et qu’elle possède une certaine valeur marchande. Le stéréotype peut varier d’un individu à un autre. Il est constitué de lieux communs sans toutefois les comprendre tous. Le stéréotype sert habituellement à la transmission et à l’acquisition d’un terme d’espèce naturelle au sein d’une communauté. Il n’est pas nécessaire que je sois un expert de l’or pour pouvoir utiliser le concept d’or dans les contextes les plus répandus. Il ne m’est même pas nécessaire de devenir un expert de l’or pour transmettre le concept au sein de ma communauté. Notre usage contient néanmoins une composante indexicale en ce sens que lorsque j’emploie mon stéréotype pour faire référence à de l’or, je suis prêt à reconnaitre que je me suis trompé, que j’ai échoué à faire référence à de l’or, si un expert me fait la démonstration que le fragment de métal auquel je me suis référé en croyant qu’il s’agissait d’un morceau d’or n’est en fait qu’une imitation. Je suis prêt à reconnaitre mon erreur parce que je reconnais, implicitement dans mon usage, que l’or ne correspond pas à la représentation que je m’en fais, mais à une substance réelle qui existe indépendamment de ma représentation. Nous aurions pu, collectivement, dans notre histoire, appeler l’or autrement, nous aurions pu aussi découper la réalité autrement de telle sorte que notre représentation globale de la réalité ne nous permettrait pas de faire référence à l’or comme une substance déterminée, mais une fois que nous avons arrêté notre choix et avons décidé de baptiser ainsi l’or, nous nous en remettons à l’environnement pour déterminer la signification de notre concept d’or.

C’est le travail des experts de développer une représentation la plus précise possible de la nature fondamentale de l’or à travers la théorisation. Ce travail se fait à travers l’expérimentation et la théorisation. Comme dans n’importe quel processus de recherche scientifique, en se servant des connaissances disponibles, les chercheurs formulent des hypothèses quant au comportement de l’or dans diverses situations et vérifier à l’aide d’expériences contrôlées, la validité de leurs prédictions. À travers ce processus, les experts en viennent à formuler une théorie plausible de la constitution fondamentale de l’or, laquelle permet de développer des tests qui permettent de vérifier dans quels cas nous avons affaire à de l’or et dans quels cas nous sommes devant d’autres métaux partageant des propriétés phénoménales similaires à celle de l’or. Si la théorie de l’or qui ressort du travail des experts permet de nous familiariser avec sa constitution fondamentale, comme toute théorie, cette dernière peut être remise en question par des expériences récalcitrantes, ce qui amène les experts à devoir modifier leur théorie, et dans certains cas à devoir formuler une nouvelle théorie de l’or. En fin de compte, c’est la substance que nous tentons de caractériser qui détermine si ce que dit notre théorie à son sujet est adéquat ou non.

Selon cette approche, les termes d’espèce naturelle sont des désignateurs rigides. Bien qu’ils aient pour origine un acte de baptême conventionnel, une fois qu’ils ont été associés à une substance, l’information que détiennent les locuteurs à leur sujet peut changer sans que cela implique la modification de leur extension. C’est notre usage qui doit s’ajuster au monde et non pas l’inverse. Comme le disait Putnam, les significations ne sont pas dans la tête (cf. Putnam 1975, p. 227/trad. p. 57).

La principale différence entre les termes d’espèces naturelles (or, eau, pommes, gorille, granite, etc.) et les termes de grandeurs physiques (électricité, quarks, photons, etc.) c’est que ces dernières ne sont pas observables. Il est donc impossible de les introduire de manière ostensive. Pour cette raison, les savants emploient des descriptions définies approximatives contenant une série d’hypothèse concernant son rôle et ses effets. On peut penser, comme le suggère Putnam, que Benjamin Franklin ait pu introduire le concept d’électricité en la décrivant comme « une grandeur physique qui se comporte à certains égards comme un liquide […] qu’elle se rassemble dans les nuages, et que lorsqu’un point critique est atteint, elle se déverse en grande quantité du nuage vers la terre, sous forme d’un éclair lumineux : qu’elle se meut le long d’un fil métallique (à moins qu’elle ne le traverse), etc. » (Putnam 1973, p. 202/trad. dans Jacob, p. 343). Même si la description de l’électricité comme un liquide s’est montrée inadéquate, une fois que la notion d’électricité est introduite dans notre langage, cette dernière fonctionne comme un désignateur rigide. L’électricité est ce qui est responsable de la foudre et, même si elle ne correspond pas à la description précise que nous en a donnée Franklin au moment de son introduction, nous continuerons d’appeler par le nom d’électricité la grandeur physique qui est responsable des éclairs. Nous devrons développer une théorie de l’électricité pour être en mesure de nous représenter la nature fondamentale de l’électricité et face à des anomalies récurrentes, il se pourrait que nous ayons à remplacer notre théorie de l’électricité. Si nous adoptons une conception externaliste de la signification de termes de grandeurs physiques, nous reconnaitrons qu’en remplaçant notre théorie, même si les informations dont nous détenons à propos de l’électricité changent, même si le sens de notre concept d’électricité change, ce dernier fera toujours référence à la même grandeur physique. L’introduction de tels désignateurs rigides nous permet précisément de faire ce que les partisans de l’incommensurabilité croyaient impossible, c’est-à-dire d’établir une base à partir de laquelle on puisse comparer nos théories. Si notre nouvelle théorie nous permet d’avoir une meilleure compréhension de l’électricité et d’expliquer davantage de phénomènes liés à l’électricité (d’avoir une théorie de l’électricité qui possède davantage de vertus épistémiques que sa précédente), alors force est d’admettre que nous avons réalisé un progrès par rapport à notre théorie précédente.

Comme les grandeurs physiques sont des entités inobservables, ces dernières sont introduites sous forme d’hypothèses visant à expliquer des phénomènes observables (par exemple, on peut supposer que Franklin ait introduit le concept d’électricité pour expliquer le phénomène des éclairs). Comme ils ont le statut d’hypothèses, il faut reconnaitre la possibilité qu’ils n’aient pas de référence. Une telle possibilité n’est pas exclue par l’externaliste sémantique. Dans un tel cas, il faudrait cependant que l’on développe une meilleure explication des phénomènes que devait expliquer l’existence de la grandeur physique en question. Dans la prochaine section, nous verrons deux exemples de théories s’étant trompées sur la nature de causes responsables des phénomènes qu’ils étudiaient. Le premier exemplifie le cas où la découverte d’une meilleure hypothèse amène les scientifiques à remettre en question l’existence de la référence du terme théorique qu’ils ont introduit. Il s’agit du cas de la théorie de la chaleur. Le second, exemplifie le cas où les scientifiques ont jugé pertinent de modifier suffisamment leur représentation de la référence du terme qu’ils avaient introduit que, même s’ils n’avaient pas échoué à identifier la cause du phénomène qu’ils étudiaient, ils ont jugé nécessaire de laisser leur concept initial pour le remplacer par un nouveau concept plus adapté. Il s’agit du cas de la théorie de la lumière. Dans le cas de la chaleur, la théorie du calorique postulait un fluide (le calorique) à l’origine du phénomène de la chaleur que nous expliquons aujourd’hui par la notion de transfert thermique. Comme le transfert thermique est un transfert d’énergie entre particules, les scientifiques n’ont tout simplement plus besoin de postuler l’existence d’une telle substance pour rendre compte de la chaleur. Le cas de la lumière est légèrement différent, parce qu’on peut penser qu’en croyant se référer à l’éther luminifère (un milieu fluide au sein duquel on croyait que la lumière se propageait), les scientifiques du 19e siècle faisaient en réalité référence à ce que nous appelons aujourd’hui un champ électromagnétique.

Il est important ici de souligner que l’externaliste sémantique distingue, à travers la notion de stéréotype, le savoir commun du savoir des experts. Il aménage ainsi un espace permettant d’établir une description neutre de la référence qui sera théorisée par les experts. C’est cette description neutre qui permet d’établir une commune mesure des descriptions spécialisées proposées dans le cadre de théorie incommensurables. L’externaliste sémantique ne remet pas en question l’idée que les théories qui se succèdent soient incommensurables. Toutefois, la conception qu’il nous propose du progrès scientifique implique une certaine limitation de cette notion. À ce sujet, nous pouvons distinguer deux thèses. La première, qui est celle de laquelle s’est revendiqué Kuhn (cf. Kuhn 1983, trad. dans Laugier et Wagner 2004, pp. 285-320), affirme qu’il existe une incommensurabilité locale entre les paradigmes scientifiques, de telle sorte que, même si les concepts théoriques que les scientifiques adhérant à des paradigmes différents adoptent sont absolument incomparables, les paradigmes s’échafaudent sur la base d’un langage commun qui, même s’il est modifié par le changement de paradigmes (en vertu de la thèse de l’holisme sémantique), reste néanmoins suffisamment stable pour rendre possible le type de description neutre nécessaire à l’analyse externaliste. En contrepartie, certains philosophes adoptent une version globale de l’incommensurabilité, affirmant que l’ensemble du langage est touché à chaque fois qu’il y a changement de paradigme. Paul Feyerabend s’est fait le champion de cette perspective dans le cadre de ce qu’il a appelé son anarchisme scientifique, mais peu de philosophes sont prêts à aller aussi loin (cf. Feyerabend 1975). (La distinction entre incommensurabilité local et incommensurabilité globale est abordée notamment dans Esfeld 2009, chap. 7.)

Dans la mesure où l’externalisme sémantique et l’idée que l’incommensurabilité ne peut être que locale sont des conceptions très rependues au sein de la communauté philosophique, on pourrait penser que le réalisme scientifique ait réussi à relever le défi de l’incommensurabilité. Toutefois, il lui reste à surmonter une importante difficulté mise de l’avant dans le cadre de l’analyse kuhnienne de l’histoire des sciences. C’est cette difficulté qui est mise de l’avant dans le cadre de l’argument de l’induction pessimiste qui constituera le prochain défi au réalisme scientifique que nous examinerons.

Bien qu’il ait nuancé sa vision pour adopter la perspective locale de l’incommensurabilité, Kuhn a maintenu jusqu’à la fin de sa carrière une variante des théories descriptivistes de la signification (cf. Kuhn 1983), soutenant l’idée qu’il n’existait aucune commune mesure permettant de comparer les paradigmes de manière à rendre compte du progrès scientifique au sens où l’entend le réaliste scientifique. L’historicisme de Kuhn a eu une grande influence en philosophie et au-delà, particulièrement dans le milieu des sciences sociales où l’on retrouve plusieurs variantes de l’idée selon laquelle la science serait davantage une pratique sociale qu’un phénomène rationnel.

Comme nous le disions dans la première partie de cet article, le nouvel expérimentaliste admet habituellement l’idée que la science relève davantage d’une pratique sociale que d’un processus d’enquête rationnel (cf. Hacking 1983, p. 14/trad. p. 42), mais il rejette l’idée que le caractère erroné de nos théories constitue une limitation de notre pouvoir de découvrir, à travers l’expérimentation, la nature des composants fondamentaux de la réalité.

Comme nous l’avons vu, dans un esprit apparenté au nouvel expérimentaliste, le réaliste scientifique n’est pas contraint de rejeter la trame principale des idées de Kuhn. Il peut reconnaitre le phénomène de la prégnance en théorie de l’observation, celui de l’holisme sémantique tout comme, nous l’avons vu dans la section précédente, la sous-détermination des théories par l’expérience tout en insistant sur le caractère local de l’incommensurabilité et la possibilité d’établir une continuité dans la référence des concepts théoriques par le recours à une description neutre de leur référence (stéréotype). Toutefois, le réaliste scientifique s’inscrira en faux contre le nouvel expérimentaliste en soutenant qu’en dépit de l’influence de facteurs sociaux relevés par l’historicisme kuhnien, les méthodes auxquels ont recours les scientifiques leur permet néanmoins de développer des théories approximativement vraies. Au sujet du défi de l’incommensurabilité, ce qui importe pour le réaliste est que la différence qu’entretiennent les théories qui se succèdent ne constitue pas un obstacle à la possibilité du progrès scientifique.

d. Le défi sceptique de l’induction pessimiste

Le troisième défi lancé au réalisme est un défi sceptique qui remet directement en question la conclusion de l’argument de l’absence de miracle. Ce dernier entretient un lien de parenté avec le défi de l’incommensurabilité que nous venons d’examiner. Si la science progresse en remplaçant les théories qui s’avèrent erronées, alors il y a tout lieu de penser que l’histoire scientifique est une histoire de remise en question de théories ayant obtenu un certain succès instrumental durant des périodes révolues de l’histoire des sciences. Cet argument est une induction à partir des données de l’histoire des sciences. Cette dernière est remplie d’exemples de théories qui, malgré le fait qu’elles aient remporté un certain succès, sont maintenant considérées erronées. Si par le passé, nos théories les plus empiriquement adéquates se sont révélées fausses, alors pourquoi nos meilleures théories actuelles bénéficieraient du privilège de la vérité ? (cf. Hesse 1976, p. 264) Par le recours à une méta-induction sur la base des données de l’histoire scientifique, nous sommes amenés à inférer la conclusion selon laquelle même nos meilleures théories se révèleront fausses et devront être remplacées. Si tel est le cas, le succès instrumental de nos théories les plus matures ne peut pas constituer une raison de croire à leur vérité, même approximative.

Actuellement, la discussion de l’induction pessimiste se fait à partir de l’essai de Larry Laudan (1981). Dans celui-ci, ce dernier établit son raisonnement en se référant à une liste de théories qui, bien qu’elles aient toutes été rejetées, ont connu un certain succès instrumental. Une des caractéristiques des théories de sa liste réside dans le fait qu’elles postulent toutes des entités théoriques qui ne sont plus reconnues par la science d’aujourd’hui. Voici quelques exemples de théories évoquées par Laudan :

  1. L’astronomie des sphères cristallines du Moyen-Âge
  2. La médecine des humeurs
  3. La théorie du phlogistique (17e siècle)
  4. La théorie du calorique (18e siècle)
  5. La théorie optique de l’éther (19e siècle)

(La liste de Laudan comporte 12 éléments et il prétend qu’elle pourrait être beaucoup plus étendue) (cf. Laudan 1981, pp. 28-29)

Selon Laudan, l’échec de la référence des principaux termes théoriques d’une théorie devrait constituer une raison suffisante pour rejeter la possibilité que cette dernière ait été approximativement vraie, mais nous verrons que le réaliste n’est pas sans ressources devant un tel argument.

Éléments de discussion

En se référant à cette liste, le réaliste peut développer deux stratégies. La première consiste à dénoncer un certain laxisme de la part de Laudan dans l’établissement de sa liste. Ce laxisme peut être dénoncé de deux manières complémentaires. D’abord, il est possible de montrer que ses exigences concernant le statut de théories à succès manquent de rigueur. Par exemple, on peut faire valoir qu’une théorie qui obtient un véritable succès empirique doit être en mesure de prédire de nouveaux phénomènes que nous n’aurions pas pu prédire sans la théorie en question. En appliquant des critères plus rigoureux dans la sélection des théories à succès, le réaliste prétend être en mesure de restreindre la liste de Laudan et, en réduisant ainsi la base de données sur laquelle le sceptique fonde son induction, il peut remettre en question la valeur de sa conclusion. Au-delà de la question des exigences relatives au succès instrumental de nos théories, la thèse du réalisme étant que nos théories les plus matures sont au moins approximativement vraies, il faut ajouter à nos critères de sélectons (pour l’établissement d’une liste plausible de théories autrefois empiriquement adéquates s’étant avérées fausses), l’exigence que ces dernières, en plus d’avoir fait preuve d’une certaine fécondité, se soient montrées longuement résistantes à l’épreuve de l’expérience. Sur la base de cette seconde exigence, le réaliste peut prétendre être en mesure de réduire encore davantage l’étendue des données sur la base desquelles le sceptique peut pratiquer son inférence (cf. Psillos 1999, pp. 104-108).

Cela dit, même s’il est possible de réduire la base de données du sceptique, ce dernier peut maintenir qu’il n’est pas nécessaire que cette dernière soit très vaste pour jeter un doute sur le raisonnement du réaliste (l’argument de l’absence de miracle). Il suffit que nous connaissions quelques cas de théories matures, ayant rencontré un grand succès instrumental au niveau des exigences du réaliste, pour arriver à cette fin. Cette dernière considération nous amène à la deuxième stratégie à la disposition du réaliste.

Pour se défendre contre cette version élaguée de l’induction pessimiste, les réalistes peuvent tenter de montrer que, dans les cas de ce type, ce n’est pas toute la théorie qui est habituellement remise en question, mais seulement certains de ses constituants, et que les constituants responsables de son succès sont habituellement maintenus au sein des théories qui les remplacent. En affirmant que la meilleure explication du succès de la science réside dans le fait que nos théories matures sont au moins approximativement vraies, le réaliste scientifique ne prétend pas affirmer la vérité de l’ensemble de leurs constituants, mais uniquement de ceux qui sont responsables de leur succès et, contre l’argument de Laudan à l’effet que l’échec de la référence des termes théoriques d’avant-plan d’une théorie constitue une raison suffisante pour rejeter la possibilité que cette dernière ait été approximativement vraies, le réaliste peut faire remarquer que les termes théoriques d’avant-plan ne font pas nécessairement partie des constituants responsables du succès d’une théorie.

On peut illustrer ces deux derniers points à partir de l’exemple de la théorie du calorique, qui se représentait la chaleur comme un fluide (le calorique). Cet exemple est utilisé par Psillos (1999, chap. 6). À son avis, une étude de son histoire permet de montrer que l’idée que la chaleur soit un fluide n’était pas véritablement centrale au sein de cette théorie et était même fortement remise en question par les savants de l’époque. Plus important encore, une telle hypothèse n’était pas indispensable au succès de la théorie et les lois et les théories d’arrière-plans que les savants de l’époque employaient pour faire leurs prédictions étaient entièrement indépendantes de ce postulat. Si aujourd’hui avons abandonné la notion de calorique, on retrouve encore plusieurs constituants de la conception que s’en faisaient les savants du 18e siècle au sein de la conception contemporaine de la chaleur. Ce que cet exemple permet de montrer est que ce n’est pas parce que nous remettons en question une hypothèse concernant la constitution fondamentale d’une grandeur physique que nous devons conclure qu’il n’y a aucune continuité entre la théorie qui postulait cette hypothèse et sa remplaçante. Même si la théorie du calorique s’est trompée quant à la nature fondamentale de la chaleur, elle a néanmoins permis de développer nombre de connaissances qui font aujourd’hui partie de la théorie moderne de la chaleur (thermodynamique).

Le cas de l’optique de l’éther du 19e siècle permet pour sa part d’insister sur le fait qu’il arrive qu’un terme théorique se voie remplacer par un autre sans qu’il y ait lieu de soutenir l’échec de sa référence. Selon cette dernière, la lumière se propageait dans un milieu fluide qu’ils nommaient éther luminifère. De l’avis de Psillos (ibid.), l’étude de son histoire permet de montrer que la théorie générale qui servait de cadre fondamentale au programme de recherche sur les transmetteurs de lumière à cette époque, a été entièrement conservée dans le cadre de l’optique contemporaine. À l’époque, le fait de postuler l’existence de l’éther comme milieu de diffusion de la lumière a permis de construire un modèle permettant aux physiciens d’étudier les propriétés des transmetteurs de lumière indépendamment des détails de leur constitution. Une fois que l’on a séparé l’utilisation de ce modèle de la théorie fondamentale dont se servaient les savants pour étudier la lumière, non seulement il semble erroné de dire que l’optique du 19e siècle ait été réfutée, mais il devient plausible de penser que les savants de l’époque employaient le terme éther pour se référer à la notion actuelle de champ électromagnétique. Ils avaient échoué dans leur description initiale de la référence du milieu de propagation de la lumière, sans pour autant échouer à désigner la grandeur physique responsables des effets qu’ils étudiaient.

Si l’induction pessimiste mène habituellement à une forme de scepticisme vis-à-vis de la prétention de nos théories à décrire le réel, les considérations apportées par le réaliste au sujet du fait que certains composants des théories passées ont été néanmoins conservés au sein des théories qui les ont succédé sont à l’origine de la version épistémique du réalisme structurel originalement défendu par Poincaré dans La science et l’hypothèse (1902) et repris par John Worrall dans son article « Structural Realism : the Best of Both Worlds ? » (1989). Ce dernier met l’emphase sur le fait que ce qui est retenu par les théories qui se succèdent est leur référence à des structures plutôt qu’à des entités : « Il semble justifié de dire que Fresnel [qui soutenait l’optique de l’éther du 19e siècle dont nous avons parlé plus haut] est passé complètement à côté de la nature de la lumière, mais ce n’est pas pour autant un miracle si sa théorie a remporté le succès empirique qu’elle a connu ; ce n’est pas un miracle, car la théorie de Fresnel, comme la science ultérieure l’a montré, a attribué la bonne structure à la lumière. » (Worrall 1989, p. 117, cité en français dans Zwirn 2000, p. 303)

Si le réaliste reconnait la valeur de l’intuition structuraliste concernant le fait que l’argument de l’absence de miracle ne permet pas de justifier la vérité approximative de l’ensemble des hypothèses constituant une théorie, ce dernier peut néanmoins reprocher au structuraliste d’opérer une distinction intenable entre les aspects structurels (habituellement associé au formalisme logico-mathématique) et le contenu théorique d’une théorie. À moins de vouloir reprendre à ses frais la forme d’instrumentalisme défendue au début du 20e siècle au sein du courant néopositiviste, le réalisme structurel doit expliquer pourquoi il considère qu’il n’y a que les aspects structurels retenus au sein de théories qui se succèdent qui sont en mesure de décrire de véritables aspects de la réalité. Pour se faire, il doit avoir recours à un argument du même type que le réaliste scientifique (l’argument de l’absence de miracle). Mais, dans la mesure où il y a plus que le simple contenu structurel qui est retenu au sein des théories qui se succèdent (et qui est responsable du succès empirique des théories), le réaliste structurel se retrouve confronté à la difficulté d’expliquer pourquoi ce ne serait que les contenus structurels qui serait susceptibles d’être approximativement vraies, plutôt que l’ensemble des constituants qui sont maintenus d’une théorie à travers le changement de théorie (cf. Psillos 1999, chap. 7).

e. Le défi des alternatives inconcevables

Plus récemment, le philosophe américain P. Kyle Stanford a lancé un nouveau défi au réalisme scientifique dans le cadre de son livre Exceeding Our Grasp, Science, History, and the Problem of Unconceived Alternatives (2006). Ce dernier, que le philosophe présente comme le défi des alternatives inconcevables, constitue à la fois une variante du défi de la sous-détermination des théories par l’expérience et de l’induction pessimiste. Du dernier, il retient le constat que l’histoire est truffée de théories ayant obtenu un certain succès empirique qui ont par la suite été remplacées par de nouvelles théories que les scientifiques ont jugées en mesure de fournir de meilleures explications d’un même ensemble de phénomènes. Du défi de la sous-détermination, il retient l’idée selon laquelle il existe toujours, pour un ensemble de phénomènes donné, une pluralité d’interprétations équivalentes admettant des ontologies divergentes.

Une des objections principale que font les réalistes au défi de la sous-détermination consiste à faire remarquer qu’il est très rare que les savants se trouvent effectivement à devoir choisir entre deux hypothèses alternatives équivalentes. C’est à cette objection que s’adresse principalement le défi des alternatives inconcevables. En se basant sur des analyses de cas issus de l’histoire de la biologie, Stanford suggère que nous découvrons constamment de nouvelles alternatives équivalentes aux théories qui nous ont semblées, par le passé, constituer les meilleures explications d’un ensemble de phénomènes. Ces alternatives font partie de nos meilleures théories actuelles et sont souvent considérées, comme c’est le cas dans le cadre du défi de l’induction pessimiste, comme remettant en question les théories précédentes. Mais, ce que fait remarquer Stanford est que, lorsque nous les comparons aux données disponibles à une époque ultérieure, force est de constater qu’elles auraient constitué de véritables alternatives aux meilleures hypothèses disponibles durant cette période de l’histoire scientifique.

Une des caractéristiques de ces alternatives est qu’elles n’étaient pas accessibles à nos ancêtres qui ne disposaient pas des connaissances nécessaires pour leur permettre de concevoir de telles alternatives. C’est pourquoi Stanford parle d’alternatives inconcevables. Mais à rebours, une fois que nous sommes en mesure de concevoir de telles alternatives, nous devons reconnaitre qu’il existait bel et bien, au moment où elle elles ont été sélectionnées, de véritables théories équivalentes à nos meilleures théories précédentes et que, dans la mesure où un tel phénomène est répandu dans l’histoire (ce que prétend Stanford), il est possible d’inférer, par le biais d’une méta-induction sur l’ensemble des cas exemplifiant une telle situation, qu’il y a de fortes chances qu’il existe de telles alternatives non envisagées pour nos meilleures théories actuelles.

Précisons que le type d’équivalence que Stanford a en tête n’est pas la simple équivalence empirique, mais une forme d’équivalence plus forte qui implique, en plus de l’équivalence empirique, l’équivalence explicative. Selon ce dernier, ce que l’on découvre lorsque l’on découvre une alternative non envisagée est une théorie qui, du point de vue initial de la théorie pour laquelle elle constitue une alternative, se situe exactement au même niveau que celle-ci du point de vue de son pouvoir explicatif, tout en adoptant une ontologie divergente. Toutefois, le philosophe reconnait que cette forme de sous-détermination n’est habituellement que passagère, dans la mesure où des découvertes futures permettent habituellement de départager les alternatives.

L’argument de Stanford réaffirme le défi de l’induction pessimiste en insistant sur le fait que les théories qui viennent remplacer les théories précédentes possèdent habituellement des ontologies divergentes. Il n’est pas clair cependant qu’il puisse éviter les objections du réaliste contre une telle lecture de l’histoire scientifique. Cela dit, le défi des alternatives inconcevables vise principalement à remettre en question les objections réalistes aux défis de la sous-détermination des théories par l’expérience. Alors que le réaliste soutient que la sous-détermination est un phénomène rare et, par conséquent négligeable, le partisan des alternatives inconcevables soutient pour sa part que le fait que nous n’arrivions pas à concevoir d’alternatives équivalentes à nos meilleures théories du moment ne nous permet pas d’inférer qu’il n’existe pas de réelles alternatives qui nous seraient tout simplement impossibles à concevoir dans l’état actuel de notre savoir. Cependant, en ne mettant de l’avant qu’une forme de sous-détermination passagère, il reconnait la possibilité de départager les hypothèses équivalentes à l’aune de nouvelles découvertes. Pour cette raison, même si la sous-détermination passagère dont nous parle Stanford représente une situation récurrente au sein de l’histoire de la science, il n’est pas clair qu’elle met davantage en question la possibilité du progrès scientifique que le défi d’origine. Pour des raisons similaires à celles évoquées à la section 4.1, il semblerait que le défi des alternatives inconcevables constitue davantage un défi pour le réalisme naïf que pour le réalisme scientifique (pour des analyses critiques de l’argument de Stanford, cf. Chakravartty 2007 et Devitt 2011).

Comme il reconnait qu’une sous-détermination passagère, le partisan du défi des alternatives inconcevables s’inscrit en faux contre la forme d’historicisme inspirée de l’analyse kuhnienne de l’histoire des sciences. En réaffirmant l’importance du défi de la sous-détermination, il se range plutôt du côté de la forme contemporaine de l’instrumentalisme (cf. Stanford, chap. 8).

f. Le défi de la précision de la notion de vérité approximative

La notion de vérité approximative que nous avons employée jusqu’à maintenant est une notion intuitive. On suppose qu’il y a une description littérale de la réalité et qu’une théorie approximativement vraie sera une théorie qui s’en approche le plus possible. Néanmoins, une théorie peut être fausse (au sens où elle ne donne pas une description littérale de la réalité) et s’approcher néanmoins davantage de la vérité qu’une autre tout aussi inadéquate. Les raisons pour lesquelles le réaliste scientifique ne prétend pas que ses arguments constituent des raisons de croire à la vérité littérale de nos meilleures théories sont nombreuses. Elles résident pour l’essentielle dans sa reconnaissance des limites de la connaissance impliquées par les différents résultats évoqués plus haut qui nous portent à croire que les énoncés du discours scientifique sont imprégnés de théorie, qu’aucun énoncé ne peut être confronté à l’expérience de manière isolée et que notre savoir est sous-déterminé par l’expérience de telle sorte que le statut de nos théories scientifiques relève davantage de l’hypothèse que de la certitude.

Nous avons vu que la notion de vérité approximative joue un rôle central dans la défense contemporaine du réaliste scientifique qui se permet de rejeter la plupart des arguments de ses adversaires en insistant sur le fait qu’il ne souhaite pas défendre la vérité des théories scientifiques, mais seulement leur vérité approximative dans le cas des théories les plus matures. Pour se défendre face à cette réplique du réaliste, les partisans des différentes formes d’antiréalismes ont fait valoir que cette notion était imprécise et qu’il y avait lieu de la préciser à travers une théorie formelle de la vérité approximative.

Depuis que le philosophe autrichien Karl Popper a tenté sans succès de produire une telle formalisation (cf. Popper 1972, p. 52), plusieurs autres tentatives ont été réalisées, parmi lesquelles figurent au premier plan l’approche des mondes possibles (Tichy 1976; Oddie 1986; Niiniluoto 1987, 1998) et l’approche des hiérarchies de types (Aronson 1990; Aronson, Harré & Way 1994; 15-49), mais aucune ne s’est montrée satisfaisante à ce jour (pour des critiques de la conception popperrienne, cf. Miller 1974 et Tichy 1974, pour des critiques de l’approche des mondes possibles, cf. Miller 1976 et Aronson 1990, pour un examen critique des trois approches, cf. Psillos 1999, chap. 11). En dépit de pouvoir satisfaire cette exigence de ses adversaires, le réaliste peut néanmoins soutenir que son objectif n’est pas tant de préciser le sens dans lequel une théorie est approximativement vraie que de fournir des raisons justifiant un certain optimisme épistémologique consistant à reconnaitre, sur la base du succès de la science, que la meilleure explication de ce dernier ne peut qu’être liée au fait que nos meilleures théories (les plus matures) se rapproches de plus en plus de la vérité (cf. Psillos, pp. 278-279).

3. Conclusion : Quelle distance entre le réalisme et l’antiréalisme ?

Le réalisme scientifique contemporain fait la promotion de l’optimisme épistémologique vis-à-vis de l’entreprise scientifique tout en reconnaissant les principales limites de la connaissance mise de l’avant par les philosophes à travers l’histoire récente de l’épistémologie des sciences. Si les désaccords persistent entre les partisans du réalisme scientifiques et les partisans des différentes formes d’antiréalismes, de plus en plus d’antiréalistes reconnaissent le bienfondé de l’adoption d’une attitude réaliste dans le cadre de la pratique scientifique. C’est le cas de l’empirisme constructif qui, même s’il fait la promotion d’une attitude agnostique sur le plan philosophique, fait tout aussi bien la promotion de l’acception des théories par le praticien, acceptation qu’il interprète comme un engagement en faveur du programme de recherche de la théorie, comme un engagement à examiner tous les événements futurs en ayant recours à ses ressources conceptuelles (cf. van Fraassen, 1980, p. 88). Arthur Fine en vient à une conclusion similaire dans son article « L’attitude ontologique naturelle » (1984), à la fin duquel il suggère d’adopter, après avoir développé une critique virulente des principaux arguments pour le réalisme scientifique, et tout en conservant des réserves sur le plan philosophique, ce qu’il appelle la NOA [Natural Ontological Attitude]:

« Il est certain que je me fie dans l’ensemble au témoignage de mes sens sur l’existence et les caractéristiques des objets de tous les jours. J’accorde par ailleurs une confiance similaire aux garde-fous édifiés dans les institutions scientifiques, et en particulier au système de vérification de l’enquête scientifique (« vérifiez, revérifiez, vérifiez, revérifiez encore… »). Par conséquent, si les scientifiques me disent qu’il y a réellement des molécules, des atomes, des particules J/ψ et, qui sait, peut-être même des quarks, et bien soit! Puisque je leur fais confiance, je dois admettre l’existence de toutes ces choses, avec les propriétés et les relations qui les accompagnent. En outre, si un instrumentaliste (ou tout autre spécimen de l’espèce nonrealistica) vient me dire que ces entités et tout ce qui les accompagne ne sont en fait que des fictions (ou autres choses du même genre), alors je ne vois pas plus de raisons de le croire que de croire qu’il est lui-même une fiction, façonnée (d’une manière ou d’une autre) pour faire effet sur moi; or ce n’est pas là ce que je crois. Il semble donc bien qu’il me faille être réaliste. » (Fine, 1984, pp. 269-270/trad. pp. 355-356)

Dans la mesure où le réaliste scientifique reconnait les principales limites de la connaissance, qu’en vertu de cela, il reconnait le caractère hypothétique des théories scientifiques et que, pour cette raison, il ne plaide qu’en faveur de la reconnaissance de la vérité approximative de ces dernières, il y a lieu de se demander si, à travers l’adoption d’une telle posture concernant l’acceptation de la représentation du monde issue du travail scientifique en dehors de la discussion philosophique, l’antiréalisme contemporain n’est pas finalement en train de concéder au réaliste scientifique précisément ce qu’il revendique.

4. Bibliographie

Aronson, Jarred L., Rom Harré, et Eileen Cornell Way. Realism Rescued How Scientific Progress is Possible. London: Duckworth, 1994.

Aronson, Jerrold L. «Verisimilitude and type hierarchies.» Philosophical Topics 18, n° 2 (1990): 5-28.

Bonsack, François. «Prolegomena to a Realist Epistemology.» Dialectica 43, n° 1-2 (1989): 67-81.

Bourget, David, et David J. Chalmers. «What do Philosophers Believe?» Philosophical Studies 170, n° 3 (2014): 465-500.

Boyd, Richard. «What Realism Implies and What it Does Not.» Dialectica 43, n° 1-2 (1989): 5-29.

Boyd, Richard, Philip Gasper, et J. D. (édit.) Trout. The Philosophy of Science. MIT Press, 1991.

Braithwaite, Richard B. «Scientific Explanation.» Cambridge University Press, 1953.

Cartwright, Nancy. How the Laws of Physics Lies. Oxford University Press, 1983.

Chakravartty, Anjan. A Metaphysics for Scientific Realism: Knowing the Unobservable. Cambridge University Press, 2007.

—. «Scientific Realism.» Stanford Encyclopedia of Philosophy. 2013. http://plato.stanford.edu/entries/scientific-realism/ (accès le Janvier 25, 2016).

Chakravartty, Anjan. «What You Don’t Know Can’t Hurt You: Realism and the Unconceived.» Philosophical Studies 137, n° 1 (2007): 149-158.

Devitt, Michael. «Are Unconceived Alternatives a Problem for Scientific Realism?» Journal for General Philosophy of Science 42, n° 2 (2011): 285-293.

Duhem, Pierre. La théorie physique, son objet, sa structure. Vrin, (1906) 2007.

Esfeld, Michael. Philosophie des sciences, Une introduction, 2e édition. Presses polytechniques et universitaires romandes, 2009.

Feyerabend, Paul. Against Method. London: New Left Books, 1975.

—. Contre la méthode. Paris: Seuil, 1979.

Feyerabend, Paul. «Explanation, Reduction and Empiricism.» Dans Crítica: Revista Hispanoamericana de Filosofía., édité par Herbert Fiegel et Grover Maxwell, 103-106. s.d.

Fine, Arthur. «The Natural Ontological Attitude.» Dans The Philosophy of Science, édité par Richard Boyd, Gasper Philip et J.D. Trout, 261-277. MIT Press, 1991.

Fisette, Denis, et Pierre Poirier. Philosophie de l’esprit, vol. 2 : Problèmes et Perspectives. Paris: Vrin, 2003.

French, Steven, et James Ladyman. «Remodelling Structural Realism: Quantum Physics and the Metaphysics of Structure.» Synthese 136, n° 1 (2003): 31-56.

Gandon, Sébastien, et Ivahn (édit.) Smadja. Textes clés de philosophie des mathématiques, Volume 1 : Ontologie, vérité et fondements. Paris: Vrin, 2014.

Hacking, Ian. Concevoir et expérimenter. Paris: Christian Bourgeois Éditeur, 1989.

—. Representing and Intervening: Introductory Topics in the Philosophy of Natural Science. New York: Cambridge University Press, 1983.

Hanson, Norwood Russell. Patterns of Discovery. Cambridge University Press, 1958.

Hesse, Mary. «Truth and the Growth of Scientific Knowledge.» Dans PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association, 261-280. 1976.

Jacob, Pierre. De Vienne à Cambridge, L’héritage du positivisme logique. Paris: Gallimard, 1980.

Kuhn, Thomas S. «Commensurability, Communicability, Comparability.» Dans Psa 1982, édité par P. D. Asquith et Nickles, T., 669-688. Philosophy of Science Association, 1983.

—. La structure des révolutions scientifiques. Flammarion, 1972.

—. The Structure of Scientific Revolutions. Chicago: Chicago University Press, 1962.

Laudan, Larry. «Confutation of Convergent Realism.» Philosophy of Science 48 (1981): 19-48.

Laugier, Sandra, et Pierre (édit.) Wagner. Textes clés de la philosophie des sciences, vol. II. Paris: Vrin, 2004.

Miller, David. «Popper’s Qualitative Theory of Verisimilitude.» British Journal for the Philosophy of Science 25, n° 2 (1974): 166-177.

Miller, David. «Verisimilitude Redeflated.» British Journal for the Philosophy of Science 27, n° 4 (1976): 363-381.

Niiniluoto, Ilkka. «Truthlikeness and Bayesian Estimation.» Synthese 67, n° 2 (1986): 321-346.

Niiniluoto, Ilkka. «Verisimilitude: The Third Period.» British Journal for the Philosophy of Science 49, n° 1 (1998): 1-29.

Oddie, Graham. Likeness to Truth. Reidel, 1986.

Papineau, David. Philosophical Naturalism. Blackwell, 1993.

Poincaré, Henri. La science et l’hypothèse. Flammarion, (1902) 2014.

Popper, Karl. Objectibve Knowledge. London: Oxford University Press, 1972.

Psillos, Stathis. Scientific Realism: How Science Tracks Truth. London: Routledge, 1999.

Putnam, Hilary. «A Half Century of Philosophy, View from Within.» Daedalus, 1997: 175-128.

Putnam, Hilary. «Explanation and Reference.» Dans Conceptual Change, édité par G. Pearce et P. Maynard, 199-221. Dolbrecht-Reidel, 1973.

Putnam, Hilary. «Th Meaning of ‘Meaning’.» Dans Mind, Language and Reality, Philosopphical Papers vol. II, de Hilary Putnam, 215-271. Cambridge Mass.: Cambridge University Press, 1975.

Putnam, Hilary. «What is Mathématical Truth?» Dans Mathematics, matter and Method, de Hilary Putnam, traduit par Sébastien Gandon, 60-78. Cambridge: Cambridge University Press, 1979.

Putnam, Hilary. «What Theories are Not.» Dans Logic, Methodology and Philosophy of Science, édité par Ernest Nagel, Patrick Suppes et Alfred Tarski, 240-251. Stanford University Press, 1962.

Quine, W. V. O. «On Empirically Equivalent Systems of the World.» Erkenntnis, 1975: 313-328.

—. «Main Trends in Recent Philosophy: Two Dogmas of Empiricism.» Philosophical Review, 1951: 20-43.

Stanford, P. Kyle. Exceeding Our Grasp, Science, History, and the Problem of Unconceived Alternatives. Oxford University Press, 2006.

Tichy, Pavel. «Verisimilitude Redefined.» British Journal for the Philosophy of Science 27, n° 1 (1976): 25-42.

van Cleve, James. «Reliability, Justification, and the Problem of Induction.» Midwest Studies in Philosophy 9, n° 1 (1984): 555-567.

van Fraassen, Bas C. Laws and Symmetry. Oxford University Press, 1989.

—. The Scientific Image. Oxford University Press, 1980.

van Fraassen, Bas C. «To Save the Phenomena.» 73, n° 18 (1976): 623-632.

Worrall, John. «Structural Realism: The Best of Both Worlds?» Dialectica 43, n° 1-2 (1989): 99-124.

 

Pierre-Yves Rochefort
rochefort_py@hotmail.com
Université de Montréal