Prédiction scientifique (A)

Comment citer ?

Leconte, Gauvain (2017), «Prédiction scientifique (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/predictions-scientifiques-a

Publié en juillet 2017

 

Résumé

La notion de prédiction scientifique est cruciale pour comprendre l’activité scientifique contemporaine dans sa diversité et sa complexité. Dans cet article, on examine les différents types de prédictions scientifiques et on en fournit une définition qui permet de les distinguer des prédictions non-scientifiques et d’étudier les rapports entre prédiction et explication. On montre ensuite que cette étude des prédictions est essentielle parce qu’elles jouent un rôle central dans deux domaines majeurs de la philosophie des sciences actuelle : la théorie de la confirmation, et le réalisme scientifique.


Table des matières 

Introduction

1. Qu’est-ce qu’une prédiction scientifique ?

a. Difficultés d’une définition des prédictions

b. Une définition pluraliste des prédictions

c. Prédictions scientifiques et prédictions non scientifiques

d. Prédire et expliquer

2. Prédictions et confirmations

a. Le problème des données déjà connues

b. Les objections au prédictivisme

c. De la prédilection pour les prédictions

3. Les arguments réalistes fondés sur les nouvelles prédictions

a. Aperçu historique des relations entre prédictions et réalisme scientifique

b. L’argument du miracle, l’induction pessimiste et les nouvelles prédictions

c. La stratégie « divide et impera »

Conclusion

Bibliographie


Introduction

D’après Diogène Laërce (Vies, doctrine et sentences des philosophes illustres), Thalès prédit une éclipse de Soleil en -585, et Aristote mentionne dans La Politique [1259a] que le même Thalès fit fortune en prédisant, grâce à « ses connaissances en astronomie », un été chaud et une importante récolte d’olives. On n’est pas certain de la véracité de ces deux anecdotes, mais elles montrent que, dès l’antiquité, des prédictions réussies basées sur des connaissances scientifiques apparaissaient comme des succès suffisants pour être considérés comme des titres de gloire.

La vérification des prédictions apparaît aujourd’hui encore comme un succès probant d’une théorie et est souvent médiatisée auprès du public non-scientifique, comme le montre la grande couverture médiatique dont ont bénéficié la découverte du boson de Higgs au LHC en 2013 et la détection d’ondes gravitationnelles par l’expérience LIGO en 2016.

Certains philosophes ont ainsi été amenés à soutenir que prédire est le but principal, voire l’unique objectif, de nos connaissances scientifiques. Cette position, appelée parfois « prédictivisme » ou « instrumentalisme » (parce que les théories ne sont considérées que comme des instruments pour réaliser des prédictions), a existé, sous différentes versions, à toutes les périodes de l’histoire de la philosophie des sciences. Au XVIe siècle par exemple, l’éditeur de Nicolas Copernic, Osiander, soutenait que « c’est le propre de l’astronome [...] d’imaginer et d’inventer des hypothèses quelconques, à l’aide desquelles ces mouvements (aussi bien dans l’avenir que dans le passé) pourraient être exactement calculés conformément aux principes de la géométrie » (Copernic, 1543, 28). On retrouve, trois siècles plus tard, le même objectif attribué par Auguste Comte à l’ensemble de la science :

La perfection spéculative d’une science quelconque doit se mesurer essentiellement par ces deux considérations principales : la coordination plus ou moins complète et la prévision plus ou moins exacte. Ce dernier caractère nous offre surtout le criterium le plus clair et le plus décisif comme se rapportant directement au but final de toute science. (Comte, 1835, 332)

Actuellement, on retrouve cette position défendue, sous des versions très différentes, par Baas Van Fraassen (1980) ou Kyle Stanford (2010).

Cependant, la notion de prédiction scientifique elle-même ne semble pas avoir attiré l’attention des philosophes des sciences autant que celle, par exemple, d’explication, de loi ou de modèle (pour un aperçu historique de ce désintérêt, voir (Douglas, 2009, 447-453)). Ainsi, à ce jour, aucun philosophe des sciences n’a construit de modèle logique des prédictions pour formaliser la structure des raisonnements prédictifs, alors qu’il existe plusieurs de ces modèles pour formaliser le raisonnement explicatif (voir article explication). La question de savoir ce qui compte comme une prédiction scientifique (et donc ce qui distingue les prédictions scientifiques des prédictions astrologiques ou des prophéties religieuses) est un problème qui fut quasiment délaissé par la philosophie des sciences jusqu’à la fin du XXe siècle.

Pourtant, ce problème est réapparu comme une question à part entière parce qu’il est au cœur de deux domaines majeurs de la philosophie des sciences contemporaine :

– Le domaine de la théorie de la confirmation : comment évaluer la confirmation d’une hypothèse par des preuves ? Est-ce qu’une hypothèse qui prédit des phénomènes est mieux confirmée qu’une hypothèse qui ne prédit rien ?

– Le domaine du réalisme scientifique : peut-on considérer que les théories qui ont connu des succès prédictifs sont vraies, c’est-à-dire décrivent des entités et des structures qui existent réellement dans la nature ?

La première section de cet article est consacrée à la définition de ce qu’est une prédiction scientifique et à la distinction entre prédictions scientifiques et non-scientifiques, mais aussi entre prédiction et explication. La deuxième section examine le rôle des prédictions dans les théories modernes de la confirmation. La troisième expose la place centrale de la notion de nouvelle prédiction dans les argumentations des réalistes scientifiques.

1. Qu’est-ce qu’une prédiction scientifique ?

a. Difficultés d’une définition des prédictions

Si la question « qu’est-ce qu’une prédiction scientifique ? » n’a pas donné lieu à des débats aussi intenses que la question « qu’est-ce qu’une explication scientifique ? », c’est probablement parce qu’elle a l’air moins problématique que celle-ci. Pour beaucoup de philosophes, une prédiction est simplement la conséquence d’une hypothèse. Karl Popper, par exemple, semble assimiler les deux à en l’espace d’une parenthèse : « l’évaluation de l’hypothèse repose seulement sur les conséquences déductives (les prédictions) qui peuvent être tirées de l’hypothèse. » (Popper, 1959,317).

Mais il n’est pas suffisant de définir une prédiction comme la conséquence d’une hypothèse, d’une théorie ou d’un modèle. En effet, si l’on pose l’hypothèse h, alors l’énoncé « h ou h’ » (où h’ est une hypothèse différente de h) est une conséquence de h. Mais on ne peut dire qu’il s’agisse d’une prédiction de cette hypothèse h. En effet, une prédiction est censée être l’application d’une hypothèse ou d’une théorie à un cas déterminé, en ce sens qu’une prédiction consiste à utiliser une hypothèse ou une théorie pour résoudre un problème scientifique donné. Or « h ou h’ » est un énoncé moins déterminé que l’hypothèse h elle-même puisqu’il couvre un plus grand nombre de cas et a moins de chance d’être faux : ce n’est donc pas une prédiction de l’hypothèse h, même si c’en est une de ses conséquences.

De plus, il ne semble pas non plus nécessaire de définir les prédictions comme des conséquences au sens d’inférence déductive à partir d’une hypothèse. En effet, une prédiction peut aussi résulter d’une inférence inductive. Si l’on dispose par exemple d’un ensemble de données sur la période des épidémies de grippe et qu’on l’extrapole pour prédire la période à laquelle la grippe risque de toucher une zone géographique, on réalise une prédiction fondée sur une induction.

Ainsi, puisqu’une définition des prédictions scientifiques comme conséquences ne semble ni suffisante, ni nécessaire, on pourrait être tenté de redéfinir les prédictions comme la conclusion d’inférences concernant des événements ou des phénomènes futurs ou inconnus. C’est ainsi que les prédictions sont définies dans le cadre des modèles dits de « lois couvrantes » développés par Carl Hempel et Paul Oppenheim.

L’appellation de modèles de « lois couvrantes », originellement introduite par William Dray(1963), a été adoptée par Hempel (1965, 346) pour désigner à la fois le premier modèle d’explication qu’il avait développé avec Oppenheim en 1948 (Hempel et Oppenheim, 1948) — communément appelé modèle DN (pour déductif-nomologique) — et les modèles d’explications statistiques exposés en 1962 (Hempel, 1962) : les modèles DS (déductif-statistique) et IS (inductif-statistique; voir l’article sur l’explication).

Le propre de ces modèles est qu’ils ne sont pas que des modèles d’explication mais aussi des modèles de prédiction : la prédiction d’un phénomène est la déduction ou l’induction d’un énoncé E (l’explanandum) décrivant ce phénomène à partir d’un autre ensemble d’énoncés (l’explanans). Celui-ci comprend des énoncés C1, C2, …, Ck qui décrivent les conditions antécédentes spécifiques du phénomène décrit par E, et une ou plusieurs lois générales L1, L2, …, Lr.

La structure des prédictions dans le modèle DN et DS par exemple est un raisonnement déductif satisfaisant certaines conditions (numérotées de R1 à R4) : (R1) l’explanandum doit être une conséquence logique de l’explanans, (R2) celui-ci doit contenir au moins une loi scientifique, (R3) pouvoir être testé empiriquement et (R4) être vrai — ou avoir une forte probabilité de l’être sur la base des données disponibles (Hempel et Oppenheim, 1948, 137).

Explanans C1, C2, …, CkL1, L2, …, Lr
Explanandum E

Dans le cadre des modèles de lois couvrantes, on a affaire à une explication si E décrit un événement passé ou un phénomène déjà connu au moment de l’inférence, à une prédiction si E décrit un événement futur ou un phénomène inconnu au moment de l’inférence. Prédictions et explications ont ainsi la même structure argumentative, et sont comme deux faces d’une même pièce.

Les modèles de lois couvrantes ont été largement discutés dans le cadre de la théorie de l’explication, mais bien moins en tant que modèles de prédiction. Le problème si l’on utilise ces modèles pour définir les prédictions est que l’on aboutit à une définition trop restrictive des prédictions :

  • Les phénomènes déjà connus ne peuvent pas être considérés comme étant prédits par une théorie, et toute rétrodiction (prédiction d’un événement passé) est considéré comme une explication. Cela a pour conséquence que certaines disciplines, les sciences naturelles historiques comme la géologie ou la biologie évolutive, sont par définition restreintes à n’être qu’explicatives et à n’avoir aucune capacité prédictive. Or, contrairement à l’idée reçue, il est bien possible de tirer des prédictions de la théorie de l’évolution ou de la tectonique des plaques (voir notamment (Williams, 1973), (Naylor et Handford, 1985), (Orgogozo et Stern, 2009) et (Stern, 2010)).
  • Il n’y a de prédiction que d’événements ou de phénomènes empiriquement observables. Heather Douglas et Paul Magnus (2013, 582) ont montré qu’en pratique les scientifiques appellent aussi « prédictions » des inférences non seulement de données, de phénomènes, mais aussi de lois empiriques et de lois théoriques. Chacun de ces types de prédictions a ses propres traits et n’est pas définie de la même manière. La prédiction d’une loi empirique ou théorique par exemple, n’a pas la dimension temporelle qu’a une prédiction d’événement, puisqu’un événement peut être placé dans l’avenir, tandis qu’un énoncé nomologique n’a pas de position particulière dans l’espace ou le temps.
  • Enfin, les modèles de lois couvrantes excluent, comme leur nom l’indique, les inférences qui ne sont pas basées sur des lois. Malcom Forster et Elliott Sober (1994) ont montré comment des ensembles de données pouvaient être étendus par interpolation et extrapolation sans recourir à des énoncés nomologiques.

De plus, les modèles de lois couvrantes ne sont pas seulement trop restreints si l’on veut les utiliser pour définir les prédictions : ils sont aussi incohérents. En effet, pour Carl Hempel il est indispensable que les conditions C1, C2, …, Ck et les lois L1, L2, …, Lr soient empiriquement testables (condition R3) et vraies ou fortement confirmées (R4) pour qu’un raisonnement soit une authentique prédiction. Or, si l’on se fie à ce même modèle, une prédiction concerne des événements futurs. Cependant, pour pouvoir prédire l’évolution future d’un système à partir de lois et des conditions initiales, il est indispensable d’utiliser des hypothèses auxiliaires, et notamment des hypothèses qui fixent les conditions aux limites de l’évolution du système. Non seulement ces conditions aux limites concernent, pour une partie d’entre elles, le futur et ne sont donc pas empiriquement confirmées au moment où la prédiction est réalisée ; mais en plus, ces conditions aux limites sont souvent très idéalisées et parfois explicitement fausses.

Un exemple frappant de cette utilisation de conditions aux limites idéalisées est la prédiction de l’effet De Sitter en cosmologie. En 1917, l’astronome et mathématicien néerlandais Willem De Sitter conçut un modèle d’univers dans lequel la densité est nulle, c’est-à-dire un univers dépourvu de matière. Cette hypothèse, explicitement fausse, lui permit de montrer que l’on devrait observer un mouvement d’éloignement des objets lointains (par exemple les galaxies) proportionnel à leur distance (de Sitter, 1917, 236). Cette prédiction attira l’attention des astronomes sur les spectres lumineux des galaxies dans les années 1910–1920, parce qu’un décalage vers le rouge de ces spectres permet de calculer la vélocité radiale (c’est-à-dire la vitesse d’éloignement) de ces galaxies. Ainsi, lorsque l’astronome états-unien Edwin Hubble publia en 1929 les résultats de ses travaux sur les rapports entre la vélocité radiale des galaxies et de leur distance, il précise que c’est cet effet De Sitter qu’il cherchait à tester (Hubble, 1929, 173). Heureusement donc que Willem De Sitter ne s’est pas empêché d’utiliser des hypothèses qui violaient les conditions R3 et R4 de Hempel et Oppenheim, sinon la découverte de la relation de Hubble n’aurait peut-être jamais eu lieu.

Le problème de la conception des prédictions par les lois couvrantes est donc qu’il laisse de côté le fait que les prédictions nécessitent d’utiliser des hypothèses auxiliaires dont la vérité ou l’adéquation empirique n’est pas toujours assurée.

b. Une définition pluraliste des prédictions

Si l’on accepte non seulement qu’il puisse y avoir des prédictions qui ne reposent pas sur des lois couvrantes, mais aussi que les prédictions puissent utiliser des hypothèses idéalisées, on peut distinguer au moins trois types différents de prédictions.

  • Si les lois y jouent un rôle inférentiel et que des hypothèses auxiliaires ne sont utilisées que pour fixer les conditions aux limites, on a affaire à des prédictions basées sur des lois. Ce type de prédiction est celui qui se rapproche le plus de la conception hypothético-déductive des prédictions comme conséquences testables des théories.
  • Si des hypothèses idéalisées sont utilisées pour bâtir ce que Peter Godfrey-Smith a défini comme un modèle (c’est-à-dire une représentation indirecte d’un système qui est à la fois concrète et fictive), et que l’on utilise ce modèle pour tirer des prédictions, alors on a affaire à des prédictions basées sur un modèle où les lois ne jouent pas un rôle inférentiel majeur (Godfrey-Smith, 2006, 740). Ce type de prédiction est très présent dans les sciences naturelles historiques, et l’idée reçue selon laquelle ces sciences n’ont pas de pouvoir prédictif vient en grande partie de la non-reconnaissance du caractère spécifique de ce type de prédiction.
  • Enfin, si une prédiction ne repose ni sur des lois, ni sur une modélisation, mais qu’elle consiste en une inférence statistique à partir d’une base de données, on a affaire à une prédiction par extrapolation ou interpolation de données. Les prédictions de ce type sont de plus en plus fréquemment utilisées avec l’augmentation de la puissance de calcul numérique et l’émergence de sciences dite des « données massives » (Big-data sciences, considérées par certains scientifique comme un nouveau paradigme de l’activité scientifique (Hey et al., 2009)).

Afin de trouver une définition des prédictions suffisamment large pour englober ces différentes formes de prédiction, on peut remarquer qu’elles reposent toutes sur un processus prédictif, c’est-à-dire une série d’inférences aboutissant à fixer la valeur d’une certaine variable, et qu’elles ne diffèrent que sur la nature de ces inférences. Comme l’a fait remarquer le philosophe des sciences John Worrall (2014, 55), le propre de ces inférences à visée prédictive est qu’elles permettent d’estimer la valeur de certains paramètres sans avoir à les mesurer ou à les observer. Mais Worrall restreint sa définition des prédictions aux cas où ces inférences sont déductives. On peut donc proposer d’élargir sa définition ainsi :

Prédiction : résultat d’un processus prédictif.

Processus prédictif : série d’inférences qui permettent de fixer la valeur d’une ou plusieurs variables (ou la relation de plusieurs variables entre elles) sans avoir à les fixer par la mesure ou l’observation.

L’avantage de définir les prédictions en termes de « variables » est que cette notion est extrêmement large. Une variable est un concept défini dans une théorie ou une discipline, et qui peut prendre plusieurs valeurs. Ces valeurs peuvent être des nombres, mais pas nécessairement : il y a aussi des variables qui peuvent être définies par des expressions. Par exemple, on peut définir une variable « lampe » qui a deux valeurs possibles : « éteinte » ou « allumée ». Ainsi, la définition proposée ici n’est pas restreinte aux prédictions quantitatives – qui fixent la valeur de variables numériques – mais aussi aux prédictions qualitatives – qui peuvent s’énoncer sans utiliser aucun nombre. La prédiction qualitative « si j’appuie sur l’interrupteur, la lampe va s’allumer » par exemple, peut ainsi être reformulée comme le passage de la valeur « éteinte » à la valeur « allumée » de la variable « lampe » si l’on appuie sur l’interrupteur. Il n’y a donc pas de différence de nature entre les prédictions qualitatives comme « une guerre va avoir lieu si les traités ne sont pas respectés » et les prédictions qualitatives comme « la prochaine éclipse de soleil aura lieu dans 145 jours et 12 heures » : il ne s’agit que d’une différence dans les variables définies par la théorie ou le langage dont on se sert pour formuler la prédiction.

Ainsi, la définition des prédictions proposée ici ne pose aucune restriction sur la nature de ces variables (qui peuvent être testables empiriquement ou non, définies théoriquement ou non) ni sur le moment auquel a lieu ce processus prédictif (les prédictions ne sont donc pas restreintes aux événements futurs ou inconnus). Mais elle suffit à éviter les cas de conséquences non prédictives puisque l’état final d’un processus prédictif est par définition plus déterminé que son état initial. Cette définition peut paraître encore trop large, puisqu’il est aisé d’introduire une nouvelle variable, de la définir par rapport à d’autres variables existantes, et ainsi d’obtenir une prédiction. Cependant, on peut montrer en théorie de la confirmation (voir section 2) que si de telles prédictions sont possibles, elles ne représentent pas pour autant des succès prédictifs suffisants pour considérer que l’hypothèse ayant mené à ce succès est confirmée.

Enfin, cette définition est suffisamment précise pour permettre de distinguer entre prédiction scientifique et prédiction non scientifique.

c. Prédictions scientifiques et prédictions non scientifiques

La légende veut que lorsque l’oracle de Delphes prédit que le poète Eschyle mourrait écrasé par une maison, celui-ci s’exila loin des villes, mais que cela ne l’empêcha d’être tué par la carapace d’une tortue lâchée par un aigle, accomplissant malgré lui la prophétie de l’oracle. Même un scientifique idéal, parfait, n’aurait jamais pu prédire la mort d’Eschyle et ses circonstances ainsi. En effet, comme le fait remarquer Karl Popper (1956, ch.15) la prédiction de l’oracle est une prophétie, c’est-à-dire qu’elle est inconditionnelle : elle n’a d’autre origine que la volonté des Dieux et est donc inévitable, elle doit s’accomplir quelles que soient les conditions dans lesquelles se trouve le malheureux Eschyle. Les prédictions que l’on trouve dans les journaux spécialisés, les rapports d’experts et les ouvrages scientifiques sont au contraire conditionnelles : elles énoncent ce qui se passera pour un système donné, si certaines conditions sont réunies, et si notre connaissance du comportement de ce système est correcte.

Cette différence entre prophéties et prédictions conditionnelles reflète une différence dans la manière dont oracle et scientifique en arrivent à leur prédiction. Un oracle reçoit sa connaissance du futur des Dieux : il est tout aussi aveugle sur les raisons qui font que cette prédiction se réalise que ceux à qui il l’annonce, et ce sont les Dieux qui s’arrangent pour que, quel que soit le déroulement des événements, ceux-ci prennent toujours l’aspect que l’oracle avait prophétisé. Les scientifiques (lorsqu’ils ne jouent pas eux-mêmes aux prophètes) tirent leurs prédictions non seulement des connaissances qu’ils ont sur l’objet particulier dont ils tentent de prédire l’avenir, mais aussi des théories qui décrivent comment se comportent ces objets en général.

Ainsi, alors que le processus par lequel l’oracle arrive à sa prédiction est opaque, mystérieux et inconnu, le processus par lequel un scientifique réalise sa prédiction doit être transparent et public, car il est aussi important, voire plus, que son résultat lui-même. En effet, les prédictions scientifiques ne peuvent avoir lieu que si l’on décrit un système en fonction d’un certain nombre de variables, et que l’on sait, sur la base d’hypothèses clairement énoncées, comment ces variables sont reliées les unes aux autres. C’est à cette seule condition qu’une prédiction peut être utile à l’activité scientifique, en permettant de tester les hypothèses en question, de définir un protocole expérimental pour obtenir un effet donné, ou concevoir un objet technique qui accomplit une tâche avec une certaine fiabilité. Aucune prédiction dont le processus prédictif n’est ni transmissible ni répétable n’est une prédiction scientifique.

Cependant, il existe d’autres prédictions non-scientifiques qui ne sont pas des prophéties au sens de prédictions inconditionnelles : ce sont les prédictions des (pseudo)sciences dites occultes, ou paranormales, comme l’astrologie, la démonologie ou la chiromancie. Ces prédictions non scientifiques s’appuient bien sur des données et sur une série d’inférences : elles semblent être réalisées par des processus prédictifs similaires à ceux des prédictions scientifiques. En astrologie par exemple, les données sur la date et le lieu de naissance d’une personne sont utilisées pour construire son thème astral, thème qui est ensuite utilisé pour prédire l’influence des astres sur cette personne.

Cependant, de telles prédictions peuvent être considérées comme non-scientifiques parce que leur processus prédictif ne permet pas de fixer la valeur des variables considérées (la chance, l’amour, la réussite par exemple) avec une marge d’erreur suffisamment faible pour être fiables et utiles. Autrement dit, si l’on compare la précision des données utilisées pour former le thème astral à la précision des prédictions qui sont le résultat des processus prédictifs astrologiques, on se rend compte que de tels processus sont beaucoup trop lâches pour être soumis à des tests expérimentaux rigoureux. Et lorsqu’ils le sont, par exemple quand la zététique (l’étude scientifique des phénomènes dits paranormaux) force les voyants et astrologues à faire des prédictions sans ambiguïtés qui peuvent être testées, alors elles échouent immanquablement (Antczak, 2002).

Ainsi, si l’on dispose d’un critère net pour distinguer les prophéties des prédictions scientifiques, le critère pour distinguer les prédictions occultistes des prédictions scientifiques est une affaire de degré, puisqu’il s’agit du degré de précision auquel peut aboutir le processus prédictif. Un tel critère laisse forcément des zones grises et des cas problématiques. La sociologie, la psychologie cognitive et l’économie par exemple ne sont certainement pas des sciences occultes, mais on peut se demander si certaines de leurs prédictions atteignent le niveau requis de précision pour être considérées comme scientifiques.

d. Prédire et expliquer

La définition des prédictions à partir de la notion de processus prédictif permet aussi de clarifier les rapports entre prédiction et explication. Il y a des cas où, n’en déplaise à René Thom(1999), prédire c’est expliquer. On peut ainsi considérer que la prédiction de la trajectoire d’un boulet de canon à partir de la dynamique newtonienne est aussi une explication de cette trajectoire. Mais dans d’autres situations, une prédiction ne semble pas constituer une explication complète et satisfaisante. On peut ainsi prédire, uniquement à partir de données statistiques, que fumer donne le cancer, mais cela ne semble pas expliquer comment et pourquoi fumer donne le cancer. C’est la découverte du mécanisme biologique qui mène du fait de fumer au développement de cellules cancéreuses qui constitue une explication adéquate dans cette situation (voir article explication).

Ainsi, selon le cas étudié, les exigences pour qu’un argument soit considéré comme explicatif varient. Si le processus prédictif satisfait ces exigences, alors on retrouve la symétrie entre explication et prédiction des modèles de loi couvrante. Si ce n’est pas le cas, les prédictions ne sont pas des explications mais elles peuvent être un outil précieux pour mettre les scientifiques sur la voie de l’explication qu’ils recherchent en montrant qu’il existe une corrélation suffisamment forte entre deux variables pour permettre des prédictions fiables.

Réciproquement, comme l’a montré la philosophe Heather Douglas, les différentes formes d’explication ont toutes pour point commun de diriger les scientifiques vers de nouvelles prédictions, parce qu’elles sont des outils cognitifs qui permettent de rassembler des données diverses et variées : « il existe un lien fort et fonctionnel entre explication et prédiction : les explications fournissent un chemin cognitif vers des prédictions, qui permettent ensuite de tester et de raffiner les explications » (Douglas,2009, 454).

Ainsi, s’il n’existe pas une symétrie logique entre prédiction et explication comme le voudraient Carl Hempel et Paul Oppenheim (un argument explicatif n’est pas identique à un argument prédictif), il existe une symétrie heuristique entre les deux puisque les prédictions peuvent aider à découvrir de nouvelles explications et réciproquement.

2. Prédictions et confirmations

a. Le problème des données déjà connues

Le fait qu’une théorie ou une hypothèse ait mené à prédire un fait surprenant vérifié par la suite semble être une preuve importante en sa faveur. Dmitri Mendeleïev par exemple, obtint en 1882 la médaille Davy décernée par la Royal Society pour ses travaux sur la classification périodique des éléments chimiques. Cette récompense lui fut décernée après la découverte du Gallium en 1875 et du Scandium en 1879, deux nouveaux éléments dont Dmitri Mendeleïev avait prédit en 1871 non seulement l’existence, mais aussi les propriétés et la méthode pour les synthétiser. Intuitivement, on pourrait penser que ces deux prédictions surprenantes ont plus compté dans la confirmation de la théorie de Mendeleïev que la classification des soixante éléments déjà connus à l’époque.

La théorie bayésienne de la confirmation (TBC), qui est aujourd’hui le paradigme de la plupart des logiques inductives cherchant à rendre compte de la confirmation des hypothèses par des preuves, semble rendre compte simplement et directement de ce poids des prédictions surprenantes dans la confirmation des hypothèses. En effet, la TBC repose notamment sur trois principes :

Elle utilise la notion de probabilité conditionnelle. La probabilité p(h|e) par exemple est la probabilité de l’hypothèse h si l’on prend en compte la preuve e. La probabilité p(e|h) (appelée parfois la vraisemblance de l’hypothèse h) est la probabilité du fait décrit par e si l’on tient h pour vraie.

Elle considère qu’une hypothèse est confirmée si la probabilité conditionnelle d’une hypothèse est supérieure à sa probabilité initiale (c’est-à-dire si p(h|e) >p(h)).

– Elle utilise le théorème de Bayes pour mesurer cette probabilité conditionnelle :

p(h|e) = p(e|h).p(h)/p(e)

On voit que cette formule a pour conséquence que plus la probabilité initiale d’une preuve p(e) est faible, plus sa probabilité conditionnelle p(h|e) est importante. Autrement dit, plus une théorie prédit un phénomène surprenant, plus elle est confirmée par la découverte de ce phénomène.

Cependant, cette même formule mène à un des principaux problèmes des théories actuelles de la confirmation : le problème des preuves déjà connues (old evidence problem). C’est Clark Glymour (1980) qui montra que ce problème se posait aux théories bayésiennes de la confirmation, en utilisant le cas d’une confirmation de la théorie de la relativité générale. En effet, cette théorie permet de déduire avec précision un phénomène connu depuis le XIXe siècle : l’avancée du périhélie de Mercure (le périhélie est le point de l’orbite le plus proche du Soleil : ce point se décale à chaque orbite de la planète). Or cette avancée du périhélie de Mercure apparaissait comme une anomalie dans le cadre de la théorie de la gravitation de Newton. Voilà pourquoi ce phénomène confirma la théorie de la gravitation d’Einstein et discrédita celle de Newton. Mais, d’après la TBC, puisque cette preuve était déjà connue, sa probabilité initiale p(e)devrait être égale à 1. De même, puisque la théorie de la relativité générale permet de démontrer ce phénomène, la probabilité conditionnelle p(e|h) devrait aussi être égale à 1.

Donc, si l’on applique le théorème de Bayes à ce cas :

p(h|e) =1.p(h)/1

p(h|e) = p(h)

Autrement dit, d’après la TBC, la théorie de la relativité générale ne devrait pas être confirmée par l’avancée du périhélie de Mercure, parce que ce phénomène était déjà connu depuis longtemps.

Ce problème n’est pas limité à cet épisode de l’histoire des sciences. Les recherches historiques montrent que les données déjà connues ont autant, voire plus, pesé dans la confirmation de nouvelles hypothèses que celles qui avaient été prédites par ces hypothèses. L’historien des sciences Stephen Brush a consacré de nombreuses études de cas à ces questions et en a tiré la conclusion que sauf exception les données déjà connues ont bien eu autant de poids que les données prédites à l’avance (voir notamment (Brush, 1989) et (Brush, 2007)) dans l’acceptation de nouvelles théories. Le spécialiste de la classification périodique des éléments Eric Scerri a montré que contrairement à l’idée reçue, dans le cas de la classification des éléments de Mendeleïev aussi, les prédictions de nouveaux éléments n’ont pas eu un impact majeur sur la décision de la Royal Society de lui décerner la médaille Davy (Scerri, 2009, 7).

Il semble donc qu’une théorie de la confirmation qui ne donne aucun rôle aux preuves déjà connues ne soit pas en adéquation avec l’activité scientifique réelle. Ce problème ne se pose pas qu’à la TBC, mais aussi aux philosophies des sciences inspirées par la théorie de la réfutation et de la corroboration de Karl Popper. En effet, dans la lignée de celui-ci, le philosophe des sciences Imre Lakatos a tenté, dans les années1960-1970, de mettre au point une méthodologie des programmes de recherche scientifique qui se passerait de tout recours à l’induction ou aux logiques inductives pour distinguer les programmes de recherches en progrès de ceux qui restent à la traîne des faits. La pierre de touche de cette distinction ce sont, d’après lui, « les prédictions spectaculaires, inattendues et sensationnelles ; quelques-unes de ces prédictions sont suffisantes pour faire pencher la balance ; là où une théorie est à la traîne des faits, on a affaire à un misérable programme de recherche dégénératif » (Lakatos, 1980, 6). Les exemples de telles prédictions sont, pour Imre Lakatos, le retour de la comète de Halley ou la dérivation des rayons lumineux d’étoiles lointaines par le Soleil (Lakatos, 1980, 5).

Cependant, un de ses élèves, Élie Zahar, lui fait remarquer dès 1973, que cette conception des prédictions exclue de nombreux cas de confirmation ; et l’exemple qu’il utilise est précisément celui du périhélie de Mercure (Zahar, 1973, 102-103), sept ans avant que Clark Glymour ne redécouvre de manière indépendante le problème en examinant la TBC.

La solution proposée à ce problème des preuves déjà connues par Élie Zahar consiste à redéfinir la notion de nouveauté d’une prédiction de la manière suivante : un fait est prédit par une théorie si ce fait n’a pas été utilisé dans la construction de la théorie. Ainsi, même si une donnée était déjà connue au moment de la confirmation d’une théorie, on peut toujours considérer que la théorie a prédit cette donnée et qu’elle est donc une preuve en faveur de cette théorie.

Un autre collaborateur d’Imre Lakatos, Alan Musgrave, renomme l’année suivante cette conception des prédictions par Élie Zahar comme étant « la conception heuristique de la nouveauté d’un phénomène » et propose une autre conception qu’il appelle la « conception théorique de la nouveauté d’un phénomène » (Musgrave, 1974, 17) : un fait est prédit par une théorie si aucune théorie concurrente n’en rend compte.

Cette conception théorique des prédictions est motivée par un problème de la conception heuristique d’Élie Zahar : comment savoir si un fait a été utilisé dans la conception d’une hypothèse ? Pour Élie Zahar « l’historien doit lire la correspondance privée du scientifique qu’il étudie pour démêler le raisonnement historique utilisé pour arriver à une nouvelle théorie » (Zahar, 1973,73). La conception heuristique des prédictions fait donc de la confirmation une affaire d’historiens et non de scientifiques, or il semble bien que ce sont d’abord les scientifiques qui ont pour tâche et pour autorité de dire quelles théories sont confirmées et lesquelles ne le sont pas. La conception théorique des prédictions d’Alan Musgrave n’a pas cet inconvénient, puisque c’est précisément le rôle des scientifiques de savoir quelles sont les théories rivales d’une théorie donnée et de quels faits elles rendent compte.

Cependant Zahar et John Worrall (un autre élève de Lakatos) ont raffiné à plusieurs reprises la définition heuristique des prédictions pour qu’elle évite cette fâcheuse conséquence. Leur définition des prédictions est celle dont on s’est inspiré dans la première section de cet article : « une preuve e qui est déduite de [la théorie] T (et de certaines hypothèses auxiliaires) est prédite par T uniquement dans le cas où T n’a pas été ajustée à cette preuve en fixant certains paramètres libres de T sur la base de e » (Worrall, 2014,55). Ainsi définie, la notion de prédiction ne fait appel à aucun critère temporel ni au travail des historiens, mais uniquement au contexte expérimental dans lequel ont été formulées les hypothèses.

Ainsi, les approches heuristique et théorique des prédictions ont non seulement le mérite de suggérer des solutions au problème des données déjà connues, mais elles montrent aussi que si l’on veut adopter le prédictivisme, la position qui consiste à accorder une place spécifique aux prédictions dans la confirmation des hypothèses, on ne peut s’en tenir à une conception intuitive selon laquelle les prédictions ne portent que sur des événements futurs ou sur des phénomènes inconnus.

b. Les objections au prédictivisme

Cependant, même si l’on adopte la définition heuristique ou théorique des prédictions, cela ne suffit toujours pas pour que les faits prédits aient plus de poids dans la confirmation d’une hypothèse que les faits déjà expliqués par d’autres hypothèses ou ceux déjà utilisés dans la construction d’une hypothèse. Il existe un certain nombre d’objections au prédictivisme qui sont antérieures au problème des données déjà connues et qui continuent à alimenter le débat en théorie de la confirmation.

Supposons qu’il soit possible d’ajuster une hypothèse h à un ensemble D de données déjà connues, c’est-à-dire de fixer les paramètres libres de ses variables à partir de ces données. Supposons en outre que l’on dispose d’une autre hypothèse h’ qui n’a utilisé qu’un sous-ensemble de ces données et qui a prédit les autres. Est-ce que h est moins bien confirmée que h’ uniquement parce qu’on n’en a pas tiré de prédictions ? Il semblerait au contraire que l’on devrait préférer l’hypothèse h parce qu’il y a des chances pour qu’elle soit plus précise que l’hypothèse h’, étant donné qu’elle s’appuie sur des données plus nombreuses et plus variées.

Autrement dit, si un succès prédictif est impressionnant à première vue, parce qu’il semble constituer un pari risqué, considérer qu’une donnée prédite confirme toujours plus une hypothèse qu’une donnée déjà expliquée et déjà utilisée (thèse dite du prédictivisme global) semble aller à l’encontre d’un principe fondamental de la méthode expérimentale : il faut utiliser le plus grand nombre de données disponibles pour formuler une nouvelle hypothèse.

Cette critique du prédictivisme a été formulée dès le XIXe siècle par John Stuart Mill :

Ces prédictions et leur accomplissement sont assurément, faits pour impressionner les personnes étrangères à ces matières [uninformed], dont la foi en la science ne se fonde que sur ces sortes de coïncidences entre les prédictions et les événements [what comes to pass]. Mais il est étrange que des hommes de sciences y attachent tant d’importance. (Mill, 1866, partie III, ch.14, 19)

Pour John Stuart Mill, la seule méthode qui permette de conclure à la vérité d’une hypothèse est la méthode inductive, qui généralise des faits particuliers en des lois générales. La méthode hypothétique, qui part d’une hypothèse imaginée sans restriction et qui en déduit des faits, ne peut être équivalente à la méthode inductive que dans un seul cas : si aucune autre hypothèse alternative ne peut déduire ces faits. En effet, dans ce cas, si h implique e alors e implique h. Mais cette condition étant très contraignante, Mill en conclut que la plupart des prédictions ne confirment pas les hypothèses dont elles sont tirées avec le même degré de certitude que les inductions qui se basent sur le plus grand nombre possible de faits.

En 1922, John Maynard Keynes a développé une autre objection majeure au prédictivisme. D’après lui (et ce postulat est encore partagé par un grand nombre de théories de la confirmation comme la TBC) la confirmation des hypothèses doit être formulée dans le langage de la théorie des probabilités parce qu’elle a pour objet « le degré de croyance qu’il est rationnel d’attribuer dans certaines conditions » à la relation entre différents ensembles de propositions :

Étant donné un ensemble de connaissances directes qui constituent nos prémisses fondamentales, cette théorie nous dit quelles autres croyances rationnelles probables ou certaines on peut dériver, par un argument valide, de cette connaissance directe. Cela n’implique que des relations purement logiques entre les propositions qui expriment notre connaissance directe et celles par lesquelles on recherche une connaissance indirecte. (Keynes, 1921, 3)

Si l’on admet ce principe, la question de savoir si un fait était connu avant une hypothèse, ou s’il a été utilisé dans la formulation de cette hypothèse, ou encore s’il était expliqué par d’autres hypothèses, est une question sans importance pour savoir si cette hypothèse est confirmée ou non, puisqu’elle ne concerne pas les « relations purement logiques » entre ce fait et l’hypothèse. C’est pourquoi, dans le 25e chapitre de son Treatise on probability, John Maynard Keynes exclut la notion de prédiction du champ de la théorie de la confirmation :

Le mérite spécial des prédictions ou prédésignations est tout à fait imaginaire. Le nombre d’instances examinées et leur analogie sont les points essentiels et la question de savoir si une hypothèse particulière est proposée avant ou après leur examen tout à fait sans importance. (Keynes, 1921, 349)

Ces objections sont parfaitement justifiées d’un point de vue logique : la relation de prédiction entre une hypothèse et un fait n’est pas logiquement distinguable d’une induction ou d’une explication a posteriori de ce fait. Mais, ni John Stuart Mill ni John Maynard Keynes ne refusent aux prédictions un rôle pratique dans la formulation et le test des hypothèses. Comme l’a montré Struan Jacobs (1991, 80), au fil des rééditions du Système de logique, John Stuart Mill (influencé par la lecture du deuxième tome du Cours de philosophie positive d’Auguste Comte) a accordé de plus en plus d’importance au rôle des hypothèses en sciences, allant jusqu’à considérer que l’usage de prédictions pour « anticiper l’expérience » permet de « transformer les vérités expérimentales en vérités déductives » (Mill, 1866, III, ch.14, 14).

De même, Keynes fait remarquer que les scientifiques ont, comme tout un chacun, tendance à « "falsifier" [to cook] les preuves » pour qu’elles s’accordent à leurs idées préconçues (Keynes,1921, chapitre 25, p.350). Ainsi, même si Keynes ne lui accorde « aucune base logique »(Keynes,1921, chapitre 25, p.350), il admet le conseil méthodologique selon lequel il est souhaitable que les données servant de preuves soient inconnues des chercheurs lorsqu’ils proposent leurs hypothèses, afin qu’ils ne soient pas tentés de falsifier leurs preuves.

C’est cet intérêt pratique des tests prédictifs qui est au fondement des argumentations prédictivistes actuelles.

c. De la prédilection pour les prédictions

C’est parce que tester une hypothèse à partir de ses prédictions permet d’éviter un certain nombre de biais méthodologiques que l’on accorde aujourd’hui un rôle particulier aux prédictions dans la confirmation des hypothèses.

Même s’il a été oublié pendant des décennies, l’argument principal en faveur de l’intérêt pratique du prédictivisme a été formulé par Charles Sanders Peirce, en 1883 dans un écrit intitulé « A theory of probable inference » (Peirce, 1883). Dans le huitième paragraphe de ce texte, le philosophe américain démontre qu’il est toujours possible, à partir d’un ensemble de données choisi arbitrairement, de formuler une hypothèse qui soit ajustée à ces données mais qui ne rende pas compte d’autres données du même genre.

L’exemple que prend Peirce est le suivant : si l’on liste les cinq premiers poètes d’un dictionnaire biographique et leur âge de mort, on peut trouver des caractéristiques communes à ces cinq nombres que ne partagent pas les âges de mort des autres poètes du dictionnaire :

Aagard, mort à 48 ans ;

Abeille, mort à 76 ans ;

Abulola, mort à 84 ans ;

Abunomas, mort à 48 ans ;

Accords, mort à 45 ans ;

Ces cinq âges ont les caractéristiques communes :

1. La différence des deux chiffres composant le nombre divisé par trois donne un.

2. Le premier chiffre mis à la puissance du second divisé par trois donne un reste de un.

3. La somme des facteurs premiers de chaque âge — en considérant 1 comme un nombre premier— est divisible par trois (Peirce, 1883, §8).

On voit, à la lumière de cet exemple, que l’on peut manipuler mathématiquement les âges des poètes pour en tirer des relations qui ne semblent indiquer aucune loi empirique et qui n’ont que peu de chances d’être toujours vraies si on les confronte à un autre échantillon de poètes tiré du même dictionnaire. Autrement dit, on a bien une hypothèse ajustée à des données, mais cet ajustement semble forcé en ce qu’il ne reflète que les caractéristiques idiosyncrasiques d’un ensemble de données choisies arbitrairement.

Peirce a même donné une démonstration prouvant qu’il est toujours possible d’ajuster ainsi une hypothèse de manière à ce qu’elle rende compte d’un ensemble de données déjà connues. Il part du résultat de géométrie suivant :

Une courbe peut être tracée qui passe par une série de points sans passer par une autre série de points, quel que soit le nombre de dimensions. (Peirce, 1883, §8)

En effet, si l’on dispose n points de données sur un graphe à deux dimensions, il suffit de choisir comme hypothèse un polynôme de degré n-1 et d’ajuster ses n paramètres libres pour que la courbe de ce polynôme passe par les n points de données.

Ce théorème étant donné, la démonstration de Peirce se poursuit ainsi : si les données ont des caractéristiques qui peuvent être conçues comme des valeurs de variables numériques (comme l’âge de mort des poètes), alors il est possible de les traiter comme une série de points de données. De même qu’il est toujours possible de trouver un polynôme passant par un ensemble de points, il est donc toujours possible de trouver une hypothèse qui sélectionne ces valeurs en excluant les autres.

Ainsi, Peirce démontre que si l’on a un ensemble D de données inclus dans un ensemble plus large D’, il est toujours possible de formuler une hypothèse h telle que h désigne une ou plusieurs propriétés communes à toutes les données e incluses dans D, mais qui ne rendent pas compte des autres données e’ incluses dans D’. Autrement dit, si l’on formule l’hypothèse h en ayant connaissance de D on risque de surajuster cette hypothèse, c’est-à-dire de formuler une hypothèse qui ne rende compte que de D mais pas de D’. Pour vérifier si h n’a pas été surajustée, il semble donc judicieux de tester l’hypothèse h en la confrontant à des données de D’ qui ne sont pas dans D et qui n’ont donc pas servi à la formulation de h. Voilà pourquoi Peirce considère « qu’une hypothèse ne peut être acceptée que si elle a été vérifiée par une prédiction réussie » (Peirce, 1883, §8).

Cet argument, selon lequel il faut réserver une place spéciale aux prédictions dans les tests d’hypothèse, a été reformulé sous différentes versions depuis vingt ans, dans le cadre d’un débat entre théories de la confirmation prédictivistes et anti-prédictivistes. C’est Peter Lipton qui en a donné le premier une nouvelle version, en 1995, dans son ouvrage Inference to the Best Explanation (Lipton, 1995 (2004), 164-183). S’il admet que l’on ne doit pas faire intervenir d’autres éléments que des relations purement logiques dans la relation de confirmation entre hypothèses et preuves, et que plus on a de preuves en faveur d’une hypothèse plus celle-ci est confirmée, Peter Lipton fait aussi remarquer que le nombre de données n’est pas la seule caractéristique que l’on attend d’une bonne preuve. On attend aussi que ces données soient variées et précises, et plus elles le seront, plus elles constitueront des preuves convaincantes. Il existe, en outre, des qualités théoriques qui font que certaines hypothèses seront préférées à d’autres, comme la simplicité de l’hypothèse en question, sa plausibilité initiale, ou l’absence d’hypothèses rivales (Lipton, 2005, 220). Or, certaines de ces qualités théoriques sont en tension avec les qualités que l’on attend des preuves. Par exemple, si l’on a des données de nature très variée, on peut être tenté de sacrifier la simplicité de l’hypothèse et d’utiliser de nombreuses hypothèses ad hoc pour rendre compte de ces données. C’est ce que Lipton nomme une « tricherie » (fudge) (Lipton, 2005, 221), mais cela correspond à ce que l’on a nommé plus haut un surajustement de l’hypothèse, puisqu’il s’agit de formuler une hypothèse dans le seul but qu’elle rende compte de données déjà existantes et connues.

La conclusion de l’argument de la tricherie de Lipton, c’est que dans le cas d’une prédiction, les données prédites n’étant pas prises en compte dans la formulation de l’hypothèse, on ne risque pas de sacrifier la simplicité de l’hypothèse pour prendre en compte la variété des données déjà existantes.

L’argument de la tricherie de Lipton est concluant, mais il faut remarquer qu’il ne prouve pas que les prédictions sont un test indispensable des hypothèses, ni que les données prédites ont toujours plus de poids que les données déjà existantes et utilisées dans la conception de l’hypothèse.

C’est ce que remarquent Christopher Hitchcock et Elliott Sober (2004) en utilisant une autre version de l’argument de Peirce. Les deux auteurs font remarquer que les statisticiens et les expérimentateurs connaissent bien le risque de surajustement des hypothèses et savent qu’une hypothèse qui a été ajustée trop finement à des données déjà connue a souvent de pauvres résultats prédictifs. En effet, si l’on cherche absolument à faire coller une hypothèse à des données, on se retrouve, comme l’avait bien vu Peirce, dans le cas où l’on cherche la formule d’une courbe qui passe par tous les points d’un repère où sont représentées ces données.

Mais lorsqu’on récolte des données, leur mesure s’accompagne toujours d’un bruit venant des perturbations qui affectent l’instrument de mesure. Une hypothèse qui s’ajuste trop précisément à des données est une hypothèse qui, au lieu de représenter le phénomène à la source des mesures, s’ajuste à ce bruit qui n’a que peu de chance de se reproduire à l’identique dans d’autres ensembles de données. Ainsi, même si la précision de l’hypothèse est très importante sur un échantillon de données, l’écart entre cette hypothèse et un autre échantillon de données risque d’être très important (voir figures 1 et 2 ci-dessous).

Christopher Hitchcock et Elliott Sober proposent donc un nouvel argument contre le surajustement des données, ce qui en retour semble donner plus de force au prédictivisme, puisque des données prédites ne peuvent pas être surajustées. Mais ils remarquent que la conséquence de cette argumentation est que si l’on dispose d’un moyen de contrôler que l’hypothèse que l’on conçoit n’est pas surajustée, alors utiliser des prédictions pour tester une hypothèse devient superflu. Or, d’après eux, il existe un tel moyen : un outil statistique nommé critère d’information d’Akaike, qui permet de calculer l’équilibre d’une hypothèse entre simplicité et ajustement aux données (Hitchcock et Sober, 2004, 11). Cet outil permet de savoir si l’hypothèse que l’on a formulée est ou non un cas de surajustement ou de « tricherie » au sens de Lipton : on peut donc utiliser des données déjà connues pour formuler une hypothèse sans risquer de sacrifier sa simplicité.

Curve-fitting 2.jpg Curve-fitting 4.jpg
FIGURE 1 – Deux manières d’ajuster une courbe à un échantillon D1 de n données représentées sous forme d’un nuage de points dans un repère :
  • A gauche, avec un polynôme de degré n-1 : Y = an-1 Xn-1 + … + a1 X + a0
  • A droite, avec un polynôme de degré 1 : Y = aX+b
Curve-fitting 3.jpg Curve-fitting 5.jpg
FIGURE 2 – Sur un autre échantillon de données D2, le polynôme de degré n-1 est bien moins adéquat aux données qu’il ne l’était sur l’échantillon D1, tandis que le polynôme de degré 1conserve la même précision. Cela est dû au fait que le bruit des mesures ayant récolté D2 n’a pas le même effet que celles ayant récolté D1.

Ainsi, Hitchcock et Sober attirent l’attention sur le fait que si l’on a une prédilection pour les prédictions parce qu’elles permettent d’éviter le surajustement des données, alors on ne peut soutenir qu’un prédictivisme local et faible :

– Ce prédictivisme est local parce que les faits prédits ne sont pas toujours de meilleures preuves que les faits utilisés dans la conception d’une hypothèse.

– Ce prédictivisme est faible parce que les prédictions ne sont pas intrinsèquement supérieures aux autres tests d’hypothèses, mais ne le sont que parce qu’elles permettent, en pratique, de révéler certaines qualités de l’hypothèse que l’on cherche à prouver (sa simplicité).

Ainsi, comme on l’a vu, les prédictions ne sont pas absentes des théories de la confirmation actuelles, mais leur rôle est souvent réduit à n’être que des symptômes d’autres qualités des hypothèses et des preuves qui les confirment. Cependant, ce rôle est d’autant plus crucial que l’on ne dispose pas d’autre moyen de vérifier qu’une hypothèse n’a pas été surajustée, et il ya de bonnes raisons de croire que le critère d’Akaike est restreint aux cas d’interpolation et non d’extrapolation, c’est-à-dire à des prédictions sur des échantillons de même dimension et non sur des échantillons de données plus étendues et plus variées (voir (Wang, 2013,596) pour un développement de cette critique).En outre, comme on le montre dans la section suivante, même si les prédictions ne sont pas indispensables pour confirmer qu’une théorie est empiriquement adéquate, elles semblent l’être pour prouver qu’une hypothèse est vraie ou approximativement vraie, c’est-à-dire ne fait pas que rendre compte des données empiriques, mais aussi de la struct

3. Les arguments réalistes fondés sur les nouvelles prédictions

Si les prédictions scientifiques ne jouent qu’un rôle local dans la confirmation des hypothèses, il est un domaine où il leur est donné un rôle fondamental : les argumentations en faveur du réalisme scientifique.

a. Aperçu historique des relations entre prédictions et réalisme scientifique

Si l’on définit le réalisme scientifique comme la thèse qui consiste à affirmer que nos meilleures théories scientifiques sont vraies, c’est-à-dire décrivent la réalité telle qu’elle est, il est difficile d’en trouver l’origine dans l’histoire de la philosophie tant cette thèse est largement partagée. Cependant, on peut faire remonter l’argument selon lequel les succès prédictifs sont un critère de vérité au philosophe britannique William Whewell (qui fut la cible des critiques de John Stuart Mill mentionnées plus haut). Dans son Novum Organum Renovatum, en 1858, William Whewell soutient qu’« aucun exemple ne peut être fourni dans toute l’histoire des sciences, dans lequel la consilience des inductions a témoigné en faveur d’une hypothèse dont on s’est par la suite rendu compte qu’elle était fausse » (Whewell, 1858, II, ch.5, §11, 90). La consilience des inductions est une expression employée par William Whewell pour indiquer qu’une hypothèse permet de subsumer d’autres hypothèses qui rendent compte de domaines différents de l’expérience. La théorie de la gravitation de Newton par exemple, permit de subsumer sous un même ensemble de lois la chute des corps à la surface de la Terre (représentée par la loi de Galilée) et les mouvements les orbites planétaires(représentés par les lois de Kepler). Or pour William Whewell, la consilience des inductions est une forme de prédiction réussie. En effet, il distingue des prédictions « d’un même genre de faits » et des prédictions « de faits d’un genre nouveau », (Whewell, 1858, II, ch.5, §11, 90) qui permettent d’unifier différents genre de faits. Ainsi, pour lui, lorsqu’une hypothèse ou une théorie réussit ce genre de prédictions, l’histoire des sciences nous enseigne qu’elle est vraie, en ce sens qu’elle ne sera pas remise en question par de futures découvertes, parce qu’aucune hypothèse ayant connu la consilience des inductions n’a jamais été réfutée.

Henri Poincaré, dans La Science et l’Hypothèse en 1902, semble tirer une leçon différente, et bien plus pessimiste, de l’histoire des sciences :

Les gens du monde sont frappés de voir combien les théories scientifiques sont éphémères. Après quelques années de prospérité, ils les voient successivement abandonnées; ils voient les ruines s’accumuler sur les ruines ; ils prévoient que les théories aujourd’hui à la mode devront succomber à leur tour à bref délai et ils en concluent qu’elles sont absolument vaines. C’est ce qu’ils appellent la faillite de la science. (Poincaré, 1902, 173)

Cependant, Henri Poincaré note immédiatement que ce pessimisme repose sur une méprise des buts de la science. Il illustre son argument en prenant comme exemple l’optique ondulatoire développée par Augustin Fresnel au début du XIXe siècle :

Nulle théorie ne semblait plus solide que celle de Fresnel qui attribuait la lumière aux mouvements de l’éther. Cependant, on lui préfère maintenant celle de Maxwell. Cela veut-il dire que l’œuvre de Fresnel a été vaine ? Non, car le but de Fresnel [...] c’était de prévoir les phénomènes optiques .Or cela, la théorie de Fresnel le permet toujours, aujourd'hui aussi bien qu'avant Maxwell.(Poincaré, 1902, 173)

Ainsi, puisque la théorie de Fresnel conserve la même capacité à prédire des phénomènes, on peut considérer, d’après Henri Poincaré, qu’elle est toujours partiellement vraie, parce que les équations de Fresnel qui permettent de faire ces prédictions reflétaient bien des rapports réels entre les choses. C’est pour cela que l’on retrouve ces équations comme cas particuliers des équations de Maxwell :

Ces équations expriment des rapports et, si les équations restent vraies, c'est que ces rapports conservent leur réalité. Elles nous apprennent, après comme avant, qu'il y a tel rapport entre quelque chose et quelque autre chose; seulement, ce quelque chose nous l'appelions autrefois mouvement, nous l'appelons maintenant courant électrique. (Poincaré, 1902, 174)

Il y a donc, pour Henri Poincaré, une certaine continuité dans l’histoire des sciences derrière un apparent chaos fait de réfutations et de révolutions : les hypothèses sont conservées et reprises dans la mesure où elles servent à réaliser des prédictions réussies.

Quelques années plus tard, Pierre Duhem expose dans La Théorie physique l’idée que les prédictions agissent sur nous comme des preuves de la vérité d’une théorie. Pour Pierre Duhem, les théories physiques n’ont pas pour objectif d’expliquer les lois empiriques, c’est-à-dire d’en découvrir la cause, mais uniquement de les classifier selon un ordre plus ou moins commode. Cependant, dans certains cas, ces classifications nous semblent « naturelles », c’est-à-dire semblent refléter l’ordre réel de la nature :

Il est une circonstance où se marque, avec une netteté particulière, notre croyance au caractère naturel d’une classification théorique ; cette circonstance se présente lorsque nous demandons à la théorie de nous annoncer les résultats d’une expérience avant que cette expérience n’ait été réalisée, lorsque nous lui enjoignons cet ordre audacieux : « Prophétise-nous ». [...]

Des principes posés par Fresnel, Poisson, par une élégante analyse, déduisit cette conséquence étrange : si un petit écran opaque et circulaire intercepte les rayons émis par un point lumineux, il existe derrière écran, sur l’axe même de cet écran, des points qui non seulement sont éclairés mais qui brillent exactement comme si l’écran n’était pas interposé entre eux et la source de lumière. Un tel corollaire, si contraire, semble-t-il, aux certitudes expérimentales les plus obvies, paraissait bien propre à faire rejeter la théorie de la diffraction proposée par Fresnel. Arago eut confiance dans le caractère naturel, partant dans la clairvoyance de cette théorie; il tenta l’épreuve ; l’observation donna des résultats qui concordaient si absolument avec les prédictions, si peu vraisemblables, du calcul. [...]

Ce caractère de classification naturelle se marque surtout par la fécondité de la théorie, qui devine des lois expérimentales non encore observées et en provoque la découverte. (Duhem, 1914, 37–40)

Comme on le voit, c’est à nouveau l’exemple de la théorie ondulatoire de Fresnel qui est utilisé. Plus précisément, c’est la prédiction, réalisée en 1818, que la diffraction des ondes lumineuses par un disque opaque doit produire un point lumineux au centre de l’ombre de ce disque. Comme le fait remarquer Pierre Duhem, cette prédiction est particulièrement surprenante, notamment parce que ce phénomène du point lumineux semblait impossible dans le cadre de la théorie rivale : l’optique corpusculaire. Ce succès prédictif semble donc à la fois confirmer la théorie de Fresnel et prouver que l’on peut avoir confiance en sa qualité de classification naturelle. Cependant, Pierre Duhem ne va jamais jusqu’à affirmer que cette confiance est rationnelle : pour lui il ne s’agit que d’un « acte de foi »(Duhem, 1914, 37), une tendance psychologique impossible à justifier par la raison.

Une histoire de tous les auteurs ayant utilisé les prédictions scientifiques réussies pour défendre une version ou l’autre du réalisme scientifique est au-delà du champ de cet article. Mais les exemples de William Whewell, Henri Poincaré et Pierre Duhem suffisent à montrer que le débat actuel sur le réalisme scientifique a déjà une importante histoire derrière lui, histoire dont il se nourrit et qui l’enrichit. De plus, ils montrent que certains épisodes de l’histoire des sciences, comme la prédiction du point lumineux par l’optique ondulatoire de Fresnel, jouent un rôle central dans ce débat, comme on va le voir par la suite.

b. L’argument du miracle, l’induction pessimiste et les nouvelles prédictions

Le principal argument actuel en faveur du réalisme scientifique est connu sous le nom d’« argument du miracle » parce qu’Hilary Putnam le formula ainsi : le réalisme scientifique est « la seule philosophie qui ne fait pas du succès de la science un miracle » (Putnam, 1975, 73), c’est-à-dire qui puisse expliquer les succès (notamment prédictifs) des théories scientifiques.

L’argument semble simple et intuitif : il repose sur l’apparente évidence que si nous arrivons à construire des théories qui s’appliquent particulièrement bien aux données empiriques, qui sont confirmées par de nombreux tests et utilisées pour mettre au point de nouvelles technologies efficaces, alors il n’y a qu’une infime probabilité que les suppositions que font ces théories sur la nature de la réalité (sur ses entités fondamentales ou sur les lois qui les régissent) ne soient pas vraies (ou du moins approximativement vraies) mais uniquement des fictions se trouvant, par une coïncidence très peu probable, s’appliquer si bien à l’expérience. Une objection qui vient naturellement à l’esprit est qu’il a existé un grand nombre de théories passées qui rendaient ainsi compte d’un ensemble très varié de phénomènes et qui étaient considérées comme confirmées, mais qui ne sont plus aujourd’hui qualifiées de vraies au sens où l’on ne considère plus qu’elles décrivent les entités et les processus réellement à l’œuvre dans la nature. Un des grands apports de l’histoire des sciences depuis les années 1960 est d’avoir replacé les théories scientifiques passées dans leur contexte afin de montrer leur cohérence interne et leur efficacité à rendre compte des données alors disponibles. Larry Laudan a donné, en 1981, une liste (non-exhaustive) de telles théories :

  • Les orbes cristallines de l’astronomie antique et médiévale ;
  • La théorie médicale des humeurs ;
  • La théorie du fluide électrique ;
  • Les théories géologiques des grandes catastrophes ;
  • La théorie chimique du phlogiston ;
  • La théorie du calorique ;
  • La théorie de la chaleur ;
  • La théorie des forces vitales ;
  • L’éther électromagnétique ;
  • L’éther optique ;
  • La théorie de l’inertie circulaire ;
  • Les théories de la génération spontanée. (Laudan, 1981, 33)

Cette liste semble suffisante pour réaliser ce que l’on a appelé une induction pessimiste : puisque la plupart de nos théories passées fortement confirmées se sont révélées fausses il n’y a aucune raison de croire que nos théories actuelles soient plus vraies que leurs ancêtres. Le succès « miraculeux » de nos théories actuelles ne serait donc qu’une illusion provoquée par un manque de recul historique.

Pour répondre au défi de l’induction pessimiste, l’attention de la plupart des philosophes des sciences engagés dans la défense du réalisme scientifique s’est dirigée, à partir de la fin des années1980 et au début des années 1990, vers un type de succès que ne semblent pas connaître les théories de la liste fournie par Larry Laudan : le succès prédictif. John Worrall (1989b) et Alan Musgrave (1988) notamment, ont introduit ce type de succès pour reformuler l’argument du miracle en s’inspirant des travaux des auteurs de l’école lakatosienne (dont on a vu qu’ils font eux-mêmes partie), mais aussi des arguments de William Whewell, Henri Poincaré et Pierre Duhem mentionnés dans la section précédente.

Comme le fait remarquer John Worrall, seules certaines prédictions sont assez impressionnantes pour prouver que les théories dont elles sont issues sont vraies :

Prédire des événements particuliers d’un genre déjà connu n’est pas un succès théorique suffisant pour soutenir l’argument du miracle en faveur d’une théorie. [...]Le type de succès qui semble adapté à l’intuition sous-jacente à l’argument du miracle est un cas bien plus fort, bien plus frappant de succès prédictif. Dans ce cas, ce n’est pas juste une nouvelle instance d’une généralisation empirique déjà connue qui est tiré d’une théorie : c’est une généralisation empirique totalement nouvelle et qui confirmée expérimentalement. La prédiction d’une planète inconnue à partir de la théorie de Newton, et la prédiction d’un point lumineux au centre de l’ombre d’un disque opaque par la théorie de la réfraction de Fresnel sont des exemples de tels succès. (Worrall, 1989b, 114)

Ce sont les prédictions de ce genre qui sont appelées nouvelle prédiction [novel prediction] et qui sont aujourd’hui au cœur du débat sur le réalisme scientifique et l’induction pessimiste. Ce n’est que récemment que les travaux de Mario Alai (2014) ont montré que ces nouvelles prédictions doivent être définies comme un sous-ensemble spécifique des prédictions scientifiques. Mario Alai montre en effet que pour qu’une prédiction soit suffisante pour soutenir l’argument du miracle, il faut qu’elle ait les qualités suivantes :

  • heuristiquement nouvelle, c’est-à-dire que le fait prédit ne soit pas utilisé dans la formulation de la théorie ni dans le choix des hypothèses auxiliaires (voir section 2.a).
  • a priori improbable, c’est-à-dire que le fait prédit ait une faible probabilité initiale.
  • hétérogène aux données empiriques connues, c’est-à-dire que le fait prédit « ne puisse pas être inféré de données déjà existantes par une procédure standard de généralisation. » (Alai, 2014, 310)

c. La stratégie « divide et impera »

Comme on l’a montré dans la première section, il existe différents types de prédictions scientifiques, et le résultat de Mario Alai montre que seules les prédictions utilisant des lois peuvent être appelées des nouvelles prédictions et soutenir l’argument du miracle. Mais ces prédictions s’appuient par ailleurs sur des hypothèses auxiliaires idéalisées, voire fausses, ce qui semble problématique si l’on veut faire de ces prédictions le critère pour distinguer les théories vraies des théories fausses.

Le cas des prédictions de la théorie de Fresnel est un bon exemple de ce problème. En effet, la prédiction de la présence d’un point lumineux dans l’ombre d’un disque opaque a été réalisée en 1818 sur la base d’une théorie qui suppose l’existence d’un éther optique, c’est-à-dire d’un fluide élastique au repos absolu dans lequel se propagent les vibrations lumineuses. Or, cette hypothèse fait partie de la liste de Larry Laudan des théories considérées aujourd’hui comme fausses, puisque l’hypothèse de l’éther a été progressivement abandonnée au cours du XXe siècle, au fur et à mesure que s’imposait la théorie de la relativité. Donc, apparemment, des théories postulant des entités non réelles peuvent mener à des succès prédictifs au sens fort, ce qui remet en question la validité de l’argument du miracle.

John Worrall a étudié le cas de la théorie de Fresnel en détail, et s’il conclut que la prédiction du point lumineux a eu peu d’importance dans sa confirmation — voir (Worrall, 1989a) — il considère tout de même qu’elle est suffisante pour garantir qu’il y a quelque chose de vrai dans cette théorie. Cette partie vraie de la théorie de Fresnel est précisément celle qui a permis d’engendrer la prédiction du point lumineux. Or ce qui, dans la théorie de Fresnel, a servi à réaliser la prédiction du point lumineux, et qui par la suite a été conservé dans les autres théories optiques, ce ne sont pas, d’après John Worrall comme d’après Henri Poincaré, les entités qu’elle postule comme l’éther, mais uniquement sa structure mathématique, c’est-à-dire les intégrales de Fresnel.

De plus, ces équations se retrouvent comme cas particuliers des équations de Maxwell où la lumière est décrite comme la perturbation non d’un éther mais d’un champ électromagnétique, puis, par la suite comme cas particulier de la théorie quantique décrivant la lumière comme un boson de masse nulle, le photon, ayant, comme toute particule quantique, des aspects à la fois ondulatoires et corpusculaires. John Worrall considère donc que le succès prédictif de la théorie de Fresnel ne provient que de sa structure mathématique, structure qui est toujours considérée comme vraie puisqu’elle a été conservée (comme cas particulier) dans les théories postérieures à celle de Fresnel :

Au premier abord, il semble correct de dire que Fresnel s’est complètement trompé sur la nature de la lumière, mais que ce n’est pas un miracle pour autant que sa théorie ait connu un tel succès prédictif. Ce n’est pas un miracle parce que la théorie de Fresnel, comme la science le montra par la suite, attribua à la lumière la bonne structure. Il n’y a pas d’éther élastique. Il existe, cependant, du point de vue des théories postérieures, un champ magnétique (désincarné). Ce champ magnétique n’est, en aucun sens clair, une approximation de l’éther, mais ses perturbations obéissent aux mêmes lois que les perturbations élastiques dans un médium mécanique. (Worrall, 1989b, 118)

Le choix de l’exemple de Fresnel par Worrall est donc stratégique : il choisit une théorie réalisant des nouvelles prédictions mais dont certains postulats sont aujourd’hui abandonnés. Son objectif est ainsi de soutenir une position inspirée des écrits d’Henri Poincaré : le réalisme structural, qui accepte les conséquences de l’induction pessimiste concernant les entités théoriques mais soutient que l’argument du miracle fonctionne au niveau des structures théoriques parce que ce sont elles qui génèrent les nouvelles prédictions, et qui sont retenues lorsqu’une théorie est renversée par une autre.

En 1999, dans Scientific Realism : How science tracks truth (un ouvrage qui a pour objectif de formuler le plus précisément possible l’argument du miracle), Stathis Psillos formalise l’argument sous-jacent à la position de John Worrall sous le nom de stratégie divide et impera (« diviser pour régner ») : tous les éléments théoriques indispensables à la dérivation des nouvelles prédictions peuvent être considérés comme les vrais postulats d’une théorie (postulats qui seront ensuite repris et conservés dans les théories postérieures). Cette formulation a aussi pour objectif d’attaquer la thèse du réalisme structural, puisqu’elle ne conclut pas nécessairement que ce sont les structures plutôt que les entités théoriques qui correspondent à la réalité. Pour Stathis Psillos, c’est uniquement en se penchant sur chaque cas de révolution scientifique que l’on peut examiner ce qui a été retenu des théories passées dans l’actuelle image scientifique de la réalité.

La stratégie divide et impera est la suivante :

Comment les réalistes peuvent-il circonscrire les constituants susceptibles d’être vrais dans une théorie passée qui fut couronnée de succès ? Il faut d’abord souligner que l’on doit se concentrer sur des succès spécifiques de certaines théories, comme la prédiction par la théorie de la diffraction de Fresnel que si un disque opaque intercepte les rayons émis par une source lumineuse, alors un point lumineux apparaît au centre de son ombre. [...]

Ensuite, on doit se poser la question suivante : comment ces succès ont-ils été engendrés ? En particulier, quels constituants théoriques ont apporté une contribution essentielle à ces succès ? [...] Les constituants théoriques qui ont fait une contribution essentielle à ces succès sont ceux qui ont un rôle indispensable dans leur génération. Ce sont ceux qui « nourrissent réellement la dérivation ». (Psillos, 1999, 110)

La stratégie divide et impera a donc pour objectif d’utiliser les prédictions pour diviser les théories scientifiques en des éléments susceptibles d’être vrais et d’autres qui ne le sont pas, en montrant que seuls les premiers sont réellement indispensables aux succès prédictifs et ont été repris dans les théories postérieures. Cette stratégie de défense du réalisme scientifique contre les objections historiques comme l’induction pessimiste a pour conséquence de donner une place très importante aux nouvelles prédictions, mais aussi à leur dérivation, c’est-à-dire au processus prédictif qui leur a donné naissance. En effet, pour savoir quels sont les constituants théoriques qui « ont un rôle indispensable dans la génération » d’un succès prédictif, il faut être capable de reconstruire la série d’inférences allant de ces constituants théoriques à la prédiction d’un phénomène de genre nouveau, afin de prouver que ces constituants sont indispensables :

Quand est-ce qu’un constituant théorique H contribue de manière indispensable à la génération d’un succès prédictif ? Supposons que H, conjointement à un ensemble d’autres hypothèses H’ (et à des hypothèses auxiliaires A) mène à la prédiction P. H contribue de manière indispensable à P si H’ et A seuls ne peuvent pas dériver P et qu’aucune autre hypothèse H* consistante avec H’ et A peut remplacer H sans perte dans la dérivation P. (Psillos, 1999, 110)

Le grand intérêt d’une telle stratégie centrée sur la dérivation des nouvelles prédictions, c’est qu’elle fait du réalisme scientifique une thèse philosophique testable historiquement. Il est en effet possible d’examiner des cas d’histoire des sciences pour voir si les éléments théoriques impliqués dans la dérivation des succès prédictifs sont ou non indispensables, et s’ils ont été ou non retenus dans les théories postérieures. Bien évidemment, on ne peut espérer qu’un tel projet à la confluence de l’histoire et de la philosophie des sciences puisse mener rapidement à un consensus. Mais il est intéressant de voir qu’il a déjà amené plusieurs chercheurs à entreprendre des recherches historiques sur des cas de nouvelles prédictions problématiques et ainsi à refaire des prédictions scientifiques un objet d’étude des recherches historico-philosophiques.

Or ces recherches sur les succès prédictifs des théories passées mènent aujourd’hui à adopter des positions réalistes beaucoup plus modestes que celles qui étaient soutenues il y a une dizaine d’années, parce qu’elles ont fait resurgir des cas exemplaires de prédictions réussies tirées d’hypothèses fausses. Timothy Lyons par exemple, a montré les nombreux succès prédictifs de la théorie de l’anima motrix de Kepler, selon laquelle le Soleil émet, par ses rayons, une force qui pousse les planètes sur leur orbite. Cette théorie, qui non seulement attribue une force imaginaire au Soleil, mais en plus utilise un concept d’inertie opposé à celui de la physique moderne, a pourtant permis à Kepler de prédire que le Soleil est animé d’une rotation, que cette rotation est dans le même sens que celui de l’orbite des planètes, et les trois lois sur les orbites des planètes qui portent aujourd’hui son nom (Lyons, 2006, 545–546).

Actuellement, plusieurs options sont explorées pour répondre à ces nouveaux défis que l’histoire des prédictions scientifiques semble adresser au réalisme scientifique :

  • Refuser la stratégie divide et impera et soutenir que l’histoire des sciences est une réfutation du réalisme scientifique : c’est la position des néo-instrumentalistes comme Timothy Lyons (2014) ou Kyle Stanford(2010).
  • Raffiner la stratégie divide et impera pour distinguer des postulats indispensables en fait et indispensables en droit : c’est l’option choisie par les réalistes scientifiques, notamment par Stathis Psillos (2011) et Peter Vickers (2013).
  • Analyser en détail des cas historiques paradigmatiques comme les prédictions de Fresnel pour trouver l’engagement réaliste minimal qu’ils impliquent : c’est la voie prise par Juha Saatsi (2017) (voir aussi (Leconte, 2017)).

Quelle que soit l’évolution future de ces débats, ils montrent comment histoire et philosophie des sciences peuvent interagir de manière féconde.

Conclusion

En philosophie des sciences, la seconde moitié du XXe siècle a été dominée par des controverses sur la nature des explications scientifiques. Mais, comme on l’a vu dans cet article, l’évolution des débats dans deux domaines en particulier – la théorie de la confirmation et le réalisme scientifique – ont amené les épistémologues à reconnaître la diversité et la complexité de l’activité prédictive et à remettre la notion de prédiction au cœur de leur description des sciences. Ainsi, les études historiques de cas de succès et d’échecs prédictifs ont permis de se détacher de l’image par trop simpliste des prédictions comme simples conséquences déductives des théories et de faire progresser notre compréhension de l’activité scientifique et de sa portée.

Cependant, de nombreux aspects de l’activité prédictive restent à explorer. Alors qu’Auguste Comte et John Stuart Mill insistaient sur la capacité de la méthode hypothétique à « anticiper l’expérience » (Mill, 1866, III, ch.14, 14) ou que Gaston Bachelard montrait que « quand c’est l’expérimentation qui apporte le premier message d’un phénomène nouveau […] le mathématicien montre que la théorie, un peu assouplie, aurait dû prévoir la nouveauté » (Bachelard, 1949, 12), on peut s’étonner que la notion de prédiction soit quasiment absente de la philosophie de l’expérimentation actuelle.

C’est pourtant la volonté de contrôler des prédictions théoriques qui impulse de nombreuses recherches expérimentales, et ces mêmes prédictions sont essentielles pour établir les protocoles et dispositifs expérimentaux indispensables à ces recherches. On ne peut donc que souhaiter l’émergence d’études des prédictions dans des contextes expérimentaux divers, qui permettrait d’examiner la manière dont les scientifiques multiplient les surfaces de contact entre théorie et expérience, et de définir le statut épistémologique de la « phénoménologie » scientifique (en science, le terme phénoménologie ne doit rien à Husserl mais désigne la discipline chargée de concevoir des protocoles expérimentaux pour tester une théorie ou un modèle donné : voir (Hacking, 1983, 221-222)).

Bibliographie

Alai, M. (2014). Novel predictions and the no miracle argument. Erkenntnis 79(2), 297–326.

Antczak, S. (2002). Astrologie : science, art ou imposture ? Les Dossiers de l’Observatoire de Zététique.

Bachelard, G. (1949). Le Rationalisme appliqué.PUF.

Brush, S. (1989). Prediction and theory evaluation : The case of light bending. Science 246 (4934),1124–1129.

Brush, S. (2007). Predictivism and the periodic table. Studies in History and Philosophy ofSciencePart A 38(1), 256–259.

Comte, A. (1835). Cours de philosophie positive. Vol.2. Borrani et Droz.

Copernic, N. (1543). Des révolutions des orbes célestes. traduction française d’Alexandre Koyré, 1970, Blanchard.

de Sitter, W. (1917). On the curvature of space. Koninklijke Nederlandse Akademie van WetenschappenProceedings 20, 229–243.

Douglas, H. (2009). Reintroducing prediction to explanation. Philosophy of Science 76(4), 444–463.

Douglas, H. et P. D. Magnus (2013). State of the Field : Why Novel Prediction Matters. Studiesin History and Philosophy of SciencePart A 44(4), 580–589.

Dray, W. (1963). The historical explanation of actions reconsidered. Philosophy and History,105–135.

Duhem, P. (1914). La Théorie physique : son objet, sa structure.2e édition,Vrin.

Forster, M. et E. Sober (1994). How to tell when simpler, more unified, or less ad hoc theorieswill provide more accurate predictions. British Journal for the Philosophy of Science 45(1),1–35.

Glymour, C. (1980). Theory and Evidence. Princeton University Press.

Godfrey-Smith, P. (2006). The strategy of model-based science. Biology and Philosophy 21(5),725–740.

Hacking, I. (1983) Representing and Intervening: Introductory Topics in the Philosophy of Natural Science. Cambridge University Press.

Hempel, C. (1962). Deductive-nomological vs. statistical explanation. Minnesota studies in thephilosophy of science 3, 98 – 169.

Hempel, C. (1965). Aspects of Scientific Explanation, pp. 331–496. Free Press.

Hempel, C. et P. Oppenheim (1948). Studies in the logic of explanation. Philosophy ofScience 15(2), 135–175.

Hey, A., S. Tansley, K. Tolle, et al. (Eds.) (2009). The Fourth paradigm : data-intensive scientific discovery. Microsoft Research Redmond, WA.

Hitchcock, C. et E. Sober (2004). Prediction versus accommodation and the risk of overfitting.The British Journal for the Philosophy of Science 55(1), 1–34.

Hubble, E. (1929). A relation between distance and radial velocity among extra-galactic nebulae.Proceedings of the National Academy of Science 15, 168–173.

Jacobs, S. (1991). John Stuart Mill on induction and hypotheses. Journal of the History ofPhilosophy 29(1), 69–83.

Keynes, J. M. (1921). A Treatise on Probability. McMillan and co.

Lakatos, I. (1980). The methodology of scientific research programmes : Volume 1 : Philosophicalpapers, Cambridge university press.

Laudan, L. (1981). A confutation of convergent realism. Philosophy of Science 48(1), 19–49.

Leconte, G. (2017). Predictive success, partial truth and duhemian realism. Synthese, à paraître (disponible en ligne).

Lipton, P. (2004). Inference to the Best Explanation, 2e édition. Psychology Press.

Lipton, P. (2005). Testing hypotheses : Prediction and prejudice. Science 307(5707), 219–221.

Lyons, T. (2014). A historically informed modus ponens against scientific realism : Articulation,critique, and restoration. International Studies in the Philosophy of Science 27(4), 369–392.

Lyons, T. D. (2006). Scientific Realism and the Stratagema de Divide Et Impera. British Journal for the Philosophy of Science 57(3), 537–560.

Mill, J. S. (1866). Système de logique déductive et inductive : exposé des principes de la preuve et des méthodes de recherche scientifique. Librairie Philosophique de Ladrange.

Musgrave, A. (1974). Logical versus historical theories of confirmation. British Journal for the Philosophy of Science.

Musgrave, A. (1988). The ultimate argument for scientific realism. In R. Nola (Ed.), Relativism and realism in science, pp. 229–252. Springer.

Naylor, B. et P. Handford (1985). In defense of darwin’s theory. BioScience.

Orgogozo, V. et D. Stern (2009). Is genetic evolution predictable ? Science 323(5915), 746–751.

Peirce, C. S. (1883). A theory of probable inference, in Collected papers of Charles SandersPeirce II.

Poincaré, H. (1902). La science et l’hypothèse. Champs-Flammarion, 1968.

Popper, K. (1956). Misère de L’historicisme. Plon.

Popper, K. (1959). The Logic of Scientific Discovery. Routledge Classics. Taylor & Francis.

Psillos, S. (1999). Scientific realism : How science tracks truth. Routledge.

Psillos, S. (2011). Living with the abstract: realism and models. Synthese 180 (1).

Putnam, H. (1975). Philosophical Papers : Mathematics, matter and method. Cambridge University Press Archive.

Saatsi, J. (2017). Historical inductions, old and new. Synthese, à paraître (disponible en ligne).

Scerri, E. (2009). Selected Papers on the Periodic Table. World Scientific.

Stanford, K. (2010). Exceeding our grasp : Science, history, and the problem of unconceived alternatives. Oxford University Press.

Stern, D. (2010). Evolution, Development, and the Predictable Genome. Roberts & CompanyPublishers.

Thom, R. (1999). Prédire n’est pas expliquer. Champs-Flammarion.

Van Fraassen, B. (1980). The Scientific Image. Oxford University Press.

Vickers, P. (2013). A confrontation of convergent realism. Philosophy of Science 80(2), 189–211.

Wang, Y. L. (2013). Akaike’s theorem and weak predictivism in science. Studies in History andPhilosophy of SciencePart A 44(4), 594–599.

Whewell, W. (1858). Novum organon renovatum. J. W. Parker & son.

Williams, M. B. (1973). Falsifiable predictions of evolutionary theory. Philosophy ofScience 40(4), 518–537.

Worrall, J. (1989a). Fresnel, poisson and the white spot : the role of successful predictions in theacceptance of scientific theories, in D. Gooding, T. Pinch, et S. Schaffer (éd.), The Uses ofExperiment, Studies in the natural sciences, pp. 135–157. Cambridge University Press.

Worrall, J. (1989b). Structural realism : The best of both worlds ? Dialectica 43(2), 99–124.

Worrall, J. (2014). Prediction and accommodation revisited. Studies in History and Philosophy of Science Part A 45, 54–61.

Zahar, E. (1973). Why did Einstein’s programme supersede Lorentz’s ? (I). The British Journal for the Philosophy of Science 24(2), 95–123.

 

Gauvain Leconte

IHPST (Université Paris 1 Panthéon-Sorbonne)

gauvainleconte@gmail.com