Cosmologie (A)

Comment citer ?

Leconte, Gauvain (2021), «Cosmologie (A)», dans Maxime Kristanek (dir.), l'Encyclopédie philosophique, consulté le ..., https://encyclo-philo.fr/

Publié en octobre 2021

Résumé

La cosmologie est une science qui peut paraître impossible ; elle traite d’un objet unique qui englobe tous les autres systèmes physiques et que nous ne pouvons ni manipuler ni observer dans sa totalité : l’Univers. C’est pourquoi sa scientificité et sa méthode posent des problèmes philosophiques non seulement aux épistémologues mais aussi aux cosmologistes.

L’objectif de cet article est de présenter ces problèmes liés à l’étude scientifique de l’Univers qui accompagnent les principales innovations théoriques et découvertes observationnelles de la cosmologie moderne. On commence (section 1) par montrer comment les fondements théoriques de cette science posent les questions de son statut empirique ou a priori et de l’extrapolation de théories en dehors de leur domaine initial d’application. Puis (section 2) on examine les difficultés pour choisir entre différents modèles d’Univers théoriquement possibles lorsqu’on les confronte aux observations astronomique. On étudie ensuite (section 3) les problèmes spécifiquement liés à la théorie du Big Bang, c’est-à-dire aux modèles d’Univers ayant une origine dans le temps. Enfin, on se penche (section 4) sur les controverses à la fois scientifiques et épistémologiques qui ont lieu actuellement au sujet de la scientificité de deux théories cosmologiques : l’inflation et le multivers.

L’enjeu de cet article est donc non seulement d’exposer les principales questions de philosophie de cosmologie, mais aussi de montrer comment elles interviennent dans la pratique scientifique de la cosmologie et quelles réponses y ont apportées les cosmologistes.

 


 


Introduction

La cosmologie est certainement l’une des plus ambitieuses des sciences puisque son objet n’est rien de moins que le système physique qui englobe tous les autres systèmes : l’Univers lui-même. Mais elle peut aussi être conçue comme une branche de l’astrophysique parmi d’autres, celle qui s’intéresse aux échelles de temps et d’espace les plus grandes. Ainsi, elle peut être envisagée de deux manières par les épistémologues : en tant que branche de l’astrophysique elle pose des problèmes philosophiques communs à toutes les sciences physiques, voire à toutes les sciences en général ; en tant que science de l’Univers, elle pose des problèmes spécifiques liés à la nature de son objet, qui est un système physique impossible à manipuler en laboratoire, englobant ses observateurs et dont on ne dispose que d’un exemplaire.

L’objectif de cet article est de présenter ces problèmes de philosophie de la cosmologie en montrant qu’ils sont connectés à des problèmes de philosophie générale des sciences. L’enjeu est de comprendre comment la cosmologie a pu devenir une science intégrée aux autres disciplines physiques alors que son objet ne semble pas pouvoir se plier aux méthodes scientifiques traditionnelles.

Même si l’on ne s’interdira pas de fréquentes références à l’histoire de la cosmologie, cet article suit l’ordre d’exposition démonstratif de la plupart des manuels de cosmologie afin de montrer que les problèmes de philosophie de la cosmologie sont au cœur de notre connaissance actuelle de l’Univers. Les lectrices et lecteurs qui souhaitent un exposé chronologique des développements de cette science peuvent se reporter aux ouvrages de l’historien Helge Kragh (1999, 2007) ou à l’article « Cosmologie (GP) » de la présente encyclopédie.

La première section est consacrée aux problèmes fondamentaux de toute théorie cosmologique : comment modéliser l’Univers et quelle théorie lui appliquer. La seconde section examine comment on peut choisir parmi les différents modèles théoriques de l’Univers à partir des observations. La troisième section se concentre sur les modèles d’Univers en expansion qui sont favorisés par les observations astronomiques et traite des problèmes liés à la notion d’origine temporelle de l’Univers. Enfin, la dernière section détaille deux hypothèses controversées, celle de l’inflation et celle du multivers, qui cherchent à répondre aux problèmes liés aux conditions initiales de l’Univers.
 

Problèmes fondamentaux de cosmologie théorique

Le principe cosmologique et le problème du fondement de la cosmologie

Afin d’édifier une description physique de l’Univers – un modèle théorique d’Univers – il est nécessaire de faire un certain nombre d’hypothèses sur la structure de ce système physique pour pouvoir le mathématiser. Or nous n’avons pas accès, par l’observation, à l’ensemble de l’Univers mais uniquement à un sous-ensemble de celui-ci : l’Univers observable. La plus simple hypothèse à faire sur la structure de l’Univers semble de considérer qu’il ne présente pas de grands contrastes de densités, et que chacun de ses sous-ensembles est similaire aux autres – y compris celui que l’on observe. Cette hypothèse est connue sous le nom de principe cosmologique, principe qui est au fondement de la plupart des modèles cosmologiques et qui recouvre les deux hypothèses suivantes (voir figure 1) :

  • L’Univers est statistiquement isotrope : il n’y a pas de direction spéciale de l’Univers.

  • L’Univers est statistiquement homogène : il n’y a pas de région spéciale de l’Univers.

Remarquons dès à présent que ce principe n’est pas directement vérifiable : on peut certes observer l’Univers dans plusieurs directions à partir de notre point d’observation, la Terre, pour vérifier qu’il est statistiquement isotrope, mais on ne peut pas se déplacer dans d’autres régions de l’Univers pour vérifier qu’il soit homogène. Cependant, les cosmologistes admettent souvent un principe dit copernicien, selon lequel notre position d’observateur n’est pas privilégiée dans l’Univers, c’est-à-dire que d’autres positions d’observations sont similaires à la nôtre. La conjonction de ce principe copernicien et de l’isotropie de l’Univers permet de déduire son homogénéité et donc le principe cosmologique.

Le principe cosmologique est au fondement de la plupart des théories cosmologiques : non seulement les modèles d’Univers fondés sur la relativité générale (voir section 1.b), mais aussi d’autres cosmologie fondées sur d’autres théories (le « principe cosmologique » fut notamment introduit par le physicien britannique Edward Milne qui avait proposé une théorie alternative à la relativité générale, voir section 2.a.). Il permet en effet de définir une métrique, c’est-à-dire une manière de mesurer des distances dans l’espace. Sans métrique, il est impossible de mathématiser un espace. Dans un espace euclidien à deux dimensions par exemple, la distance peut être définie par le théorème de Pythagore : . La métrique qui est adaptée à un Univers homogène et isotrope (mais qui n’est pas forcément euclidien) est connue sous le nom de ses deux co-découvreurs : c’est la métrique de Robertson-Walker. En coordonnées polaires , cette métrique s’exprime ainsi :

  1.  

où est l’élément de longueur, est le facteur d’échelle de l’Univers (voir section suivante), est la vitesse de la lumière dans le vide et est le signe de la courbure de l’espace-temps. Si l’espace est euclidien (espace dans lequel la somme des angles d’un triangle vaut 180°) ; si (resp. ) l’espace est dit sphérique (resp. hyperbolique), c’est-à-dire un espace dans lequel la somme des angles d’un triangles est supérieur (resp. inférieur) à 180°. Autrement dit, la métrique de Robertson-Walker permet de définir la dimension d’espace pour une très grande classe d’Univers, que leur géométrie soit euclidienne, hyperbolique ou sphérique : c’est cette généralité qui place le principe cosmologique au fondement de la cosmologie moderne.

 

Figure 1. En haut : un Univers isotrope (qui offre le même aspect dans toutes les directions pour une observation en A) mais non homogène. Au milieu : Univers homogène (qui est similaire dans tous ses volumes d’espace) non isotrope. En bas : Univers homogène et isotrope.

Cependant, le principe cosmologique est loin d’être évident, pour au moins deux raisons. D’une part, il ne semble pas, à première vue, que l’Univers soit isotrope : par exemple, si l’on observe le ciel nocturne, on aperçoit une bande lumineuse (la Voie Lactée) qui correspond à notre galaxie vue par la tranche. On observe aussi que certaines régions du ciel sont denses en étoiles et en galaxies et d’autres moins. C’est seulement si l’on observe l’Univers à de grandes échelles qu’il apparaît isotrope : le principe cosmologique est une approximation. Donc, les modèles d’Univers fondés sur ce principe sont eux-mêmes idéalisés, c’est-à-dire qu’ils s’éloignent volontairement et consciemment de la réalité du système qu’ils représentent. Le problème épistémologique est de savoir en quelle mesure cette idéalisation est acceptable et ce qu’elle dit sur la prétention qu’on attribue parfois à la science de décrire la réalité ou la nature telle qu’elle est indépendamment de nous.

Notons que s’il en va de même pour l’homogénéité de l’Univers (qui n’est aussi une bonne approximation qu’à des grandes échelles) cette homogénéité pose en outre un problème supplémentaire. En effet, si l’on peut observer et mesurer l’isotropie de l’Univers à partir de notre point d’observation, la Terre, il est bien plus complexe de déterminer si l’Univers est homogène puisque l’on ne peut pas voyager dans ses différentes régions pour voir si elles présentent toutes le même aspect. Même s’il est possible de déduire l’homogénéité de l’Univers de la conjonction de son isotropie et du principe copernicien, on ne fait en réalité que repousser le problème, car il s’agit à présent de justifier le principe copernicien, qui n’est pas confirmé par les mêmes observations que son isotropie. Or nous ne pouvons pas communiquer avec d’hypothétiques observateurs dans des régions éloignées de l’Univers pour savoir si ils ou elles observent aussi un Univers isotrope.

Le principe cosmologique révèle donc un problème lié au fondement de la cosmologie et au statut de cette science : est-ce que ce principe doit être considéré comme une hypothèse a posteriori qui doit être testé par des observations ? Dans ce cas, la cosmologie serait une science inductive, en ce sens que son fondement serait dérivé de l’expérience. Ou bien est-ce que ce principe doit être institué a priori, comme le réclamait le Milne (voir Milne 1934, 33) ? Dans ce cas, la théorie cosmologique serait, comme une extension de la géométrie, fondée sur des axiomes qui n’ont d’autre justification que d’avoir les conséquences souhaitées.

Edward Milne défendit explicitement cette conception de la cosmologie lors d’une controverse qui impliqua d’autres scientifiques britanniques dans les années 1930 (Milne 1937), notamment l’astronome Herbert Dingle. Celui-ci adhérait à une conception inductiviste de la science et attaqua violemment Milne et d’autres physiciens (notamment Paul Dirac et Arthur Eddington) dans un article de Nature, en les traitant de « cosmo-idôlatres » professant une « pseudo-science cosmothéologique » (Dingle 1937, 784) parce qu’ils prétendaient que l’on pouvait édifier une théorie cosmologique sur des fondements a priori. Cette attaque suscita des réponses vigoureuses de la part de philosophes et de scientifiques de différentes disciplines qui aboutirent à l’une des plus importantes controverses épistémologiques du xxe siècle, laquelle se déroula essentiellement dans les pages de Nature en 1937. Les arguments avancés dans ces débats dépassèrent bientôt la simple question des fondements de la cosmologie et s’élargirent à la méthode scientifique en général (sur cette controverse, voir Gale 2019).

Ce problème philosophique du statut de la cosmologie et de ses fondements n’est pas pleinement résolu aujourd’hui, alors même que la cosmologie est devenue une science d’observations précises. En effet, il est possible, depuis les années 1980 et les recherches de pionnières comme Margaret Geller et Valérie de Lapparent, de réaliser des cartes en trois dimensions de certaines régions de l’Univers pour tester leur homogénéité : il semble donc que le principe cosmologique soit un principe susceptible d’être confronté directement aux observations, comme le recommandaient Herbert Dingle et les partisans d’une science inductive. Cependant, les méthodes pour réaliser ces cartes en trois dimensions sont dépendantes de certaines hypothèses cosmologiques, dont le principe cosmologique lui-même, pour mesurer les distances des objets dans l’Univers en observant leur décalage spectral (voir section suivante). On pourrait donc argumenter qu’il ne s’agit pas d’une réfutation ou d’une confirmation directe du principe cosmologique mais d’un test expérimental de ce principe via certaines de ses conséquences, comme le recommandaient Milne et les partisans d’une science hypothético-déductive.

La persistance de ce problème au fondement de la cosmologie a pour conséquence qu’il existe toujours actuellement des recherches sérieuses et fécondes, comme celles de Thomas Buchert (2005), cherchant à modéliser un Univers inhomogène et à en tirer des prédictions et des explications de différents phénomènes astrophysiques. Cependant, le cadre théorique le plus utilisé, connu sous le nom de « modèle standard de la cosmologie », utilise le principe cosmologique pour résoudre les équations de la théorie de la relativité générale lorsqu’elles sont appliquées à l’Univers.

Gravitation, relativité générale et extrapolation

À la différence des cosmologies mythiques ou antiques, la cosmologie scientifique moderne n’explique pas le détail des phénomènes particuliers par un récit ou un ordre du monde harmonieux, mais au contraire cherche à appliquer des théories testées sur des systèmes particuliers à ce système physique global qu’est l’Univers. En d’autres termes, la cosmologie moderne repose sur l’extrapolation de nos meilleures théories physiques à un système plus grand que tous les autres. Le problème d’une telle extrapolation est triple :

  • Quelle(s) théorie(s) est-elle pertinente pour décrire un système dont la taille caractéristique est, aujourd’hui, de l’ordre du milliard d’années-lumière ?

  • Peut-on considérer qu’une théorie testée à notre échelle, dans des laboratoires terrestres ou dans le système solaire, est fiable quand on l’applique à l’échelle de l’Univers ?

  • Peut-il y avoir des interactions, des forces ou des effets physiques qui sont indétectables dans notre environnement proche mais se révèlent importants à des échelles cosmologiques ?

La réponse à la première question semble, en première instance, évidente : des quatre interactions fondamentales de la physique (interaction nucléaire forte, interaction nucléaire faible, interaction électromagnétique et interaction gravitationnelle), seule la gravitation a des effets non-négligeables à l’échelle de l’Univers actuel. Il semble donc naturel, en première approximation du moins, d’utiliser la théorie de la gravitation pour décrire l’Univers.

Or la théorie de la gravitation de Newton décrit la gravitation comme une force d’attraction entre tous les corps massifs distribués dans un espace-temps absolu. Cette conception semble mener à plusieurs problèmes philosophiques quand on cherche à en tirer une cosmologie : peut-on savoir si l’Univers est fini ou infini, s’il a une origine dans le temps, ou s’il est éternel ? La théorie de la gravitation de Newton ne semble pas avoir les ressources pour trancher ces questions à partir des observations astronomiques puisque l’espace et le temps absolus ne sont pas affectés par les corps qui y prennent place. Les questions de forme et d’évolution de l’Univers semblent donc relever en dernière instance de la métaphysique plus que de la science.

De plus, si l’on décide de passer outre ces difficultés philosophiques et d’appliquer la théorie de l’attraction universelle à l’ensemble de l’Univers, elle semble alors mener à des résultats incohérents connus depuis le xviiie siècle. En effet, si le potentiel gravitationnel de l’ensemble des corps de l’Univers est d’une intensité équivalente à celle du potentiel gravitationnel de notre système solaire, alors il n’est pas suffisant pour empêcher que des corps acquièrent la vitesse nécessaire pour s’en échapper et se disperser dans l’espace infini : l’Univers ne devrait donc être constitué que de particules de matière si éloignées les unes des autres qu’elles ne seraient pas liées gravitationnellement (c’est le problème dit du dépeuplement). Au contraire, si le potentiel gravitationnel de l’Univers est trop important, alors toutes la matière devrait s’être effondrée sur elle-même (von Seeliger 1895).

Même si l’on imagine que l’Univers est, par une coïncidence miraculeuse, dans une situation d’équilibre gravitationnel, alors on rencontre le paradoxe d’Olbers : pourquoi la nuit est-elle noire si l’Univers est éternel, infini et rempli de manière homogène par des étoiles ? Où que se porte notre regard dans le ciel nocturne, il rencontrerait la surface d’une étoile et la voûte céleste devrait donc nous apparaître comme un large plafond uniformément lumineux. On peut se sortir d’un tel paradoxe si l’on admet un univers spatialement fini, ayant une origine dans le temps, étant inhomogène ou ayant une expansion. La question de savoir si les modèles cosmologiques newtoniens pouvaient incorporer l’une de ces hypothèses est débattue (Vickers 2009), mais l’image d’un Univers homogène, éternel et infini semblait exclue.

Il semble donc impossible de se fier à la théorie de la gravitation de Newton quand on l’applique à l’échelle de l’Univers – en tout cas pas sans la modifier profondément. Mais la théorie de la gravitation d’Einstein, la relativité générale, qui a remplacé celle de Newton au xxe siècle, paraît mieux adaptée pour remplir décrire l’Univers comme système global – et c’est pourquoi on fait souvent commencer la cosmologie scientifique moderne avec l’article d’Albert Einstein de 1917 intitulé « Considérations cosmologiques sur la relativité générale ». En effet, cette théorie repose sur l’équation de champ d’Einstein qui, dans sa première version en 1915, se formule ainsi :

  1.  

Pour comprendre la signification physique de cette équation, il faut savoir que le membre de droite de l’équation, ( est la constante d’Einstein) est un champ qui décrit la densité d’énergie et de quantité de mouvement de la matière dans le système considéré, alors que le membre de gauche de l’équation, (défini par) décrit la courbure de l’espace-temps dans ce système (Bais 2007, 67). Autrement dit, dans la théorie de la relativité générale, la gravitation est l’effet d’une déformation de l’espace-temps engendrée par la présence de matière, et non une force d’attraction à distance. Cela signifie que, dans le cadre de cette théorie, l’espace et le temps ne sont pas absolus mais relationnels et dynamiques : ils ne sont pas la scène vide sur laquelle se danse le ballet des phénomènes, mais un champ physique affecté par la matière et le rayonnement – et les affectant en retour (sur la question, débattue, de savoir si la gravitation et la dynamique newtoniennes sont nécessairement attachées à une conception absolue de l’espace, voir DiSalle 2020).

Ce statut de l’espace-temps en relativité générale permet de répondre à certaines objections philosophiques qui considéraient que la cosmologie ne pourrait avoir aucun contenu empirique puisqu’il est impossible d’intuitionner la totalité des phénomènes : en effet, déterminer la structure globale qui comprend tous les phénomènes devient possible si celle-ci est assimilée à l’espace-temps et que celui-ci dépend de son contenu en matière et en énergie (pour plus de détails sur ce point, voir l’article « Cosmologie (GP) »). La théorie de la relativité générale permet en outre de répondre à un certain nombre des difficultés de la cosmologie newtonienne, notamment en permettant de modéliser un Univers de courbure positive constante (et de topologie simple), c’est-à-dire illimité mais fini (l’équivalent de ce qu’est la surface de la sphère en deux dimensions). Un tel Univers fini ne peut se dépeupler de tous ses corps et il ne contient pas un nombre infini d’étoile qui rendrait le ciel nocturne totalement brillant.

C’est un tel Univers (statique, clos et de courbure positive constante) que décrit Albert Einstein dans son article de 1917, lequel réintroduit le terme de « cosmologie » dans le langage de la science moderne. Cependant ce modèle d’Univers n’est pas une solution de l’équation de la relativité générale (2) ; Einstein doit la modifier pour que ce soit le cas :

  1.  

L’ajout de la constante , aujourd’hui connue sous le nom de constante cosmologique est importante à plus d’un titre. D’une part, cette constante a eu une histoire mouvementée : son introduction par Einstein lui permettait d’éviter le problème du dépeuplement et ainsi d’obtenir un Univers statique. Lorsqu’il fut admis que l’Univers était en expansion, sembla obsolète, mais elle fut réintroduite à la fin du xxe siècle quand il apparut que l’expansion de l’Univers s’accélérait (voir section 4.b). D’autre part, l’ajout de a pour effet que d’autres modèles d’Univers sont compatibles avec la relativité générale : Willem de Sitter, un astronome néerlandais correspondant d’Albert Einstein, proposa un modèle alternatif à celui d’Einstein dès 1917. Cela signifie que la relativité générale ne peut, à elle toute seule, déterminer quelle est la géométrie globale de l’espace-temps et que ce sont aux observations de trancher entre les différents modèles d’Univers (voir section suivante sur cette question).

Enfin, l’introduction de la constante cosmologique met en lumière le problème de l’extrapolation de la relativité générale au système cosmologique. En effet, comment interpréter physique ce symbole  ? Comme une force de répulsion qui s’oppose à l’attraction gravitationnelle ? Comme un nouvel effet physique qui ne serait perceptible qu’à de grandes échelles ? Comme la conséquence, sur la géométrie de l’Univers, d’une source d’énergie qui accroît son expansion ? Ces questions sont des problèmes scientifiques, mais aussi des problèmes philosophiques qui ne sont pas limités à la cosmologie : une théorie scientifique est-elle réellement universelle ou est-elle restreinte à un certain domaine d’application, c’est-à-dire à un ensemble de phénomènes qui ont présidé à sa formulation et à ses tests ? En quelle mesure peut-on l’étendre en dehors de ce domaine d’application sans la modifier ou la réfuter ? Comme on le montre dans la dernière section, ces problèmes scientifiques et philosophiques sont au cœur des controverses cosmologiques modernes.

Théorie et observations : l’expansion de l’Univers

Les équations de Friedmann-Lemaître et le problème de la simplicité

Lorsqu’on représente l’Univers comme un système isotrope et homogène, on peut considérer que le tenseur énergie-impulsion de l’équation (3) prend la forme d’un fluide parfait, c’est-à-dire sans viscosité ni conduction thermique. Cela permet d’écrire l’équation suivante :

  1.  

où est la densité de matière et d’énergie en fonction du temps de l’Univers, sa dérivée par rapport au temps, la pression de l’Univers en fonction du temps et la vitesse de la lumière. Le symbole désigne le facteur d’échelle qui apparaissait déjà dans l’équation (1) de la métrique de Robertson-Walker, et est sa dérivée par rapport au temps. En effet, l’une des particularités de la métrique de Robertson-Walker et de la théorie de la relativité générale est que l’élément de longueur n’est pas nécessairement constant dans le temps : autrement dit, la dimension d’espace elle-même peut se contracter ou s’étendre. Le facteur d’échelle permet de mesurer cette variation de l’espace au cours du temps parce qu’il est défini comme :

 

où est la distance entre deux objets aux époques et , correspondant généralement au présent. Ainsi, signifie que les distances dans l’Univers à l’époque étaient deux fois plus petites qu’elles ne le sont actuellement, c’est-à-dire que l’Univers a aujourd’hui deux fois la taille qu’il avait à l’époque . L’équation (4) et la métrique de Robertson-Walker admettent ainsi la possibilité que l’espace global de l’Univers ne soit pas une réalité statique mais dynamique, c’est-à-dire que l’Univers dans son entier soit en expansion ou en contraction.

Lorsqu’on utilise la métrique de Robertson-Walker et l’équation (4), on peut dériver de l’équation d’Einstein (3) des équations différentielles qui furent découvertes par le physicien russe Alexandre Friedmann (1922) et redécouvertes indépendamment par l’abbé et physicien belge Georges Lemaître (1927) au cours des années 1920 :

  1.  

  2.  

Ces deux équations sont nommées « équations de Friedmann-Lemaître » et sont au fondement de la majorité des modèles d’Univers relativistes puisqu’elles ne reposent que sur la relativité générale et le principe cosmologique, c’est-à-dire la métrique de Robertson-Walker (on parle ainsi de modèles FLRW pour « Friedmann-Lemaître-Robertson-Walker quand on désigne cette classe de modèles relativistes).

On examine le détail de ces équations dans la section suivante, mais on peut relever dès à présent ce que leur signification physique a d’étonnant : elles décrivent un Univers dont les dimensions évoluent et dépendent de son contenu. Autrement dit, lorsqu’on parle d’expansion de l’Univers, ce ne sont pas les corps qui sont en mouvement dans l’espace, mais l’espace lui-même qui emporte les corps dans son extension. L’idée d’un Univers en expansion (ou en contraction) n’a rien d’évident ni de simple, et lorsqu’Albert Einstein prit connaissance des travaux de Friedmann il écrivit la phrase suivante (avant de la raturer) au Zeitschrift für Physik : il est « à peine possible d’attribuer une signification physique » à ces équations de Friedmann (Balibar 1993, 105). Mais alors pourquoi les accepte-t-on aujourd’hui et comment l’expansion de l’Univers est-elle devenue l’un des faits les plus sûrs de la science cosmologique ?

Pour répondre à ces questions, il faut faire référence aux premières observations astronomiques pertinentes pour la cosmologie. Dès les années 1910, plusieurs astronomes dont l’étatsunien Vesto Slipher réalisèrent des spectres de galaxies, c’est-à-dire une décomposition de la lumière provenant de ces objets. Ces spectres étaient presque tous décalés vers le rouge. Or, de même qu’une sirène de pompier devient de plus en plus grave au fur et à mesure que le camion s’éloigne de nous parce que l’éloignement de la source allonge la longueur des ondes sonores, de même lorsqu’une source lumineuse s’éloigne de nous la longueur des ondes électromagnétiques s’allonge et la lumière se décale vers l’extrémité rouge du spectre lumineux : c’est l’effet Doppler-Fizeau. Ainsi, les spectres recueillis par les astronomes au début du xxe siècle pouvaient être interprétés comme une récession des galaxies par rapport à notre point d’observation, la Voie Lactée (voir article « Cosmologie (GP) »).

Cependant, jusqu’au milieu des années 1920, on n’était pas certain que les objets nébuleux dont on mesurait le spectre existaient en dehors de notre galaxie et regroupaient des milliards d’étoiles comme notre galaxie. Il ne devint possible de mesurer leur distance que lorsque l’astronome étatsunien Edwin Hubble utilisa la relation découverte par Henrietta Leavitt entre la luminosité et la périodicité des étoiles Céphéides. Cette capacité à déterminer la distance des galaxies permit à Edwin Hubble de mesurer le rapport entre la distance et la vitesse de récession des galaxies en 1929. Il aboutit au résultat suivant, connu sous le nom de relation de Lemaître-Hubble :

  1.  

où est la distance d’une galaxie en mégaparsec (Mpc), sa vitesse de récession en kilomètre par seconde (km/s) et un paramètre de proportionnalité (en Mpc/km/s) appelé paramètre de Hubble ( est la valeur de ce paramètre à l’époque actuel). Autrement dit : plus une galaxie est lointaine, plus elle s’éloigne rapidement de nous. Si cette relation porte aussi le nom de Lemaître depuis 2018, c’est qu’elle avait été prédite en 1927 par Georges Lemaître à partir de l’équation de Friedmann-Lemaître (6). En effet, peut être interprété comme le taux d’expansion (ou de contraction) de l’Univers à notre époque, c’est-à-dire comme le rapport entre la variation du facteur d’échelle et sa valeur actuelle :

 

Si l’on considère que la courbure de l’Univers, sa densité et la constante cosmologique sont constantes à un temps donné de l’histoire de l’Univers, alors l’équation (6) donne :

  1. = constante

D’où l’on tire que constante. Puisque cela implique que la vitesse de récession des galaxies doit être directement proportionnelle à leur distance. Ainsi Georges Lemaître expliqua la récession des galaxies comme l’effet de l’expansion de l’espace dans un Univers dynamique qui a pour conséquence que plus un objet est lointain, plus il s’éloigne de nous rapidement (voir figure 2).
 

Figure 2. L’explication de la fuite des galaxies par Georges Lemaître est la suivante. Supposons que les galaxies sont disposées sur une grille représentant l’espace, et que chaque segment de cette grille est en expansion entre t=0 et t=1. Entre ces deux instants, la galaxie C s’est plus éloignée de la galaxie A que la galaxie B, parce qu’elles sont séparées de trois segments, alors que A et B ne sont séparées que de deux segments. Chaque segment augmentant d’une même grandeur entre t=0 et t=1, un observateur placé en A aura l’impression que la galaxie C fuit plus vite de lui que la galaxie B puisqu’en un temps égal elle s’est plus éloignée. Pourtant A n’est pas au centre de la grille. Ainsi, même un observateur qui n’est pas au centre de l’Univers observe une vitesse de fuite des galaxies proportionnelle à leur distance.

Ainsi, les observations d’Edwin Hubble semblent être prédites et expliquées de manière simple et élégante par un modèle d’Univers en expansion. Cette prédiction de Lemaître passa presque inaperçue lors de sa publication en 1927, et ce n’est qu’en 1930, lorsqu’il contacta son ancien professeur, l’astronome britannique Arthur Eddington, que son modèle (connu aujourd’hui sous le nom d’ « Eddington-Lemaître ») fut diffusé dans la communauté des cosmologistes. C’est la simplicité de l’explication de la récession des galaxies dans ce modèle qui convainquit la communauté des cosmologistes de se convertir aux modèles d’Univers dynamique au début des années 1930, comme en témoigne cette affirmation de Willem de Sitter dans une courte note parue dans Nature : « une solution d’une simplicité telle qu’elle apparaisse évidente d’elle-même [...] ne peut laisser le moindre doute que la théorie de Lemaître est essentiellement vraie » (de Sitter 1931, 707).

Ce cas met cependant en lumière le problème lié à l’interprétation des données d’observation en cosmologie et à la notion de simplicité en particulier. En effet, en cosmologie comme en physique en général, il est impossible d’interpréter les données d’observation sans un modèle théorique, c’est-à-dire un ensemble d’hypothèses qui permettent de convertir les grandeurs observées (les angles, la luminosité, les durées, les spectres lumineux, etc.) en grandeurs caractéristiques du système (sa taille, sa masse, sa densité, son âge, etc.). Mais comment justifier que le modèle théorique que l’on utilise est le bon ? À l’époque où écrit Willem de Sitter, par exemple, la « théorie de Lemaître » n’était pas la seule manière d’interpréter les observations d’Edwin Hubble. Celui-ci n’a d’ailleurs jamais adhéré à l’idée d’un Univers en expansion et préférait celle d’une récession apparente plutôt que réelle des galaxies. D’autres explications virent rapidement le jour, comme celle dite de la « lumière fatiguée », selon laquelle le décalage vers le rouge serait dû à une perte d’énergie des rayons lumineux au cours de leur voyage à travers l’espace (Kragh 2007, 163-164). Même si aujourd’hui ces théories sont considérées comme réfutées, il n’y avait aucune raison de leur préférer celle d’un Univers en expansion en 1931, si ce n’est qu’elle paraît plus simple, comme le dit Willem de Sitter.

Or la simplicité, telle la beauté selon Keats, réside dans l’œil de celui qui la contemple. Si Willem de Sitter considérait que l’expansion de l’Univers était l’explication la plus simple de la récession des galaxies, ce n’était pas le cas d’autres scientifiques. Milne, par exemple, développa un modèle dans lequel ce n’était pas l’espace qui était en expansion, mais les galaxies elles-mêmes au sein d’un espace euclidien statique, argumentant que son explication était bien plus simple que d’imaginer un espace en expansion doté d’une réalité physique (Milne 1932, 9). Comment trancher lequel de ces deux modèles d’Univers est le plus simple ? N’est-ce qu’une question de préférences esthétiques et subjectives ?

Le philosophe et historien des sciences Thomas Kuhn a consacré un article intitulé « Objectivité, jugement de valeur et choix d’une théorie » à ces critères que les scientifiques utilisent pour choisir entre différentes hypothèses, modèles ou théories comme la simplicité. Il étudie en particulier la controverse entre le modèle copernicien héliocentrique et le modèle ptoléméen géocentrique au xvie siècle et soutient que, contrairement à ce qui a été suggéré plus tard par Galilée, le modèle copernicien n’était plus simple que dans un sens bien précis du terme simplicité ; « mais ce sens du terme simplicité n’était pas le seul disponible, ni même le plus naturel pour les astronomes professionnels dont la tâche était de calculer la position des planètes » (Kuhn 1990, 424). Le cas du choix entre les différentes explications de la récession des galaxies est similaire : les modèles d’Univers en expansion décrits par les équations de Friedmann-Lemaître ne sont les plus simples que si l’on considère le concept d’un espace relationnel et dynamique comme une généralisation de celui d’espace euclidien, ce qui est loin d’aller de soi.

Ainsi, utiliser la notion de simplicité pour choisir un modèle d’Univers est problématique parce que c’est une notion polysémique et en partie définie subjectivement. Mais même si l’on pouvait s’accorder sur une définition précise de la simplicité, il n’en découlerait pas pour autant que le modèle le plus simple serait « essentiellement vrai » comme le soutenait Willem de Sitter à propos de la théorie de Lemaître. En effet, comme le fait remarquer le philosophe Larry Laudan, d’une part une vertu théorique comme la simplicité peut très bien appartenir à une théorie fausse, et d’autre part une théorie vraie, même si elle est simple, peut avoir des conséquences complexes (Laudan 2004, 18). Or ces conséquences seront elles aussi vraies puisque la relation d’implication conserve la vérité. Il y a donc des modèles complexes et vrais. Autrement dit, les notions de vérité et de simplicité ne se recouvrent pas logiquement parce que l’on attend bien plus des théories scientifiques que leur simple vérité et que donc certaines vertus théoriques ne sont pas synonymes de vérité.

Le problème lié à l’utilisation de la simplicité pour trancher entre des modèles alternatifs renvoie ainsi à un problème plus général : la difficulté de choisir entre différents modèles cosmologiques sur le seul fondement des observations astronomiques. Ce problème, dit de la sous-détermination empirique, existe dans différentes sciences mais affecte particulièrement la cosmologie, notamment en raison de la structure des équations de Friedmann-Lemaître.

La sous-détermination empirique des modèles cosmologiques

Examinons l’équation (6), la deuxième des équations de Friedmann-Lemaître :

 

Cette équation relie quatre paramètres dits « cosmologiques » parce qu’ils permettent de décrire l’évolution de l’Univers à une époque  donnée :

  • , le paramètre de Hubble qui mesure le taux d’expansion de l’Univers

  • , la densité en matière et en énergie de l’Univers

  • le signe de la courbure de l’Univers

  • la constante cosmologique

Parmi la classe des modèles d’Univers dits « FLRW », parce qu’ils sont fondés sur la métrique de Robertson-Walker d’une part, et sur les équations de Friedmann-Lemaître de l’autre, on parle de modèle d’Univers relativiste pour désigner un ensemble de valeur pour chacun de ces paramètres (voir figure 3). Par exemple le modèle d’Einstein décrit dans la première section consiste à fixer un et tel que pour un Univers à courbure positive et le modèle de de Sitter arrive au même résultat en supposant en outre que (comme l’a montré le physicien britannique Arthur Eddington en 1930, ces solutions sont instables, ce qui est une preuve supplémentaire en faveur des Univers dynamiques). Un autre modèle possible est celui d’Eddington-Lemaître avec une constante cosmologique positive, une densité décroissante et une courbure positive : cet Univers évolue à partir d’un état proche du modèle d’Einstein et se stabilise quand sa densité est devenue si faible qu’elle est négligeable. On utilise aussi souvent le modèle Einstein-de Sitter qui consiste à fixer et à zéro pour montrer que si l’on fait cette supposition, apparemment simple, alors l’expansion de l’Univers est une conséquence des équations de la relativité générale – qu’Einstein considérait comme l’une des meilleures preuves de sa théorie.

Figure 3. Différents modèles d’Univers selon l’évolution de leur rayon (en ordonnées) dans le temps (en abscisses). Les modèles d’Einstein et de de Sitter sont des modèles statiques, avec une constante cosmologique et une courbure positive, mais celui de de Sitter a une densité proche de zéro (ce qui équivaut à un rayon et donc un volume important). Le modèle d’Eddington-Lemaître est un modèle éternel mais qui a une phase d’expansion le faisant transiter d’un Univers d’Einstein à un Univers de de Sitter. Le modèle que développa plus tard Georges Lemaître et qui porte son seul nom a une origine dans le temps et une son expansion s’accélère au bout d’un certain temps. Le modèle actuel comporte une phase d’inflation (voir section 4.a) peu de temps après son origine. La question de savoir si cette origine est un événement réel ou un artefact théorique est encore débattue (voir section 3.a). Ce schéma est purement illustratif et ne respecte aucune échelle.

Pour trier entre ces différents modèles, la procédure semble claire et directe : il suffit de mesurer au moins trois de ces paramètres afin de déterminer quel modèle d’Univers correspond à la réalité. Mais en réalité une telle procédure n’a rien de simple : les paramètres cosmologiques ne se laissent pas mesurer si aisément parce qu’ils sont interdépendants.

Par exemple, pour mesurer le taux d’expansion de l’Univers , on peut, comme on l’a vu, comparer le décalage spectral vers le rouge des objets lointains à leur distance. Mais leur distance réelle dépend de la courbure de l’Univers dont l’effet se fait sentir à de larges distances (Hogg 1999). Cette courbure elle-même dépend de la densité de l’Univers et de la constante cosmologique . Or n’est mesurable que par ses effets sur l’expansion de l’Univers et dépend du volume et donc de la géométrie de l’Univers. On peut certes mesurer ces paramètres pour l’Univers observable proche, mais il est délicat d’extrapoler ces résultats pour l’Univers lointain, c’est-à-dire pour l’Univers jeune. En effet, en raison de la vitesse finie de la lumière, lorsqu’on observe un objet lointain on l’observe tel qu’il était à l’époque où il a émis sa lumière, donc plus un objet est lointain plus on le voit tel qu’il était longtemps auparavant – on observe un objet situé à un milliard d’années-lumière de nous tel qu’il était il y a un milliard d’années. Ainsi, lorsqu’on observe l’Univers lointain on observe un Univers plus jeune que celui qui nous entoure et qui n’avait pas la même densité ni la même courbure.

On se retrouve donc dans la situation où les mêmes mesures d’un ou plusieurs de ces paramètres peuvent être interprétées dans le cadre de différents modèles cosmologiques donnant des valeurs différentes de ces paramètres cosmologiques. Une telle situation où les données d’observations ne peuvent trancher entre des modèles théoriques alternatifs est connue sous le nom de « sous-détermination empirique ». Ce problème a été mis en lumière par le physicien et philosophe Pierre Duhem (1906) et développé par le logicien étatsunien Willard Van Oman Quine (1975) : il consiste à faire remarquer qu’il n’existe pas une seule théorie ou hypothèse compatible avec un ensemble d’observations données. Comme le fait remarquer Duhem, « une infinité de faits théoriques différents peuvent être pris pour traduction d’un même fait pratique » (Duhem 1906, partie II, chapitre 3, §1), non seulement parce que chaque observation a une marge d’erreur qui laisse la place à plusieurs descriptions théoriques différentes, mais aussi parce que, si l’expérience peut contraindre certains modèles en montrant qu’ils sont incompatibles avec les observations, cela ne suffit pas à déterminer un seul et unique modèle comme valide :

La contradiction expérimentale n’a pas, comme la réduction à l’absurde employée par les géomètres, le pouvoir de transformer une hypothèse physique en une vérité incontestable ; pour le lui conférer, il faudrait énumérer complètement les diverses hypothèses auxquelles un groupe déterminé de phénomènes peut donner lieu ; or, le physicien n’est jamais sûr d’avoir épuisé toutes les suppositions imaginables. (Duhem 1906, partie II, chapitre 6, §3)

Toutes les sciences empiriques sont susceptibles, en droit, de rencontrer ce problème, mais il semble particulièrement inévitable dans les sciences d’observatoire comme la cosmologie ou l’astronomie parce qu’il n’y est pas possible de manipuler les objets que l’on étudie en laboratoire afin de récolter de nouvelles données qui pourraient permettre de trancher entre les modèles théoriques équivalents. Ainsi, en cosmologie, non seulement il existe une sous-détermination entre les différents modèles FLRW, mais aussi entre les modèles FLRW et les modèles qui reposent sur d’autres métriques (Univers inhomogènes) ou sur d’autres théories que la relativité générale (comme le modèle de Milne).

Cependant, il ne faut pas en conclure pour autant que les observations ne jouent aucun rôle en cosmologie et qu’elles sont incapables d’exclure certains modèles au profit d’autres. Il existe en effet différents types de sous-détermination (Ladyman 2012, 162-194) :

  • Si deux modèles ont exactement les mêmes conséquences empiriques et que chacun peut rendre compte des mêmes observations que son rival (soit parce que ce sont deux versions de la même théorie, soit parce qu’il est toujours possible de leur ajouter des hypothèses auxiliaires pour ajuster leur contenu empirique) il s’agit d’une sous-détermination en droit : on ne peut choisir entre eux uniquement sur la base d’observations.

  • Si les deux modèles n’ont pas les mêmes conséquences empiriques mais que l’on n’a pas les moyens techniques ou financiers de tester leurs prédictions qui divergent, il s’agit d’une sous-détermination en pratique : rien n’empêche que dans l’avenir les observations tranchent entre les différents modèles.

La cosmologie est devenue une science empirique en passant d’une sous-détermination en droit à une sous-détermination en pratique, et même s’il existe toujours des modèles concurrents et alternatifs pour interpréter les données d’observation, cela n’empêche pas que des tests et mesures astronomiques permettent de réfuter certains modèles voire certaines classes de modèles. Par exemple, dans les années 1930, les modèles FLRW et le modèles de Milne étaient empiriquement équivalents parce qu’ils rendaient tous compte de la récession de la galaxie. Mais, dans le modèle de Milne, cette récession est due au fait que chaque galaxie a une vitesse intrinsèque qui ne varie pas : le taux d’expansion est donc constant. Par contre, dans les modèles FLRW, la récession des galaxies est accélérée par les galaxies et le taux d’expansion n’est pas nécessairement constant. La divergence entre ces deux prédictions nécessitait de tester la relation de Hubble à de grandes distances pour pouvoir trancher entre les modèles FLRW et de Milne, ce qui était impossible à l’époque. Mais grâce à de nouvelles méthodes pour mesurer les distances dans l’Univers, notamment en utilisant les courbes de luminosité des supernovae de type Ia, il est aujourd’hui possible de mesurer le taux d’expansion de l’Univers à de grandes distances – c’est ainsi que l’on en est arrivé à la conclusion d’une accélération de l’expansion de l’Univers à la fin des années 1990. Il est donc possible d’utiliser ces observations pour rejeter le modèle de Milne, même si elles sont compatibles avec plusieurs modèles FLRW empiriquement équivalents.

Ainsi, l’ingéniosité des astronomes à inventer de nouvelles méthodes pour estimer les différents paramètres cosmologiques de plus en plus précisément (en utilisant des lentilles gravitationnelles pour mesurer ou le fond diffus cosmologique pour estimer par exemple) permet bien de résoudre certaines sous-déterminations empiriques en cosmologie. Peut-on en conclure qu’il n’existe que des cas de sous-détermination en pratique et aucun en droit dans cette science ? Cela fait toujours l’objet de débats, notamment en ce qui concerne les différents modèles d’inflation (voir section 4.a), mais cela n’empêche pas que les observations sont bien en cosmologie, comme dans les autres sciences physiques, « la Cour d’appel suprême » (Eddington 1939, 9) pour juger de la validité d’une hypothèse.
 

Big Bang, singularité et origine de l’Univers

Deux problèmes des modèles d’Univers avec origine temporelle

L’acception du phénomène d’expansion de l’Univers mène naturellement à se demander si l’Univers a eu une origine temporelle. Il faut cependant noter qu’un Univers peut être en expansion sans avoir de commencement. Le modèle de Lemaître-Eddington, par exemple, est en expansion à partir d’un état stable qui s’étend indéfiniment dans le passé (voir figure 3). Arthur Eddington considérait lui-même que « philosophiquement la notion d’un début de l’ordre présent de la Nature [le] répugne » (cité par Kragh 2007, 153). À la même époque, Georges Lemaître fut l’un des premiers à concevoir un modèle dans lequel l’Univers avait une origine temporelle, appelé modèle de Lemaître ou modèle de l’atome primitif parce que toute la matière de l’Univers était contenue dans un atome qui, se scindant par fission nucléaire, aurait donné naissance aux structures stellaires galactiques (Lemaître 1948).

Cette divergence de vue entre Arthur Eddington et son ancien étudiant illustre les problèmes que rencontre la cosmologie qui cherche à se projeter vers un état originaire de l’Univers : d’une part, il semble y avoir des difficultés philosophiques à traiter scientifiquement du commencement de l’Univers ; d’autre part, si l’Univers avait des dimensions plus petites par le passé, alors il ne suffit plus d’invoquer la seule théorie de la relativité générale pour le décrire (voir section 1.b).

En effet, dans un modèle d’Univers en évolution dont la quantité de matière est constante, si l’on remonte dans le passé la densité et la température augmentent jusqu’à atteindre des niveaux suffisants pour que s’enclenchent des réactions thermonucléaires. La théorie qui décrit ces réactions est celle de la nucléosynthèse primordiale, formulée par trois scientifiques étatsuniens en 1948 : Robert Herman, George Gamow et Ralph Alpher. L’équation fondamentale de cette théorie est la suivante :

où est le nombre relatif de noyaux de poids atomique , est la section efficace (la grandeur permettant de calculer la probabilité d’interaction d’une particule) des noyaux de poids atomique et une fonction caractérisant la baisse de la densité au cours du temps. Autrement dit, cette théorie permet de calculer, à partir des sections efficaces des noyaux atomiques, les abondances relatives d’éléments chimiques qui ont été produites tant que l’Univers était suffisamment condensé pour que ces réactions aient lieu. Elle permet donc de prédire les abondances de ces éléments dans l’Univers actuel et l’énergie dégagée par ces réactions thermonucléaires qui doit nous parvenir aujourd’hui sous forme d’un rayonnement isotrope, puisqu’il émane de l’Univers dans son entier, et froid, puisqu’il a été refroidi par l’expansion de l’Univers. Mais cette théorie ne dit rien sur l’origine, à proprement parler, de la matière dans l’Univers : elle ne fait que supposer que l’Univers a commencé avec un mélange de protons, de neutrons et d’électrons appelé « Ylem » par George Gamow.

C’est notamment sur ce point que cette théorie fut critiquée par les partisans d’une théorie rivale nommée « théorie de l’état stationnaire », formulée en 1948, par trois physiciens britanniques : Hermann Bondi, Thomas Gold et Fred Hoyle. C’est ce dernier qui, dans une série de conférences radiophoniques, donna ironiquement à la théorie de la nucléosynthèse le nom qu’on lui connait aujourd’hui de « théorie du Big Bang » :

Je ne vois aucune raison de préférer l’idée d’un Big Bang. Il me semble qu’il s’agit en réalité d’une notion très peu satisfaisante, en un sens philosophique, car elle place son hypothèse principale hors de vue, là où elle ne peut jamais être défiée par aucun appel direct à l’observation. (Hoyle 1950)

La théorie de l’état stationnaire répond aux deux problèmes de l’origine de l’Univers de manière radicalement différente : elle suppose que la densité de l’Univers est constante parce qu’il existe un mécanisme continu de création de matière compensant la baisse de densité due à l’expansion de l’Univers (voir figure 4).

Figure 4. En haut : la théorie de la nucléosynthèse primordiale (dite du Big Bang) conçoit un Univers en expansion dont la densité décroit avec le temps. Cela signifie que si l’on remonte le temps, on arrive à un moment où l’Univers était suffisamment dense (et donc chaud) pour que des réactions thermonucléaires aient lieu. En bas : la théorie de l’état stationnaire, aujourd’hui considérée comme réfutée, concevait un Univers en expansion, mais avec une création continue de matière qui compensait cette expansion, ce qui fait que la densité de l’Univers restait constante au cours du temps.

Une telle hypothèse peut paraître très audacieuse puisqu’elle demande de modifier l’équation de champ de la relativité générale en lui rajoutant un tenseur de création de matière qui viole explicitement le principe de la conservation de l’énergie. Cependant, pour les théoriciens du modèle de l’état stationnaire, cette hypothèse a deux avantages. D’une part elle a des conséquences aisément testables parce qu’elle prédit que l’aspect de l’Univers doit être le même dans le passé et dans le présent : c’est ce que les partisans de l’état stationnaire nomment le « principe cosmologique parfait ». D’autre part, elle a le mérite de faire de la création de matière une question scientifique et non métaphysique. En effet, Fred Hoyle, Hermann Bondi et Thomas Gold connaissaient l’épistémologie de Karl Popper (c’est notamment Hermann Bondi qui s’occupa de la recension de La Logique de la découverte scientifique dans le British Journal for Philosophy of Science lorsque la traduction anglaise de cet ouvrage parut en 1959) selon laquelle le critère de démarcation entre les systèmes métaphysiques et scientifiques est la réfutabilité : un système d’énoncé est scientifique s’il peut être réfuté lorsque au moins une de ses conséquences est contredite par des observations. Même si ce critère de démarcation est aujourd’hui considéré comme au mieux discutable par les philosophes des sciences (voir ci-dessous et Kragh 2013), il a connu – et connait toujours – un certain succès parmi les scientifiques, notamment parce qu’il permet d’attaquer ou de défendre la scientificité d’une hypothèse. Ainsi, lorsque Fred Hoyle, dans la citation donnée ci-dessus, affirme que la théorie du Big Bang « place son hypothèse principale hors de vue, là où elle ne peut jamais être défiée par aucun appel direct à l’observation », il formule une critique poppérienne consistant à qualifier cette théorie comme irréfutable et donc métaphysique plus que scientifique.

La théorie de l’état stationnaire, au contraire, avait l’avantage de décrire un processus de création continue de matière toujours à l’œuvre dans l’Univers actuel et donc réfutable par des observations astronomiques. Et elle fut effectivement abandonnée dans les années 1960 suite à une série de découvertes prouvant que l’aspect de l’Univers était différent par le passé : les relevés de sources radio, la détection des premiers quasars, les mesures d’abondances d’hélium dans l’Univers et la découverte du fond diffus cosmologique (sur ces découvertes et la controverse entre théorie de l’état stationnaire et théorie du Big Bang, voir Kragh 1999). Le fond diffus cosmologique est un rayonnement micro-onde isotrope (qui nous parvient de toutes les régions du ciel) découvert en 1965 par les radioastronomes étatsuniens Arno Penzias et Robert Wilson qui correspond à la première lumière de l’Univers : d’après les modèles d’Univers en évolution, il fallut attendre environ 380 000 ans après la nucléosynthèse primordiale que la densité de l’Univers baisse suffisamment pour que les photons puissent se découpler de la matière, c’est-à-dire que des photons puissent être émis sans être immédiatement réabsorbés par des particules baryoniques (c’est ce que l’on appelle le « découplage », voir figure 5). Ce rayonnement émis par tout l’Univers est donc la preuve que celui-ci était différent dans le passé, ce qui va directement à l’encontre des prédictions de l’état stationnaires et confirme la prédiction de la théorie de la nucléosynthèse.

 

 

Figure 5. À gauche : avant le découplage, la densité de l’Univers est telle qu’aucun photon ne peut être émis sans être rapidement absorbé. À droite : à l’instant du découplage, la densité est assez faible pour qu’un premier rayonnement s’échappe de la matière et atteigne l’observateur en . L’expansion du facteur d’échelle , c’est-à-dire de l’espace, fait baisser la fréquence et donc la température de ce rayonnement. Le schéma n’est pas à l’échelle : les distances à l’époque du découplage étaient environ 1 100 fois plus petites qu’aujourd’hui.

Contrairement à ce qui est souvent répété (Brush 1993), la découverte du fond diffus cosmologique ne fut pas considérée comme une réfutation définitive de l’hypothèse de l’état stationnaire par les partisans de cette théorie. Hoyle, notamment, continua à soutenir sa théorie en la modifiant pour rendre compte de ces nouvelles découvertes, ce qui révèle le problème principal du critère de réfutabilité de Popper : il est toujours possible d’éviter une réfutation par les observations en critiquant les hypothèses qui permettent d’interpréter les observations ou en rajoutant des hypothèses auxiliaires à la théorie (voir section 4.a sur ce problème). Cependant, pour la grande majorité des cosmologistes, la théorie du Big Bang devint, à la fin des années 1960, le modèle standard de la cosmologie.

Avec cette théorie, les cosmologistes peuvent répondre au problème de savoir quelle théorie on doit appliquer aux premiers instants de l’Univers en plus de la gravitation : la théorie qui décrit les interactions de la matière à des échelles atomiques, c’est-à-dire la physique quantique. Mais peut-on aussi, dans le cadre de la théorie du Big Bang, répondre aux difficultés philosophiques liées au fait de penser un instant zéro de l’Univers ?

L’une de ces difficultés est exposée dans la Critique de la Raison Pure : le philosophe Emmanuel Kant considère que l’on ne peut trancher la question de savoir si le monde a une origine temporelle parce que le monde n’est pas un concept de l’entendement mais une idée de la raison pure obtenue en cherchant à penser une totalité inconditionnée (voir article « Cosmologie (GP) »). Ainsi, dans la première des antinomies de la raison pure, l’argument contre l’existence d’un début temporel du monde est qu’ « étant donné que le commencement est une existence que précède un temps où la chose n’est pas, il faut qu’il y ait eu antérieurement un temps où le monde n’était pas, un temps vide » ; or dans un tel temps vide il n’y aurait aucune raison que le monde commence à un instant plutôt qu’un autre, donc « le monde lui-même ne peut avoir aucun commencement » (Kant 1787, 431).

Mais, comme on l’a vu au sujet de l’espace, cet argument suppose que le temps ne soit pas un paramètre physique comme les autres : c’est, dans la philosophie kantienne, une forme a priori de la sensibilité et non une grandeur empirique dont il faudrait déterminer la structure par des expériences. Si l’on abandonne cette conception du temps avec celle d’espace a priori en acceptant la théorie de la relativité générale, il n’est plus absurde de se demander si le temps a un commencement. Comme le fait remarquer le physicien étatsunien Steven Weinberg dans son ouvrage Dreams of a Final Theory :

Il est vrai, par exemple, que dans notre expérience ordinaire, quelle que soit la température, il peut toujours faire plus froid : mais il existe un zéro absolu et l’on ne peut pas atteindre des températures en-deçà du zéro absolu non parce que nous ne sommes pas suffisamment intelligents mais parce que les températures en-dessous du zéro absolu n’ont simplement aucun sens. (Weinberg 1994, 173)

Si l’on suit l’analogie de Weinberg, alors il devrait exister en cosmologie l’équivalent du calcul qui, en physique statistique, permet de démontrer qu’il existe un zéro absolu. Et il existe en effet certains théorèmes dits de « singularité », démontrés dans les années 1960 par Stephen Hawking, Roger Penrose et George Ellis, qui prouvent que si l’on applique la théorie de la relativité générale à certains systèmes – dont l’Univers – alors il apparaît des singularités, c’est-à-dire des points de l’espace-temps où certaines quantités comme la densité deviennent infinies.

Ce concept de singularité doit cependant être abordé avec précaution : non seulement il existe d’autres singularités que primordiales (les trous noirs), mais en plus une singularité primordiale n’indique pas nécessairement une origine du temps. D’une part, rien ne prouve que l’expansion de l’Univers ne succède pas à une phase de contraction antérieure : il existe des modèles d’Univers cycliques compatibles avec les observations et théoriquement féconds. D’autre part, le concept de singularité peut être interprété comme une réalité physique mais aussi comme la marque de notre ignorance : pour décrire comment se comporte la matière et l’espace-temps à de telles échelles de densité, il faudrait disposer d’une théorie qui combine à la fois la relativité générale (qui décrit ce qui arrive à des corps dans des champs gravitationnels) et la physique quantique (qui décrit ce qui arrive aux corps à des échelles atomiques). Or ces deux théories sont actuellement incompatibles. Mais il est possible qu’une théorie physique dite de « gravitation quantique » puisse faire disparaître ces singularités de notre description de l’Univers – c’est d’ailleurs un problème philosophique actuel que de savoir si la future théorie subsumant mécanique quantique et relativité générale devrait ou non faire disparaître ces singularités.

Ainsi, les deux problèmes de l’origine de l’Univers restent actuellement ouverts aussi bien philosophiquement que scientifiquement. On peut cependant conclure, à partir de l’état de la science cosmologique actuelle (comme on le montre dans l’article « Cosmologie (GP) »), que le concept de Big Bang ne se confond pas avec celui de création religieuse ex nihilo (bien que cette confusion soit souvent faite, et pas seulement par le grand public) : même l’abbé George Lemaître, lorsqu’il était conseiller scientifique au Vatican, s’était opposé à une telle interprétation (Lambert 2000, 57) non seulement parce qu’elle confond ce qui est de l’ordre de la croyance religieuse et de la connaissance scientifique, mais aussi parce que, comme on l’a vu, la théorie du Big Bang n’implique pas logiquement celle d’une création de l’Univers à partir de rien, et encore moins celle d’une création à partir d’une intention divine.

Le problème des conditions initiales de l’Univers

Modéliser l’Univers comme un système ayant une origine dans le temps mène à d’autres problèmes conceptuels qui sont moins évidents que ceux détaillés ci-dessus mais tout aussi importants pour la cosmologie moderne. Leur point commun est d’être tous des problèmes liés aux conditions initiales de l’Univers. En effet, si l’Univers a un commencement dans le temps, alors il a certaines conditions initiales comme tout autre système physique, c’est-à-dire certaines valeurs de ses paramètres à l’instant t = 0.

Or il est apparu, grâce à des observations réalisées dans les années 1970 et 1980, que ces conditions initiales de l’Univers étaient surprenantes. D’une part, la courbure de l’Univers est proche de zéro, ce qui est étonnant puisque la courbure de l’Univers évolue en même temps qu’il s’étend (si ), comme on peut le voir avec l’équation (6). Le cas est donc un cas instable, et si la courbure actuelle de l’Univers est presque nulle, cela semble indiquer que l’Univers a commencé avec une courbure encore plus proche de zéro qu’elle ne l’est actuellement. Il semble étonnant que parmi les valeurs possibles de , l’Univers ait précisément commencé avec une valeur si spécifique. C’est le problème dit de la « courbure » (ou de la « platitude » pour traduire l’expression anglaise « flatness problem »).

Un autre problème du même genre concerne la densité et la température de l’Univers. Lorsqu’on mesure la température du fond diffus cosmologique, qui permet d’estimer les contrastes de densité de l’Univers 380 000 ans après le Big Bang, on s’aperçoit que l’Univers est très isotrope, c’est-à-dire qu’il règne à peu près la même température partout dans le fond diffus cosmologique. Les quelques variations de température sont de l’ordre du microkelvin, alors que la température moyenne du fond diffus cosmologique est de l’ordre du kelvin : c’est comme si les seules vagues que l’on observait à la surface d’une piscine étaient d’une taille d’un micromètre. Cette isotropie est surprenante parce que les différentes régions du fond diffus cosmologique sont tellement éloignées les unes des autres qu’elles n’ont pas pu être en contact depuis la naissance de l’Univers. En effet, la vitesse de la lumière étant la vitesse maximale dans l’Univers, on peut calculer, pour chaque point du fond diffus cosmologique, avec quels autres points il a eu le temps d’être mis en relation depuis le début de l’expansion de l’Univers : c’est ce que l’on appelle son horizon causal. L’horizon d’un point du fond diffus cosmologique correspond à un disque d’environ 2 degrés de rayon. Il aurait donc fallu que l’Univers ait commencé en ayant partout la même densité et la même température pour que l’on observe une telle isotropie du fond diffus cosmologique. C’est le problème dit de « l’horizon ».

Ces deux problèmes de l’horizon et de la courbure sont particulièrement connus parce qu’une nouvelle hypothèse cosmologique connue sous le nom de « théorie de l’inflation », fut proposée au début des années 1980 pour les résoudre (voir section 4.a). Mais ce ne sont pas les seuls problèmes liés aux conditions initiales de l’Univers. Dès les années 1970, le physicien britannique Roger Penrose avait fait remarquer qu’une des caractéristiques de la singularité de l’Univers était d’avoir donné lieu à une entropie très faible. Définie statistiquement, l’entropie est une grandeur d’un système physique qui dépend du nombre de micro-états qui peuvent réaliser son état macroscopique. Autrement dit, plus l’entropie d’un système est élevée, plus il est homogène et plus ses constituants sont mélangés et peu hiérarchiquement ordonnés. Le propre de l’entropie, selon le second principe de thermodynamique, est qu’elle augmente toujours avec le temps : il n’existe presqu’aucune probabilité qu’un système passe d’un état d’entropie élevé à un état d’entropie plus faible, et c’est pour cela que l’on voit les glaçons fondre dans les verres d’eau mais pas de glaçon se reconstituer tout seul dans un verre à température ambiante. C’est pourquoi on parle de « flèche du temps » : l’évolution des systèmes physiques se fait dans un sens, celui de l’augmentation de l’entropie, et n’est pas réversible. Mais puisque l’entropie de l’Univers actuel est faible, si l’on ne suppose pas que l’Univers a commencé avec une entropie encore plus faible, alors on ne peut pas expliquer l’asymétrie de la flèche du temps (Penrose 1979). L’Univers a donc commencé avec pour condition initiale une entropie extrêmement faible, sans que l’on puisse expliquer cette particularité. C’est le problème dit de « l’entropie cosmique ».

On peut même généraliser ces problèmes de conditions initiales si l’on considère, comme le font certaines hypothèses spéculatives, que les constantes et les lois de la physique sont susceptibles de varier. On rencontre alors le problème dit de « l’ajustement fin » (pour traduire l’expression anglaise fine tuning) : les constantes et les lois physiques semblent être très finement ajustées pour permettre l’apparition d’êtres vivants complexes, comme l’être humain. Le rapport entre les interactions électromagnétique et gravitationnelle, par exemple, doit être de , sinon il ne pourrait pas apparaître de grandes structures comme des étoiles et des planètes sur lesquelles apparaissent des structures chimiques nécessaires à la vie. Mais pourquoi aurait-elle précisément cette valeur plutôt qu’une autre ? Le physicien britannique Martin Rees considère ainsi que six des constantes et conditions initiales de l’Univers doivent être finement ajustées pour que la vie puisse apparaître (Rees 1999). Le physicien étatsunien Craig Hogan, élève de Rees, estime, lui, que 5 des 19 paramètres libres du modèle standard de la physique des particules doivent être fortement contraints pour que des structures complexes puissent apparaître (Hogan 2000).

On revient dans la section 4.b sur ce problème de l’ajustement fin et du raisonnement anthropique qui le sous-tend. Mais il faut tout d’abord remarquer qu’il n’est pas sûr que ces problèmes liés aux conditions initiales de l’Univers soient des problèmes réellement scientifiques, parce que la notion de conditions initiales de l’Univers est très différente de celle de conditions initiales d’autres systèmes : c’est là le problème épistémologique des conditions initiales de l’Univers. En effet, les conditions initiales typiques de l’Univers ne peuvent être déterminées ni expérimentalement ni théoriquement (voir figure 6) : nous n’avons ni un accès empirique aux conditions initiales de l’Univers – puisque nous ne disposons que d’un seul exemplaire de celui-ci et que nous ne pouvons pas pour l’instant remonter au-delà de la période du découplage – ni un accès théorique – puisque nous ne disposons pas de théorie physique applicable aux conditions de l’Univers très jeune. Il est donc impossible de savoir quelles conditions initiales de l’Univers sont plus probables que d’autres. Par conséquent, il n’y a aucune raison théorique ni empirique de ne pas croire que l’Univers ait commencé avec une courbure proche de zéro, une densité très homogène ou une entropie très faible, car même si cela heurte notre intuition on ne peut savoir si ces conditions initiales sont réellement peu probables.

 

 

Figure 6. Imaginons des particules dans une boîte dont on veut décrire l’évolution. L’état initial semble bien plus probable que . Mais comment savons-nous cela ? Soit empiriquement (on a ouvert de nombreuses boîtes et constaté que l’état initial était plus fréquent que ) soit théoriquement (on dispose d’une théorie qui peut prouver que est un état plus probable que sous certaines conditions). Mais dans le cas de l’Univers, on ne dispose ni d’observations ni de théorie qui nous permette d’affirmer que certains ensembles de conditions initiales sont plus probables que d’autres.

Autrement dit, les hypothèses proposées pour résoudre les problèmes liés aux conditions initiales de l’Univers ne répondent peut-être qu’à des problèmes illusoires qui disparaîtraient si l’on avait accès à plusieurs exemplaires d’Univers ou une théorie valide de la gravité quantique pour déterminer la probabilité a priori des valeurs des conditions initiales de l’Univers. Et pourtant, plusieurs développements récents de la cosmologie ont été initiés par ces problèmes, en particulier les théories de l’inflation et du multivers.

Spéculations et débats en cours

 

La théorie de l’inflation et le problème des hypothèses ad hoc

À la fin des années 1970 et au début des années 1980 sont apparus des modèles dits d’ « inflation », c’est-à-dire qui supposent que l’Univers a connu une phase d’expansion exponentielle très peu de temps (10-35 seconde) après la singularité. Cette expansion aurait multiplié par au moins 1026 le facteur d’échelle de l’Univers avant même que la première seconde ne se soit écoulée. Originellement, cette hypothèse fut d’abord proposée par le physicien russe Alexei Starobinsky pour élaborer un modèle d’Univers sans singularité en imaginant une phase d’inflation infinie dans le passé – rappelant ainsi la théorie de l’état stationnaire (Starobinsky 1980). Il tira de cette théorie une prédiction simple : une telle expansion devrait produire des ondes gravitationnelles importantes, dites « primordiales », repérables dans le fond diffus cosmologique.

La même hypothèse fut proposée indépendamment par le physicien étatsunien Alan Guth en 1981 pour résoudre un autre problème, issu de la physique des particules : certaines théories unifiant toutes les interactions physiques supposaient l’existence de monopôles magnétiques, c’est-à-dire de corps doté d’un pôle magnétique nord ou sud sans son opposé ; n’en détectant aucun, Alan Guth imagina qu’une phase d’inflation les avait tellement dispersés dans l’Univers qu’ils étaient devenus virtuellement introuvables (Guth 1981).

Ainsi, le modèle d’inflation d’Alan Guth utilisait un mécanisme cosmologique pour résoudre un problème de physique des particules. Mais il permettait aussi de résoudre deux des problèmes de conditions initiales exposés dans la section précédente : le problème de la courbure et celui de l’horizon. En effet, l’expansion rapide de l’Univers a pour conséquence de faire tendre sa courbure vers 0 dans une région donnée comme l’Univers observable, et explique aussi comment des points qui sont aujourd’hui en dehors de l’horizon l’un de l’autre ont pu être en contact causal auparavant (voir figure 7).

 

Figure 7. L’inflation est une phase d’expansion rapide et exponentielle de l’Univers. Si l’on se représente l’Univers comme la surface d’une sphère dont on ne peut observer qu’une petite région C (l’Univers observable), on voit que cette expansion a pour effet de donner l’impression que cette surface est presque plate. De plus, les points A et B qui étaient proches avant l’inflation se retrouvent éloignés après cette expansion, c’est pourquoi ils ont à peu près la même température et que l’Univers nous paraît isotrope.

La résolution de ces problèmes apparaît comme un succès de cette hypothèse de l’inflation, si l’on considère ces problèmes comme sérieux. Mais est-il suffisant pour confirmer celle-ci ? Comme on l’a vu dans la section précédente, il n’est pas certain que les problèmes de l’horizon et de la courbure soient d’authentiques problèmes scientifiques. De plus, dans le premier modèle de Guth, la phase d’inflation était causée par le champ de Higgs (le champ associé au boson de Higgs) mais on s’est rapidement aperçu que si c’était le cas on devrait trouver des traces de l’inflation dans le fond diffus cosmologique, traces qui en sont absentes. On ne dispose aujourd’hui d’aucun candidat sérieux dans le modèle standard des particules pour expliquer le mécanisme physique qui aurait provoqué l’inflation. Enfin, la théorie de l’inflation a donné naissance à de nombreux modèles alternatifs qui décrivent des phases d’inflation pouvant s’accorder avec n’importe quelles observations : Alan Guth considérait ainsi qu’au milieu des années 1990 il existait déjà plus de cinquante modèles d’inflation pouvant expliquer aussi bien un Univers isotrope qu’un Univers non-isotrope, aussi bien une courbure nulle qu’une courbure positive ou négative (Guth 1998, 278).

Autrement dit, la théorie de l’inflation semble irréfutable par les observations puisqu’il est toujours possible de modifier certains des paramètres de cette phase d’expansion exponentielle pour l’accorder aux observations. De plus, elle vient sauver de la réfutation certaines théories de la physique des particules en expliquant pourquoi on n’observe aucun monopôle, et fait de même avec la théorie du Big Bang en expliquant pourquoi l’Univers est homogène et de courbure nulle. Autrement dit, la théorie de l’inflation semble être une hypothèse ad hoc qui protège certaines théories physiques et cosmologiques de la réfutation tout en étant elle-même irréfutable, ce qui va directement à l’encontre de la méthodologie fondée sur le critère de réfutabilité de Popper.

Celui-ci n’a d’ailleurs pas manqué de critiquer ces développements de la cosmologie dans une lettre de 1994 adressée à l’historien de la cosmologie Helge Kragh qui lui demandait son avis sur les derniers développements de cette science. Popper affirme ainsi que son admiration pour les travaux de Friedmann ne l’empêche pas de considérer que la théorie moderne du Big Bang n’est « pas de la science (d’après [s]a conception) » puisqu’elle :

(1) introduit une nouvelle hypothèse auxiliaire à chaque fois qu’une théorie est réfutée ;

(2) se soutient mutuellement avec la théorie des particules – mais les critiques, les expériences critiques (= les tentatives de réfutations) sont ignorées. (Kragh 2012, 349)

Pourtant, comme l’a fait remarquer le philosophe Imre Lakatos – qui était à la fois un continuateur et un critique de l’épistémologie popperienne – les hypothèses ad hoc sont nécessaires en science et ne peuvent être condamnées dans leur totalité. Imre Lakatos distingue en effet, dans toute théorie, un noyau dur d’hypothèses, qui sont immunisées contre la réfutation, et un glacis protecteur, constitué d’hypothèses auxiliaires ad hoc qui permettent d’appliquer ce noyau dur à des cas précis. Par exemple, le noyau dur de la théorie newtonienne de la gravitation était constitué par les trois lois du mouvement de Newton et par la loi de l’attraction universelle : ces hypothèses étaient protégées par un glacis protecteur d’hypothèses auxiliaires sans lesquelles le programme de recherche newtonien aurait été réfuté dès sa naissance en 1687 puisque les lois de Newton ne rendaient pas compte du mouvement de la Lune avant 1752 – date à laquelle le mathématicien Alexis Clairaut résolut ce problème.

Dans une telle conception, ce ne sont pas toutes les hypothèses ad hoc qui sont condamnables (puisque chaque théorie en fait usage), mais uniquement celles qui ont pour seule et unique fonction de sauver une théorie de la réfutation. Les hypothèses ad hoc qui ont un contenu empirique supplémentaire, c’est-à-dire qui permettent à la théorie de faire de nouvelles prédictions, peuvent, elles, faire progresser la science. Une théorie qui utilise de telles hypothèses auxiliaires s’inscrit dans un programme de recherche « progressif », qui mène à de nouvelles découvertes et qui est proprement scientifique. Une théorie qui utilise des hypothèses auxiliaires sans pouvoir prédictif ne peut être, elle, qu’à la source d’un programme de recherche « dégénératif », qui ne permet aucune nouvelle expérience, aucune nouvelle découverte, et qui n’est que pseudo-scientifique :

Les soi-disant « réfutations » ne sont pas comme le prétend Popper la caractéristique des échecs empiriques, parce que tout programme se développe dans un océan d’anomalies. Ce qui compte réellement, ce sont les prédictions spectaculaires, inattendues et sensationnelles ; quelques-unes de ces prédictions sont suffisantes pour faire pencher la balance ; là où une théorie est à la traîne des faits, on a affaire à un misérable programme de recherche dégénératif. (Lakatos 1980, 6)

Par exemple, lorsqu’en 1846 l’astronome français Urbain Le Verrier prédit, à partir de l’hypothèse de l’existence d’une planète inconnue expliquant les perturbations de l’orbite d’Uranus, la position de cette planète, il ne fit pas que sauver la théorie newtonienne de la réfutation : il lui permit aussi de progresser en découvrant un nouveau phénomène. Par contre, lorsque le même astronome imagina de nombreuses hypothèses ad hoc pour expliquer les anomalies de l’orbite de Mercure sans qu’aucune de ces hypothèses ne mène à de nouvelles prédictions spectaculaires, cela prouva que le programme de recherche newtonien était à bout de souffle.

Mais alors qu’en est-il pour la théorie de l’inflation en cosmologie ? Est-elle une hypothèse ad hoc sans contenu empirique supplémentaire, comme l’hypothèse de Vulcain, ou au contraire permet-elle de faire progresser les recherches cosmologiques, comme l’a fait l’hypothèse de Neptune pour la théorie newtonienne ? Si les seuls succès de la théorie de l’inflation avaient été de résoudre les problèmes de la courbure et de l’horizon, cette théorie aurait pu apparaître comme un ensemble d’hypothèses ad hoc uniquement destinée à protéger la théorie du Big Bang de la réfutation, et nul doute que beaucoup partageraient le jugement sévère de Karl Popper. Cependant, avec le lancement en 1991 du satellite COBE (pour Cosmic Microwave Background Explorer), les cosmologistes ont pu cartographier les petites fluctuations de température du fond diffus cosmologiques, aussi appelées « anisotropies du fond diffus cosmologique » (voir figure 8). Or tous les modèles d’inflation font un certain nombre de prédictions sur ces fluctuations : elles doivent être invariantes d’échelles (avoir la même intensité à toutes les échelles angulaires), adiabatique (être les mêmes dans tous les milieux) et gaussiennes (suivre une loi statistique de productions indépendantes et aléatoires). Ces prédictions ont été testées sur des cartes d’anisotropies qui n’ont cessé d’être précisées depuis les observations de COBE, grâce aux expériences menées par des ballons ou des satellites dans les trente années suivantes (BOOMERanG (1997), Maxima (1998), WMAP (2001), Planck (2013), BICEPS (2015) pour ne citer que les principales). Ces succès menèrent certains cosmologistes, comme les britanniques Andrew Liddle et David Lyth, à distinguer deux formulations de la théorie de l’inflation et à soutenir que l’authentique test de l’inflation est la prédiction des anisotropies du fond diffus cosmologique :

Ces problèmes [de l’horizon et de la courbure] ne peuvent plus être regardés comme la plus importante motivation pour la cosmologie inflationniste parce qu’il n’est pas sûr du tout qu’ils puissent être utilisés pour réfuter l’inflation. [...] Par contraste avec l’inflation comme théorie des conditions initiales, le modèle de l’inflation comme origine possible des structures dans l’Univers est fortement prédictif. Différents modèles d’inflations mènent généralement à différentes prédictions concernant les structures observées et les observations peuvent discriminer strictement entre elles. L’inflation comme origine des structures est donc une science prédictive et observationnelle, méritant un examen détaillé. (Liddle & Lyth 2000, 5)

Si ces cosmologistes parlent ici de la théorie de l’inflation comme origine des structures, c’est que l’un des bénéfices de cette théorie est qu’elle vient répondre à l’une des principales questions de la cosmologie : par quels mécanismes sont apparues les grandes structures de l’Univers, c’est-à-dire les regroupements de matière ayant donné naissance aux étoiles, galaxies et amas de galaxies ? La théorie de l’inflation répond à cette question en expliquant comment les fluctuations quantiques du vide, qui se produisent aléatoirement et spontanément à des échelles atomiques, ont été étirées par la phase d’expansion exponentielle de l’Univers jusqu’à des échelles macroscopiques, donnant ainsi naissance aux contrastes de densités que l’on observe sous la forme d’anisotropies dans le fond diffus cosmologiques. Les zones de sur-densité ont ensuite attiré plus de matière jusqu’à former les graines des grandes structures que l’on observe dans l’Univers actuel. Ainsi, ce ne serait donc pas la réfutabilité de la théorie de l’inflation mais sa fécondité qui serait responsable de son acceptation par la majeure partie des cosmologistes actuels, comme le soutient le philosophe Chris Smeenk :

La question à poser au sujet de la théorie de l’inflation, n’est pas de savoir si elle permet de faire différentes prédictions « réfutables », mais en quelle mesure les données observables nous permettent d’inférer les détails de l’inflation ? Si l’on suppose que l’inflation est correcte, qu’est-ce que les données nous permettent d’inférer à propos du champ d’inflation et de son potentiel  ? En ces termes, il est vrai que la théorie de l’inflation comme théorie de la formation des structures propose un ensemble plus riche de contraintes sur la théorie. (Smeenk 2012, 27)

Pourtant, l’hypothèse de l’inflation est toujours en débat dans la communauté des cosmologistes. La première raison pour cela est que, pour prédire les anisotropies du fond diffus cosmologique, il est nécessaire d’accepter l’existence d’une matière noire froide (« cold dark matter » en anglais), c’est-à-dire de particules peu rapides (froides), n’interagissant pas avec la lumière (noires) mais ayant un effet gravitationnel suffisant pour accroître les contrastes de densité de l’Univers primordial. Même si cette hypothèse de la matière noire froide est acceptée par la majeure partie de la communauté des cosmologistes et des astronomes parce qu’elle permet aussi de rendre compte des courbes de rotation des galaxies et amas de galaxies, aucune particule de matière noire n’a été détectée en laboratoire et il existe des hypothèses alternatives permettant de rendre compte de ces courbes de rotation. L’hypothèse de l’inflation ne semble donc pouvoir s’ériger en théorie de la formation des structures que si elle s’adosse au postulat de la matière noire qui est lui-même encore hypothétique.

La deuxième raison des controverses qui continuent à porter sur la théorie de l’inflation est que l’un des premiers théoriciens de l’inflation, le cosmologiste étatsunien Paul Steinhardt, a désavoué cette théorie qu’il considère comme « ne pouvant être évaluée par la méthode scientifique » et « promouvant une forme de science non-empirique » (Ijjas, Steinhardt et Loeb 2017, 39). Paul Steinhardt considère en effet que cette théorie nous mène de Charybde à Scylla : initialement, l’hypothèse de l’inflation avait pour motivation première de résoudre les problèmes de conditions initiales de l’horizon et de la courbure ; mais les paramètres des modèles d’inflations doivent être très finement ajustés pour s’accorder avec les fluctuations thermiques du fond diffus cosmologique ; on n’échapperait donc à certains problèmes de conditions initiales que pour retomber sur un autre problème de conditions initiales. L’hypothèse de l’inflation n’aurait donc fait que réintroduire le problème qu’elle cherchait à résoudre, tout en créant un artifice mathématique ajustable à volonté pour rendre compte des observations quelles qu’elles soient (Steinhardt 2014, 76).