Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

L'accélération de l'expansion de l'univers

L'échelle des distances cosmiques. Adapté de NASA/JPL-Caltech.

Vers une révision du modèle cosmologique standard (I)

Depuis les travaux de l'astronome Edwin Hubble en 1929, nous savons que l'univers est en expansion à un taux qui dépend de certaines conditions comme la valeur de la constante de Hubble, Ho. Mais à partir de 1998 et les travaux de Saul Perlmutter et son équipe puis d'Adam Riess notamment sur la constante cosmologique, l'analyse de divers objets célestes qualifiés de "chandelles standards" servant à échaffauder ce qu'on appelle "l'échelle des distances" cosmiques ainsi que la cartographie du rayonnement cosmologique ont montré que l'univers s'étend entre 5 % (WMAP) et 9 % (Planck) plus rapidement que prévu.

Constante de Hubble et chandelles standards

Etablir une mesure précise de la constante de Hubble exige non seulement des moyens techniques puissants et performants entre termes de calibration et précision mais également de gros investissements en temps d'observation sur les télescopes en plus de trouver suffisamment d'objets célestes lumineux dont les propriétés sont connues pour effectuer des mesures de distance si possibles directes (sur base de la parallaxe mais valable jusqu'à ~20000 a.l. avec les nouvelles techniques) sinon indirectes par le truchement de l'estimation de leurs magnitudes apparente et absolues pour les objets plus éloignés.

Les objets célestes habituellement utilisés sont les étoiles variables Céphéides et les supernovae de Type Ia. Un lecteur attentif aura noté qu'Edwin Hubble utilisa également les Céphéides pour déterminer la distance de la "grande nébuleuse spirale" M31. Pourquoi sont-elles si importantes ? Car ces étoiles variables représentent les échelons fondamentaux de l'échelle de distance. Leur période de pulsation est facile à déterminer et est directement corrélée avec leur luminosité comme l'a montré Henrietta Leavitt en 1912 qui décrivit leur période-luminosité connue sous le nom de loi de Leavitt en étudiant les Céphéides du Petit Nuage de Magellan. Un autre raffinement de cette échelle de distance est le fait qu'on peut également observer ces Céphéides en proche infrarouge où ces étoiles variables sont de meilleurs indicateurs de distances qu'en lumière visible en raison de la plus faible absorption par la poussière. En principe, on peut détecter des Céphéides jusqu'à ~100 millions d'années-lumière.

Une supernova de Type Ia (SN1994D, en-dessous à gauche) dans la galaxie NGC 4526. Doc NASA/ESA/STScI.

Il en est de même des supernovae de Type Ia (SNe Ia). Ces étoiles massives qui explosent avec une luminosité parfois aussi importante que celle de toute une galaxie (10 milliards d'étoiles, magnitude absolue de -19.5) évoluent en suivant précisément les lois de la physique. Après leur explosion, on peut donc estimer avec précision leur masse résiduelle ainsi que la courbe de décroissance de leur luminosité, y compris celle des différents isotopes radioactifs. A partir de la mesure de leur magnitude (par voie photométrique) et du module de distance (m-M), on peut déterminer leur distance après correction de l'extinction par la Voie Lactée et les autres sources d'assombrissement situées sur la ligne de visée.

Leur masse résiduelle dite masse de Chandrasekhar présente une limite physique qu'on suppose similaire pour toutes les supernovae de Type Ia. C'est un avantage précieux car cela signifie qu'il y a peu de différences entre les explosions individuelles, ce qui permet de les utiliser comme chandelle standard de la même manière que les Céphéides mais en utilisant une méthode de mesure tout à fait différente.

En pratique, depuis les premières observations faites à l'observatoire du CTIO au Chili en 1996, on sait que les supernovae pâles brillent puis disparaissent très rapidement tandis que les supernovae brillantes s'illuminent et s'éteignent beaucoup plus lentement. En observant comment les SNe Ia perdent leur éclat les 15 premiers jours suivant leur maximum, on peut déterminer leur distance avec une précision d'environ 7 %, équivalente à celle des meilleurs indicateurs astronomiques.

En moyenne, une supernova de Type Ia explose chaque année dans la Voie Lactée. Avec les millions de galaxies cataloguées dont quelques centaines de milliers sont facilement accessibles aux grands télescopes, les astronomes ont suffisamment de candidates potentielles pour effecteur leurs mesures.

Au fil du temps, les astronomes ont cherché différents types d'indicateurs de distances pour affiner leurs mesures. Aujourd'hui la collection de chandelles standards comprend les sources suivantes :

- les Céphéides

- les Supernovae de Type Ia

- les amas globulaires

- les galaxies émettant à 21 cm (calcul de la magnitude absolue grâce à la relation Tully-Fisher)

- les galaxies elliptiques (contenant peu ou pas d'hydrogène, relation Faber-Jackson)

- les lentilles gravitationnelles

- les surfaces de brillance

- les masers d'eau

- l'anisotropie du rayonnement cosmologique à 2.7 K,

parmi d'autres sources dont Wendy Freedman et Barry Madore (2010) ainsi que Mario Livio et Adam Riess (2013) ont fait une revue détaillée dans le cadre de leurs travaux.

Les 20 galaxies ayant vu l'apparition d'une supernova de Type Ia et dans lesquelles Adam Riess et son équipe ont identifié des Céphéides. Le cadre magenta couvre le champ de 2'7" de côté de la caméra WFC3/IR du HST.

Des programmes d'observations visant à préciser la constante de Hubble par le truchement de la mesure de la distance des SNe Ia ont été spécialement développés ces dernières années comme le "High-Z SN Search" (Schmidt et al., 1995), le "HST Key Project" (Freedman et al. 2001), le "SN Ia HST Calibration Program" (Saha et al., 2001, Sandage et al., 2006) et plus récemment les programmes SH0ES I (Riess et al., 2009) et SH0ES II (Riess et al., 2011).

Notons que des astronomes amateurs participent à cette recherche des supernovae, en particulier l'Observatoire Puckett et son réseau international d'observateurs qui comptent à leur actif la découverte de plus de 270 supernovae depuis 1994, soit plus d'une par mois.

Parmi les résultats les plus précis, l'astrophysicien Adam Riess du STScI et ses collègues qui travaillent sur le sujet depuis près de 20 ans ont utilisé le Télescope Spatial Hubble et de nouvelles techniques proche-infrarouge pour analyser les Céphéides identifiées dans 20 galaxies extérieures dont M101 et NGC 4258 associées à des supernovae de Type Ia ayant explosé entre 1995 et 2015. Au total la luminosité de 2400 Céphéides dans 19 galaxies a été minutieusement mesurée et comparée à celle des supernovae et les distances d'environ 300 supernovae de Type Ia ont pu être calculées.

La difficulté de ce type de projet est à la mesure de l'univers car comme le dit Riess, "cela équivaut à mesurer un bâtiment avec un long mètre ruban au lieu de déplacer une règle bout à bout. Vous évitez d'accumuler les petites erreurs chaque fois que vous déplacez la règle. Plus grand est le bâtiment, plus grande est l'erreur".

Sur base de ces travaux longs et fastidieux qui ont demandé la collaboration de 15 astronomes, en 2016 Riess et ses collègues ont publié une nouvelle estimation de la constante de Hubble Ho = 73.23 ±1.51 km/s/Mpc soit 7 % supérieure à celle prédite par le modèle ΛCDM (66.93 ±0.62 km/s/Mpc).

Cela n'a l'air de rien, mais avant que le Télescope Spatial Hubble ne soit lancé en 1990, l'estimation de la valeur de la constante de Hubble variait du simple au double. A la fin des années 1990, grâce au projet "Hubble Space Telescope KeyProject on the Extragalactic Distance Scale", les astrophysiciens réduisirent l'incertitude sur la constante de Hubble jusqu'à 10 %. En 2016, Riess et son équipe ont encore réduit cette incertitude à 2.4 %. En fait, la valeur actuelle est 4 fois plus précise que celle déterminée en 2001 grâce au HST et presque deux fois plus précise que la valeur calculée en 2009 grâce au HST (72 ±8 km/sec/Mpc) dans le cadre du programme SH0ES (Supernovae, H0, for the Equation of State of dark energy).

Dans un article publié en 2017 dans les MNRAS et dont le site Space Telescope s'est fait l'écho, dans le cadre du programme H0LiCOW, grâce à l'analyse des fluctuations du rayonnement des quasars associés à des lentilles gravitationnelles, une équipe internationale d'astronomes a pu déterminer la constante de Hubble. La valeur retenue pour Ho = 71.9 ±2.7 km/s/Mpc à 3.8 % près, soit plus élevée que les précédentes estimations dont celle relevée par le satellite Planck (67.8 ±0.9 km/s/Mpc, cf cet article) mais toujours compatible avec un modèle d'univers ΛCDM plat. Reste à identifier cette composante Λ.

L'étude des lentilles gravitationnelles sur les quasars a permis de déterminer le taux d'expansion de l'Univers, la fameuse constante de Hubble. Comme le montre le graphique ci-dessus, depuis environ 5 milliards d'années, le taux d'expansion de l'univers augmente pour une raison inconnue, probablement en raison des effets de la matière sombre. A gauche, l'image du quasar HE0435-1223 dont voici une vue générale. C'est l'un des rares spécimens où les quatre "étoiles" (les quatre images du quasar) fluctuent à tour de rôle, ce qui a permis de déterminer avec précision la constante de Hubble. A droite, RXJ1131-1231. Documents H0LiCOW team/ NASA/ESA/MPI/U.Cambridge/Space Telescope et T.Lombry adapté de LBNL/BOSS.

A l'avenir, grâce aux télescopes spatiaux Gaia, JWST et WFIRST, on devrait pouvoir réduire l'incertitude en-dessous de 1 % en effectuant de nouvelles mesures de la parallaxe des Céphéides de la Voie Lactée et du Grand Nuage de Magellan, la calibration de nouvelles SNe Ia proches et une meilleure caractérisation des incertitudes systématiques. Avec une constante de Hubble plus précise, on devrait arriver à poser des contraintes plus sévères sur les modèles cosmologiques.

Rappelons qu'une valeur de 73 km/s/Mpc signifie qu'une galaxie située à 1 Mpc soit 3.26 millions d'années-lumière s'éloigne de nous à la vitesse comobile (du fait de l'expansion de l'univers) de 73 km/s. La nouvelle valeur indique que la distance moyenne entre les astres doublera dans 9.8 milliards d'années.

Cette valeur relativement haute a été obtenue sur base de deux échelles absolues différentes, la constante de Hubble et l'horizon sonique observé à travers le rayonnement cosmologique (comme ce fut déjà le cas en 2001), c'est-à-dire aux deux extrémités opposées de la ligne du temps de l'Histoire de l'expansion de l'univers. La différence avec les anciennes mesures, c'est qu'en 2001 toutes les autres échelles étaient relatives et ajoutaient une incertitudes pouvant atteindre 10 %.

Si ce problème de précision est aujourd'hui pratiquement résolu, la raison de cette expansion accélérée de l'univers reste mystérieuse et constitue un véritable défi pour les chercheurs.

Une expansion accélérée ? Finalement, peut-être pas

Ceci dit, selon une autre étude publiée en octobre 2016 par Subir Sarkar et ses collègues de l'université d'Oxford, le taux d'accélération de l'univers ne serait que marginal. En effet, sur base du catalogue JLA (Joint Light-curve Analysis) contenant 740 supernovae  de Type Ia et une analyse statistique de "maximisation de vraisemblance" (tenant compte d'effets correctifs dans l'analyse des courbes de luminosité des SNe Ia), ils ont obtenu un résultat "cohérent avec une expansion non accélérée", c'est-à-dire que l'univers s'étendrait plutôt à une vitesse constante, tout en ne s'opposant pas aux résultats des études précédentes.

Diagramme des contraintes sur la matière en fonction de l'énergie sombre permettant de déterminer les principaux paramètres de l'univers. Document A.Reiss et al. adapté par l'auteur.

Pour comprendre cet apparent paradoxe, le diagramme de contrainte matière-énergie sombre présenté à gauche est plus parlant, en particulier l'écart-type représenté par les zones en bleu basées sur l'analyse des supernovae. Le recoupement de ces données avec celles de la mission Planck permet d'obtenir la petite zone orangée qui se situe clairement dans la région du diagramme où l'univers est en accélération.

Le point faible de l'étude de Sarkar est justement son écart-type ou écart significatif qui est de 3 sigmas soit d'au moins 99.7 % de confiance. Bien que la valeur soit élevée, statistiquement ce n'est pas suffisant pour considérer leur résultat comme pertinent (et une découverte) car un écart-type significatif exige au moins 5 sigmas ce qui représente un niveau de confiance supérieur à 99.99997 % ou une erreur inférieure à 0.00003 %, ce qui n'est pas le cas de cette étude. De plus, par expérience (par exemple dans les expériences du CERN) on sait qu'un résultat si peu significatif représente généralement une fluctuation statistique. La "découverte" de Sarkar et son équipe reste donc toute relative et comme l'indique le diagramme, elle reste compatible avec un univers en accélération. De ce fait, Sarkar et son équipe reconnaissent "également que l'expansion est accélérée".

Sarkar et son équipe ont bien conscience que d'autres études confirment l'accélération du taux d'expansion de l'univers, non seulement les résultats de l'équipe d'Adam Reiss publiés quelques mois auparavant mais également les résultats obtenus par la collaboration Planck qui étudia le rayonnement cosmologique (2015). Pour leur défense, Sarkar et ses collègues rappellent que les résultats de la mission Planck sont basés sur des tests indirects fondés sur le modèle ΛCDM et d'insister sur le fait que la matière noire n'affecte pas directement le rayonnement cosmologique.

De plus, si on analyse non pas les supernovae mais les quasars distants d'au moins 10 milliards d'années-lumière, l'analyse de la "forêt Lyman-alpha" (provoquée par les absorbeurs d'hydrogène après la réionisation) permet de conclure qu'à cette époque reculée l'univers était en décélération, le phénomène d'accélération n'apparaissant qu'environ 5 à 8 milliards d'années après le Big Bang, c'est-à-dire à l'époque où les astronomes exploitent les données des supernovae de Type Ia.

Mais Sarkar et son équipe vont plus loin et suggèrent que selon les résultats de leur étude statistique, on ne peut pas écarter l'hypothèse que l'apparente contribution de l'énergie sombre à travers la constante cosmologique soit la conséquence d'une analyse des supernovae effectuée dans le cadre d'un modèle cosmologique trop simple, en particulier trop homogène et sur base de suppositions sinon gratuites du moins non validées. Dans une interview publiée dans le webzine de l'Université d'Oxford, Sarkar considère que "le modèle cosmologique Standard repose sur des bases chancelantes" car peu conformes à la réalité, d'où le risque de mal interpréter les données observationnelles comme dans le cas présent. Mais cette remarque a toujours été acceptée par les cosmologistes, encore faut-il avoir les ressources nécessaires (financières, techniques, humaines et intellectuelles) pour développer un modèle plus précis de la réalité que même Sarkar et ses collègues sont bien en peine de proposer. On y reviendra dans un autre article.

Finalement, Sarkar reste dubitatif quant à la réalité de l'expansion accélérée de l'univers mais arrive à une conclusion honnête qui satisfait tous les acteurs : "L'expérience CODEX proposée pour le ELT (Extremely Large Telescope) devrait mesurer la dérive Doppler sur une période de 10 à 15 ans afin de déterminer si le taux d'expansion est réellement en accélération".

En attendant de trancher la question, la communauté des cosmologistes se base sur des données significatives (de 7σ et 9σ selon les méthodes de "best fit" utilisées) indiquant que l'univers est effectivement en expansion accélérée comme nous l'avons expliqué plus haut. Reste à présent à comprendre pourquoi et comment cela s'est-il déclenché.

Un effet sans cause apparente

Pour expliquer cette accélération de l'expansion, certains auteurs n'ont pas hésité à proposer une révision des lois fondamentales de la physique au-delà du modèle Standard, évoquant parmi d'autres causes une dépendance du temps, une nouvelle physique de la gravitation plus complète que la relativité générale, l'existence de nouvelles particules relativistes à l'époque de l'univers primordial (le "rayonnement sombre") dont pourrait faire partie les neutrinos ou un courbure non nulle de l'univers. A l'heure actuelle, les quelques études basées sur ces hypothèses n'ont pas été concluantes et en tous cas aucune d'elle n'est confirmée dans les faits, que ce soit en laboratoire ou par l'observation du cosmos.

En revanche, comme Sarkar l'a évoqué, cette accélération de l'expansion pourrait être un effet de l'énergie sombre dont les caractéristiques restent mystérieuses. Elle représente aujourd'hui la pierre d'achoppement de l'univers contre laquelle les physiciens butent car sans elle on ne peut pas expliquer la distribution des grandes structures cosmiques que sont les amas et superamas de galaxies.

A l'heure actuelle, aucune de ces hypothèses n'est exclue si ce n'est que depuis qu'ils travaillent sur le sujet Riess et ses collègues s'en sont toujours tenus au principe du "rasoir d'Occam" et "préfèrent une théorie simple plutôt que complexe. Dans le cas de l'énergie sombre, il n'existe actuellement aucune explication simple, laissant les mesures directes comme seules guides parmi les nombreuses explications complexes ou fortement ajustées." Autrement dit, ils s'en tiennent aux faits et tentent d'expliquer cette accélération inattendue dans le cadre du modèle cosmologique actuel ΛCDM sans faire appel à des théories ad hoc.

Que savons-nous aujourd'hui de l'expansion de l'univers ? Pour cerner cette question, il faut d'abord que tous les astronomes utilisent les mêmes méthodes de travail ou des protocoles compatibles afin que les données soient homogènes voire interchangeables entre équipes scientifiques. Or pendant des années ce ne fut pas le cas et chaque équipe de chercheurs proposait ses valeurs sans que les autres équipes ne puissent les recouper ou les confirmer, d'où la marge importante d'incertitude autour de la valeur de la constante de Hubble.

Calculettes : Cosmological Calculator (modèle ΛCDM) - Cosmology calculator (ICRAR)

Diagrammes de Hubble représentant la distance en fonction du redshift des objets célestes. A gauche, les différentes chandelles standards mesurées dans le cadre du "HST Key Project". Le gradient de la pente est de 72 km/s/Mpc. Les valeurs sont trop dispersées sur ces sondages pour déterminer si l'univers est en expansion à vitesse constante ou accélérée. Au centre et à droite, les résultats des études de Riess et al. de 1998 et Perlmutter et al. de 1999 des supernovae de Type Ia et à grand décalage Doppler. La ligne magenta représente les valeurs du modèle Einstein-de Sitter constitué uniquement de matière baryonique. La ligne noire comprend 20 % de matière sans énergie sombre tandis que la courbe turquoise comprend 30 % de matière et 70 % d'énergie sombre. Cette dernière est en accord avec les observations et signifie également que le taux d'expansion augmente de manière accélérée. Documents Wendy Freedman et R.Kirshner adaptés par l'auteur.

Ceci dit, quand ces données sont homogènes, Saul Perlmutter et ses collègues dont Adam Riess ont confirmé après avoir étudié les redshifts et les courbes lumineuses de dizaines de supernovae de Type Ia (ce qui permit de calculer leur distance et le rapport entre la pression et la densité du milieu intergalactique) ainsi que le décalage Doppler d'autres types de supernovae très éloignées (High-z SN) qu'elles étaient ~30 % plus pâles que prévut et s'éloignaient donc plus rapidement que le modèle Einstein-de Sitter le prévoit.

Comme le montre le graphique présenté ci-dessus à droite, cette accélération de l'expansion aurait démarré vers z=0.5 ou même z=1, il y a 5 voire même 8 milliards d'années. L'époque exacte n'est pas précise car elle dépend de la contribution des composantes sombres (matière noire et énergie sombre) mais également comme nous l'avons évoqué, d'un possible effet d'extinction sur la ligne de visée créé par la poussière ou un phénomène d'assombrissement lié à l'explosion des supernovae. Il faut donc affiner et recouper ces données avec celles d'un plus grand nombre de supernovae mais également d'autres chandelles standards, ce qui est à l'ordre du jour des programmes actuels et à venir.

En fait, si quelque chose a déclenché cette accélération de l'expansion vers z=1, c'est à cette distance qu'il faut rechercher des supernovae. Or, à de telles distances leur luminosité et donc leur spectre est à la limite des possibilités instrumentales actuelles. Ceci dit, les très grands télescopes du futur devraient pouvoir les étudier, d'où l'intérêt des résultats de la future expérience CODEX du ELT.

Suite à cette découverte, les scientifiques proposèrent d'introduire dans les équations la contribution de la fameuse constante cosmologique Λ associée à la matière sombre qui est aujourd'hui intégrée et représente une partie essentielle du modèle ΛCDM.

Peu après, l'analyse du rayonnement cosmologique grâce aux satellites WMAP et Planck (2008 et 2015) révéla que quelque 380000 ans après le Big Bang, le jeune univers contenait déjà les germes des futures grandes structures cosmiques. Malheureusement, un premier sondage (2dF GRS) effectué en 2002 par George Efstathiou de l'université de Cambridge (Ma.) et son équipe montra que la distribution d'un échantillon de 221283 galaxies ne pouvait pas être directement corrélée avec la carte du rayonnement cosmologique. En revanche, ils ont fait une importante découverte. Sur base de l'analyse du rayonnement des SNe Ia, il était possible d'envisager une correspondance à condition de tenir compte d'une constante cosmologique non nulle (celle équivalent à l'énergie du vide ΩΛ),c'est-à-dire une composante inconnue et invisible qui manque toujours à l'inventaire des physiciens.

Comme nous l'avons expliqué à propos de la matière et l'énergie sombres que nous résumerons par le terme générique d'énergie sombre puisque finalement tout n'est qu'une forme d'énergie, le bilan de toute la matière baryonique contenue dans l'univers indique qu'elle représente environ 4.9 % de la densité de l'univers. Et donc qu'environ 95 % de la densité de l'univers se compose de ce qu'on dénomme dorénavant la "matière noire" ou "l'énergie sombre". Sa contribution est donc indispensable si on veut établir un modèle cosmologique prédictif fiable.

De plus, c'est cette énergie sombre qui assure la cohésion des galaxies et des amas comme le montre très bien le rapport Masse/Luminosité de ces objets qui dépasse régulièrement 10Y et même 300Y et atteint exceptionnellement 1200Y soit 1200 fois la masse calculée à partir de la seule contribution des objets d'origine stellaire (lumineux) !

Des contraintes sur la nature de l'énergie sombre

Cette nouvelle valeur de la constante de Hubble permet de tester et contraindre les propriétés de l'énergie sombre. On sait que l'univers est en expansion, qu'il était plus dense dans le passé et qu'une énergie sombre affecte le paramètre de Hubble depuis probablement la nuit des temps. A l'époque de l'univers primordial, le paramètre de Hubble était petit et la matière influençait donc plus fortement l'environnement qu'aujourd'hui en raison de sa densité d'énergie plus élevée. Aujourd'hui, cette énergie sombre domine, produisant une force répulsive à travers l'espace, le paramètre de Hubble est plus élevé conduisant à une accélération de l'expansion. C'est du moins l'explication logique déduite du modèle ΛCDM.

Contraintes sur la densité d'énergie sombre sur base des valeurs des paramètres cosmologiques (densité de matière, densité critique, constante cosmologique, constante de Hubble) mesurées par différentes méthodes (effet Doppler des supernovae à haut redshift, fond diffus à 2.7 K, etc). Document A.V.Vikhlinin et al. adapté par l'auteur.

Reste à comprendre pourquoi l'expansion de l'univers a soudainement subi une accélération, pourquoi pas plus tôt et quel type de changement l'a provoqua ? Pour l'instant, ces questions demeurent sans réponse, s'ajoutant aux autres grandes questions ouvertes de la physique.

A l'heure actuelle les astronomes peuvent étudier l'univers à partir de 380000 ans après le Big Bang. Avant cette époque, l'univers est opaque et pratiquement inaccessible à l'observation (pour étudier cette phase primordiale, il fut donc utiliser des méthodes alternatives comme l'étude des particules élémentaires à hautes énergies).

A partir de 380000 ans, les astronomes peuvent fixer des limites sur la nature et donc les propriétés de l'énergie sombre qui a provoqué l'accélération de l'expansion. Ces contraintes sont dérivées des mesures du rayonnement cosmologique à 2.7 K. Les résultats sont compatibles avec la plus simple interprétation de la nature de l'énergie sombre. Il s'agit de l'équivalent mathématique de la constante cosmologique d'Einstein qui provoqua l'effondrement de son modèle d'univers et qu'il supprima après qu'Alexandre Friedmann ait démontré en 1922 que l'univers pouvait être homogène et isotrope tout en étant en expansion.

Comme nous l'avons dit, la nouvelle constante cosmologique est similaire à l'énergie du vide déjà entrevue au cours de l'inflation de l'univers. La différence est que sa valeur est trop faible et doit être quelque 1060 fois supérieure pour rendre compte des observations et que cette force n'est plus générée par un champ de Higgs (ou d'inflaton) comme à l'instant du Big Bang mais par une énergie sombre inconnue. Mais dans les deux cas, son effet est répulsif et bien plus intense que le champ gravitationnel.

Grâce à la nouvelle valeur de la constante de Hubble, aujourd'hui la constante cosmologique est trois fois plus petite qu'auparavant. Mais cela ne résout toujours pas la question de la nature de cette énergie sombre.

En réduisant encore plus l'incertitude sur la constante de Hubble, l'éventail des alternatives qui s'offre aux physiciens pour décrire la nature de l'énergie sombre devient plus étroit : soit il s'agit d'une nouvelle constante cosmologique et peu d'entre eux aiment ça, soit c'est un champ dynamique comme le fut la force répulsive qui dirigea l'inflation. A l'avenir des mesures encore plus précises permettront probablement d'affiner notre choix.

Une autre explication

Enfin, certains physiciens évoquent un autre phénomène pouvant expliquer l'expansion accélérée de l'Univers. Non pas une nouvelle physique comme la théorie MOD ni un effet de l'énergie sombre mais un paramètre négligé jusqu'à présent dans les modèles cosmologiques : l'effet des fluctuations de la densité d'énergie du vide à l'échelle quantique comme l'a proposé le physicien Qingdi Wang de l'Université de Colombie Britannique (UBC) et son équipe en 2017.

Les simulations réalisées par les chercheurs montrent qu'au niveau subatomique, en chaque point de l'espace l'univers fluctue entre expansion et contraction. A mesure que le temps passe, les deux effets s'annulent presque mais il reste un très petit bilan net positif qui force l'univers à s'étendre lentement à un rythme accéléré.

"Particules élémentaires". Document Agsandrew/Shutterstock.

Mais si l'univers fluctue, on peut alors se demander pourquoi ne le ressentons-nous pas ? En fait, selon les chercheurs, cela se produit mais à des échelles tellement microscopiques, des milliards de milliards de fois plus petites que la taille des électrons, qu'on ne le ressent pas. Affaire à suivre.

A l'avenir, si nous parvenons à déterminer la quantité initiale totale de matière contenue dans l'univers, c'est-à-dire la matière baryonique, la matière noire et l'énergie sombre, nous pourrons élaborer une recette complète et détaillée de l'univers. Avec ces ingrédients on pourra mesurer les paramètres cosmologiques quelques instants après le Big Bang et prédire à quel taux l'univers devrait s'étendre aujourd'hui. Mais aujourd'hui, en raison des incertitudes qui planent sur les modèles, nous ne possédons pas encore cette compréhension et par conséquent nous ne connaissons pas encore la valeur exacte de la constante de Hubble, ni même si elle peut encore être plus élevée.

Pour plus d'informations

Sur ce site

La loi de Hubble

L'avenir de l'univers

L'expansion de l'univers et la constante cosmologique

A propos des Céphéides

Les missions COBE, WMAP et Planck

Les problèmes du modèle Standard

La matière et l'énergie sombres dans l'univers

Généralités

Mega-SH0ES: Ho to 2% and beyond (PDF), Lucas Macri, Texas A&M university

Cepheid variables (surveys), Lucas Macri, Texas A&M university

The Hubble Space Telescope Key Project on the Extragalactic Distance Scale (HST Key Project)

Supernova Cosmology Project (SPC), LBL
The High-Z SN Search, CfA-Harvard

The 2dF Galaxy Redshift Survey (2d GRS)

Page web de Saul Perlmutter, LBL

Page web de Adam Riess, STScI

Page web de Wendy Freedman, U.Chicago

Puckett Observatory World Supernova Search

A propos de la constante de Hubble et de l'expansion de l'univers

Marginal evidence for cosmic acceleration from Type Ia supernovae (PDF), S.Sarkar et al., Nature, Oct 2016 (ArXiv)

A 2.4% Determination of the Local Value of the Hubble Constant (PDF), Adam Riess et al., ApJ, April 2016 (ArXiv)

Tests of the Accelerating universe with Near-Infrared Observations of a High-z SNe Ia, Adam Riess et al., ApJ, 536, 2010

Measuring the Hubble constant, Mario Livio et Adam Riess, 2013

Cepheid Period-Luminosity Relations in the Near-Infrared and the Distance to M31 from HST WFC3 (PDF), Adam Riess et al., 2011 (ArXiv)

The Hubble Constant (PDF), Wendy Freedman et Barry Madore, Ann.Rev.A&A, Vol. 48, 2010 (ArXiv)

The Cosmic Triangle: Revealing the State of the universe (PDF), Neta Bahcall et al., Science, 284, 1999 (ArXiv)

Théorie alternative

How the huge energy of quantum vacuum gravitates to drive the slow accelerating expansion of the Universe, Qingdi Wang et al., 2017 (ArXiv)

A propos de la constante cosmologique

Nature et valeur de la constante cosmologique, L.Nottale, CNRS, 2009

La constante cosmologique, F.Bernardeau et J.-P. Uzan, CNRS, 2008

The Acceleration of the Expansion of the Universe, G.Goldhaber, 2009

Supernovae, Dark Energy, and the Accelerating Universe, S.Perlmutter, 1999

Calculettes

Convertisseur de magnitudes (dont le module de distance (m-M))

Cosmological Calculator (modèle ΛCDM)

Cosmology calculator (modèle ΛCDM)

CosmoCalc (énergie du vide, Edward L.Wright, UCLA.

Retour à la Cosmologie


Back to:

HOME

Copyright & FAQ