Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

L'accélération de l'expansion de l'univers

L'échelle des distances cosmiques. Adapté de NASA/JPL-Caltech.

Vers une révision du modèle cosmologique standard (I)

Depuis les travaux de l'astronome Edwin Hubble en 1929, nous savons que l'univers est en expansion à un taux qui dépend de certaines conditions comme la valeur de la constante de Hubble, Ho. Mais à partir de 1998 et les travaux de Saul Perlmutter et son équipe puis d'Adam Riess notamment sur la constante cosmologique, l'analyse de divers objets célestes qualifiés de "chandelles standards" servant à échaffauder ce qu'on appelle "l'échelle des distances" cosmiques ainsi que la cartographie du rayonnement cosmologique ont montré que l'univers s'étend entre 5 % (WMAP) et 9 % (Planck) plus rapidement que prévu.

Constante de Hubble et chandelles standards

Etablir une mesure précise de la constante de Hubble exige non seulement des moyens techniques puissants et performants entre termes de calibration et précision mais également de gros investissements en temps d'observation sur les télescopes en plus de trouver suffisamment d'objets célestes lumineux dont les propriétés sont connues pour effectuer des mesures de distance si possibles directes (sur base de la parallaxe mais valable jusqu'à ~20000 a.l. avec les nouvelles techniques) sinon indirectes par le truchement de l'estimation de leurs magnitudes apparente et absolues pour les objets plus éloignés.

Les objets célestes habituellement utilisés sont les étoiles variables Céphéides et les supernovae de Type Ia. Un lecteur attentif aura noté qu'Edwin Hubble utilisa également les Céphéides pour déterminer la distance de la "grande nébuleuse spirale" M31. Pourquoi sont-elles si importantes ? Car ces étoiles variables représentent les échelons fondamentaux de l'échelle de distance. Leur période de pulsation est facile à déterminer et est directement corrélée avec leur luminosité comme l'a montré Henrietta Leavitt en 1912 qui décrivit leur période-luminosité connue sous le nom de loi de Leavitt en étudiant les Céphéides du Petit Nuage de Magellan. Un autre raffinement de cette échelle de distance est le fait qu'on peut également observer ces Céphéides en proche infrarouge où ces étoiles variables sont de meilleurs indicateurs de distances qu'en lumière visible en raison de la plus faible absorption par la poussière. En principe, on peut détecter des Céphéides jusqu'à ~100 millions d'années-lumière.

Une supernova de Type Ia (SN1994D, en-dessous à gauche) dans la galaxie NGC 4526. Doc NASA/ESA/STScI.

Il en est de même des supernovae de Type Ia (SNe Ia). Ces étoiles massives qui explosent avec une luminosité parfois aussi importante que celle de toute une galaxie (10 milliards d'étoiles, magnitude absolue de -19.5) évoluent en suivant précisément les lois de la physique. Après leur explosion, on peut donc estimer avec précision leur masse résiduelle ainsi que la courbe de décroissance de leur luminosité, y compris celle des différents isotopes radioactifs. A partir de la mesure de leur magnitude (par voie photométrique) et du module de distance (m-M), on peut déterminer leur distance après correction de l'extinction par la Voie Lactée et les autres sources d'assombrissement situées sur la ligne de visée.

Leur masse résiduelle dite masse de Chandrasekhar présente une limite physique qu'on suppose similaire pour toutes les supernovae de Type Ia. C'est un avantage précieux car cela signifie qu'il y a peu de différences entre les explosions individuelles, ce qui permet de les utiliser comme chandelle standard de la même manière que les Céphéides mais en utilisant une méthode de mesure tout à fait différente.

En pratique, depuis les premières observations faites à l'observatoire du CTIO au Chili en 1996, on sait que les supernovae pâles brillent puis disparaissent très rapidement tandis que les supernovae brillantes s'illuminent et s'éteignent beaucoup plus lentement. En observant comment les SNe Ia perdent leur éclat les 15 premiers jours suivant leur maximum, on peut déterminer leur distance avec une précision d'environ 7 %, équivalente à celle des meilleurs indicateurs astronomiques.

En moyenne, une supernova de Type Ia explose chaque année dans la Voie Lactée. Avec les millions de galaxies cataloguées dont quelques centaines de milliers sont facilement accessibles aux grands télescopes, les astronomes ont suffisamment de candidates potentielles pour effecteur leurs mesures.

Au fil du temps, les astronomes ont cherché différents types d'indicateurs de distances pour affiner leurs mesures. Aujourd'hui la collection de chandelles standards comprend les sources suivantes :

- les Céphéides

- les Supernovae de Type Ia

- les amas globulaires

- les galaxies émettant à 21 cm (calcul de la magnitude absolue grâce à la relation Tully-Fisher)

- les galaxies elliptiques (contenant peu ou pas d'hydrogène, relation Faber-Jackson)

- les lentilles gravitationnelles

- les surfaces de brillance

- les masers d'eau

- l'anisotropie du rayonnement cosmologique à 2.7 K,

parmi d'autres sources dont Wendy Freedman et Barry Madore (2010) ainsi que Mario Livio et Adam Riess (2013) ont fait une revue détaillée dans le cadre de leurs travaux.

Les 20 galaxies ayant vu l'apparition d'une supernova de Type Ia et dans lesquelles Adam Riess et son équipe ont identifié des Céphéides. Le cadre magenta couvre le champ de 2'7" de côté de la caméra WFC3/IR du HST.

Des programmes d'observations visant à préciser la constante de Hubble par le truchement de la mesure de la distance des SNe Ia ont été spécialement développés ces dernières années comme le "High-Z SN Search" (Schmidt et al., 1995), le "HST Key Project" (Freedman et al. 2001), le "SN Ia HST Calibration Program" (Saha et al., 2001, Sandage et al., 2006) et plus récemment les programmes SH0ES I (Riess et al., 2009) et SH0ES II (Riess et al., 2011).

Notons que des astronomes amateurs participent à cette recherche des supernovae, en particulier l'Observatoire Puckett et son réseau international d'observateurs qui comptent à leur actif la découverte de plus de 270 supernovae depuis 1994, soit plus d'une par mois.

Parmi les résultats les plus précis, l'astrophysicien Adam Riess du STScI et ses collègues qui travaillent sur le sujet depuis près de 20 ans ont utilisé le Télescope Spatial Hubble et de nouvelles techniques proche-infrarouge pour analyser les Céphéides identifiées dans 20 galaxies extérieures dont M101 et NGC 4258 associées à des supernovae de Type Ia ayant explosé entre 1995 et 2015. Au total la luminosité de 2400 Céphéides dans 19 galaxies a été minutieusement mesurée et comparée à celle des supernovae et les distances d'environ 300 supernovae de Type Ia ont pu être calculées.

La difficulté de ce type de projet est à la mesure de l'univers car comme le dit Riess, "cela équivaut à mesurer un bâtiment avec un long mètre ruban au lieu de déplacer une règle bout à bout. Vous évitez d'accumuler les petites erreurs chaque fois que vous déplacez la règle. Plus grand est le bâtiment, plus grande est l'erreur".

Sur base de ces travaux longs et fastidieux qui ont demandé la collaboration de 15 astronomes, en 2016 Riess et ses collègues ont publié une nouvelle estimation de la constante de Hubble Ho = 73.23 ±1.51 km/s/Mpc soit 7 % supérieure à celle prédite par le modèle ΛCDM (66.93 ±0.62 km/s/Mpc).

Cela n'a l'air de rien, mais avant que le Télescope Spatial Hubble ne soit lancé en 1990, l'estimation de la valeur de la constante de Hubble variait du simple au double. A la fin des années 1990, grâce au projet "Hubble Space Telescope KeyProject on the Extragalactic Distance Scale", les astrophysiciens réduisirent l'incertitude sur la constante de Hubble jusqu'à 10 %. En 2016, Riess et son équipe ont encore réduit cette incertitude à 2.4 %. En fait, la valeur actuelle est 4 fois plus précise que celle déterminée en 2001 grâce au HST et presque deux fois plus précise que la valeur calculée en 2009 grâce au HST (72 ±8 km/sec/Mpc) dans le cadre du programme SH0ES (Supernovae, H0, for the Equation of State of dark energy).

Dans un article publié en 2017 dans les MNRAS et dont le site Space Telescope s'est fait l'écho, dans le cadre du programme H0LiCOW, grâce à l'analyse des fluctuations du rayonnement des quasars associés à des lentilles gravitationnelles, une équipe internationale d'astronomes a pu déterminer la constante de Hubble. La valeur retenue pour Ho = 71.9 ±2.7 km/s/Mpc à 3.8 % près, soit plus élevée que les précédentes estimations dont celle relevée par le satellite Planck (67.8 ±0.9 km/s/Mpc, cf cet article) mais toujours compatible avec un modèle d'univers ΛCDM plat. Reste à identifier cette composante Λ.

L'étude des lentilles gravitationnelles sur les quasars a permis de déterminer le taux d'expansion de l'Univers, la fameuse constante de Hubble. Comme le montre le graphique ci-dessus, depuis environ 5 milliards d'années, le taux d'expansion de l'univers augmente pour une raison inconnue, probablement en raison des effets de la matière sombre. A gauche, l'image du quasar HE0435-1223 dont voici une vue générale. C'est l'un des rares spécimens où les quatre "étoiles" (les quatre images du quasar) fluctuent à tour de rôle, ce qui a permis de déterminer avec précision la constante de Hubble. A droite, RXJ1131-1231. Documents H0LiCOW team/ NASA/ESA/MPI/U.Cambridge/Space Telescope et T.Lombry adapté de LBNL/BOSS.

A l'avenir, grâce aux télescopes spatiaux Gaia, JWST et WFIRST, on devrait pouvoir réduire l'incertitude en-dessous de 1 % en effectuant de nouvelles mesures de la parallaxe des Céphéides de la Voie Lactée et du Grand Nuage de Magellan, la calibration de nouvelles SNe Ia proches et une meilleure caractérisation des incertitudes systématiques. Avec une constante de Hubble plus précise, on devrait arriver à poser des contraintes plus sévères sur les modèles cosmologiques.

Rappelons qu'une valeur de 73 km/s/Mpc signifie qu'une galaxie située à 1 Mpc soit 3.26 millions d'années-lumière s'éloigne de nous à la vitesse comobile (du fait de l'expansion de l'univers) de 73 km/s. La nouvelle valeur indique que la distance moyenne entre les astres doublera dans 9.8 milliards d'années.

Cette valeur relativement haute a été obtenue sur base de deux échelles absolues différentes, la constante de Hubble et l'horizon sonique observé à travers le rayonnement cosmologique (comme ce fut déjà le cas en 2001), c'est-à-dire aux deux extrémités opposées de la ligne du temps de l'Histoire de l'expansion de l'univers. La différence avec les anciennes mesures, c'est qu'en 2001 toutes les autres échelles étaient relatives et ajoutaient une incertitudes pouvant atteindre 10 %.

Si ce problème de précision est aujourd'hui pratiquement résolu, la raison de cette expansion accélérée de l'univers reste mystérieuse et constitue un véritable défi pour les chercheurs.

Une expansion accélérée ? Finalement, peut-être pas

Ceci dit, selon une autre étude publiée en octobre 2016 par Subir Sarkar et ses collègues de l'université d'Oxford, le taux d'accélération de l'univers ne serait que marginal. En effet, sur base du catalogue JLA (Joint Light-curve Analysis) contenant 740 supernovae  de Type Ia et une analyse statistique de "maximisation de vraisemblance" (tenant compte d'effets correctifs dans l'analyse des courbes de luminosité des SNe Ia), ils ont obtenu un résultat "cohérent avec une expansion non accélérée", c'est-à-dire que l'univers s'étendrait plutôt à une vitesse constante, tout en ne s'opposant pas aux résultats des études précédentes.

Diagramme des contraintes sur la matière en fonction de l'énergie sombre permettant de déterminer les principaux paramètres de l'univers. Document A.Reiss et al. adapté par l'auteur.

Pour comprendre cet apparent paradoxe, le diagramme de contrainte matière-énergie sombre présenté à gauche est plus parlant, en particulier l'écart-type représenté par les zones en bleu basées sur l'analyse des supernovae. Le recoupement de ces données avec celles de la mission Planck permet d'obtenir la petite zone orangée qui se situe clairement dans la région du diagramme où l'univers est en accélération.

Le point faible de l'étude de Sarkar est justement son écart-type ou écart significatif qui est de 3 sigmas soit d'au moins 99.7 % de confiance. Bien que la valeur soit élevée, statistiquement ce n'est pas suffisant pour considérer leur résultat comme pertinent (et une découverte) car un écart-type significatif exige au moins 5 sigmas ce qui représente un niveau de confiance supérieur à 99.99997 % ou une erreur inférieure à 0.00003 %, ce qui n'est pas le cas de cette étude. De plus, par expérience (par exemple dans les expériences du CERN) on sait qu'un résultat si peu significatif représente généralement une fluctuation statistique. La "découverte" de Sarkar et son équipe reste donc toute relative et comme l'indique le diagramme, elle reste compatible avec un univers en accélération. De ce fait, Sarkar et son équipe reconnaissent "également que l'expansion est accélérée".

Sarkar et son équipe ont bien conscience que d'autres études confirment l'accélération du taux d'expansion de l'univers, non seulement les résultats de l'équipe d'Adam Reiss publiés quelques mois auparavant mais également les résultats obtenus par la collaboration Planck qui étudia le rayonnement cosmologique (2015). Pour leur défense, Sarkar et ses collègues rappellent que les résultats de la mission Planck sont basés sur des tests indirects fondés sur le modèle ΛCDM et d'insister sur le fait que la matière noire n'affecte pas directement le rayonnement cosmologique.

De plus, si on analyse non pas les supernovae mais les quasars distants d'au moins 10 milliards d'années-lumière, l'analyse de la "forêt Lyman-alpha" (provoquée par les absorbeurs d'hydrogène après la réionisation) permet de conclure qu'à cette époque reculée l'univers était en décélération, le phénomène d'accélération n'apparaissant qu'environ 5 à 8 milliards d'années après le Big Bang, c'est-à-dire à l'époque où les astronomes exploitent les données des supernovae de Type Ia.

Mais Sarkar et son équipe vont plus loin et suggèrent que selon les résultats de leur étude statistique, on ne peut pas écarter l'hypothèse que l'apparente contribution de l'énergie sombre à travers la constante cosmologique soit la conséquence d'une analyse des supernovae effectuée dans le cadre d'un modèle cosmologique trop simple, en particulier trop homogène et sur base de suppositions sinon gratuites du moins non validées. Dans une interview publiée dans le webzine de l'Université d'Oxford, Sarkar considère que "le modèle cosmologique Standard repose sur des bases chancelantes" car peu conformes à la réalité, d'où le risque de mal interpréter les données observationnelles comme dans le cas présent. Mais cette remarque a toujours été acceptée par les cosmologistes, encore faut-il avoir les ressources nécessaires (financières, techniques, humaines et intellectuelles) pour développer un modèle plus précis de la réalité que même Sarkar et ses collègues sont bien en peine de proposer. On y reviendra dans un autre article.

Finalement, Sarkar reste dubitatif quant à la réalité de l'expansion accélérée de l'univers mais arrive à une conclusion honnête qui satisfait tous les acteurs : "L'expérience CODEX proposée pour le ELT (Extremely Large Telescope) devrait mesurer la dérive Doppler sur une période de 10 à 15 ans afin de déterminer si le taux d'expansion est réellement en accélération".

En attendant de trancher la question, la communauté des cosmologistes se base sur des données significatives dont l'échantillonnage offre un écart-type bien précis (de 7σ et 9σ selon les méthodes de "best fit" utilisées) indiquant que l'univers est effectivement en expansion accélérée comme nous l'avons expliqué plus haut. Reste à présent à comprendre pourquoi et comment cela s'est-il déclenché.

Mais comme nous allons le découvrir, tout le monde ne croit pas en ce modèle, non pas a priori mais sur base de faits, il est vrai statistiquement un peu moins bien étayés.

Deuxième partie

Un effet sans cause apparente

Page 1 - 2 -


Back to:

HOME

Copyright & FAQ