dg2

Conférence sur H_0 (22-26 jiun 2020)

Recommended Posts

Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Photographier la Lune
Guide complet pour la photographier de la Lune.
Information et commande sur www.photographierlalune.com

Merci DG2.

 

 

 

 

 

 

 

Share this post


Link to post
Share on other sites

A tout hasard, si un pseudo-live intéresse du monde ici...

 

Premier exposé par Adam Riess, co-lauréat du Prix Nobel pour la découverte de l'accélération de l'Univers.

 

Le problème des "hautes" valeurs de H0 se produit non seulement pour les céphéides, mais pour pas mal d'indicateurs de distance (branche des géantes rouges, etc). Qu'on enlève tel ou tel indicateur, la tension entre les valeurs utilisant des proxies anciens ou moderne existe toujours. En gros : aucun indicateur récent de donne un H0 plus petit que 70 (on est au mieux à 72), aucun résultat basé sur des proxies ancien ne donne un résultat supérieur à 70 km/s/Mpc.

 

Ce n'est pas juste un problème fond diffus vs. céphéides. Le problème est plutôt confirmé par divers résultats récents comme Gaia dont les parallaxes réduisent les incertitudes sur la calibration des distances. 

 

Mais comme on ne parle bien que de ce que l'on connaît, Riess va surtout parler des céphéides. Parmi les difficultés de la méthode des céphéides, le fait que leu magnitude est difficile à évaluer, surtout au minimum, pour les galaxies lointaines (> 20 Mpc) car le champ où elles se trouvent est pollué par d'autres étoiles, mais apparemment c'est un biais bien compris ou maîtrisé.

 

Il évoque d'autres sources possible d'écart : nous pourrions vivre dans une région plutôt vide de matière dont l'expansion est plus rapide que le reste, donnant une valeur de H0 biaisé vers les hautes valeur -> ça ne marche pas car on devait alors voir des écarts en fonction de la direction (sauf à être exactement au centre d'un vide exactement sphérique). D'autres hypothèses simples de ce type sont également exclues (pas compris le détail).

  • Like 4
  • Thanks 5

Share this post


Link to post
Share on other sites

On a droit de poser une question idiote ?

Les mesures de Céphéides, NP, supernovae sont essentiellement locales.

Le fond diffus est très loin.

La différence de valeur ne peut pas indiquer que l'inconstante de Hubble a changé depuis l'époque du CMB ?

:/

 

  • Like 1

Share this post


Link to post
Share on other sites

Deuxième exposé : Rachel Beaton sur la détermination "locale" de H0, avec les "TRGB" (tip of red giant branch, c'es-à-dire l'extrémité de la branche occupée par les géantes rouges dans le diagramme HR.

 

(Gros) Avantage de la méthode : il y a des géantes rouges partout, pas besoin de compter sur une ou deux céphéides brillantes dans une galaxie donnée, d'où possibilité d'observer dans les régions périphériques des galaxies, moins soumises aux effets de pollution évoqués par Riess.

 

Inconvénient : il faut beaucoup de géantes rouges pour bien voir le diagramme HR. C'est une mesure statistique (comme le fond diffus dans un tout autre contexte) et non une mesure qui s'appuie sur des objets individualisés.

 

A noter que la TRGB donne des résultats plutôt intermédiaires entre les céphéides et le fond diffus.

 

Parmi les sources de biais (présente dans la plupart des proxies récents) : l'extinction qui biaise les magnitudes des objets mais qu'on peut en principe gérer par le fait que l'extinction s'accompagne d'un rougissement (la poussière absorbe plus dans le bleu que dans le rouge). Dans cette méthode spécifiquement : être pollué par plusieurs population d'étoiles, dont celle à faible métallicité qu'on trouve dans les halos (pas compris le détail).

 

A noter aussi que les problématiques liées à l'extinction sont aussi vieilles que l'étude des céphéides : le Grand Nuage de Magellan est difficile à comparer avec notre Galaxie à ce sujet (en plus d'une métallicité différente, qui a longtemps été considéré comme un problème potentiel).

 

 

  • Like 4
  • Thanks 3

Share this post


Link to post
Share on other sites
il y a 15 minutes, Superfulgur a dit :

La différence de valeur ne peut pas indiquer que l'inconstante de Hubble a changé depuis l'époque du CMB ?

 

C'est bien sûr pris en compte. A l'époque de l'émission du fond diffus, la densité est dans les un milliard de fois plus élevée et la constante de ubble 30000 fois plus importante qu'aujourd'hui. Les proxies anciens traduisent en terme de valeur à notre époque ce qu'ils trouvent de l'Univers primordial.

  • Like 2
  • Thanks 1

Share this post


Link to post
Share on other sites

Troisième exposé : Silvia Galli sur la détermination de H0 par l'intermédiaire du fond diffus et la mission européenne Planck en particulier. C'est la mesure la plus précise en terme d'incertitude et sans doute en terme de test de cohérence interne.

 

Petit historique : depuis WMAP (prédécesseur de Planck), la valeur préférée de H0 a toujours été à 67 ou 68, celle des céphéides toujours à 72 ou 73.

 

Ce qui a changé, c'est l'amplitude des barres d'erreur qui a diminué des deux côtés jusqu'à produire la tension/crise du moment.

 

Présupposés de l'analyse par le fond diffus : modèle dit LambdaCDM (matière noire + énergie noire), qui détermine le cadre dans lequel les fluctuations de densité croissent depuis la nucléosynthèse jusqu'à aujourd'hui. C'est une hypothèse dont n'ont pas besoin les mesures locales, mais dont la robustesse est bien établi par le fond diffus. Par exemple, l'image du fond diffus subit des distorsions à cause des effets de lentille gravitationnelles que l'on peut mesurer. L'amplitude de cette déformation (qui dépend de l'échelle angulaire considérée) est déterminer par le modèle LambdaCDM et ses paramètres et le tout est très cohérent.

 

Dans ce contexte, aucune rustine du modèle LambdaCDM n'apparaît comme changeant quoi que ce soit aux conclusion.

 

Comment estime-t-on H0 avec le fond diffus :

  • On détermine les rapports de densité entre radiation, matière ordinaire et matière noire par la granularité de la carte du fond diffus. Ces rapports sont déterminés avec une précision de 1% voire un peu mieux.
  • L'échelle angulaire qui intervient donne alors la distance à laquelle se trouve la région émettrice, qui est inversement proportionnelle à H0
  • La mesure est donc indirecte mais robuste : tous les paramètres qui interviennent dans la détermination sont déterminés avec une très haute précision.
  • De plus tous les paramètres sont fortement corrélés. Par exemple H0 est très anticorrélé avec la densité de matière noire. Si on veut augmenter H0 de 10%, il faut baisser la densité de matière noire d'autant, ce qui ne marche plus pour quantités de raisons.

Autre problématique : on peut ajouter au fond diffus un truc appelé oscillations acoustiques de baryons (pas le temps d'expliquer) qu'on détermine via catalogues de galaxies. Le résultat : elles sont parfaitement compatibles avec le fond diffus, diminuent les incertitudes dans l'estimation des paramètres (notamment H0) et ont tendance à préférer une valeur plus basse.

 

Autre test : la densité baryonique est aussi déterminée par l'abondance de deutérium : plus il y a de matière, moins la fraction de deutérium survivant à la nucléosynthèse est grande. Tirer H0 vers le haut induit une valeur de la densité de matière de plus en plus en tension avec l'abondance de deutérium.

 

A noter que selon l'échelle angulaire à laquelle on filtre la carte du fond diffus, on trouve des résultats légèrement différents. Pas de commentaire à ce sujet e la part de l'oratrice, donc j'imagine que c'est bien compris.

 

Bref tout ça forme un tout remarquablement cohérent... et de moins en mois compatible avec les céphéides.

 

D'une manière générale, quand on écoute Riess, on se dit que ce n'est pas possible que lui et ses collègues se trompent et donc que le pb est du côté du fond diffus et des proxies anciens, et quand on écoute S. Galli, on se dit exactement le contraire.

 

 

 

  • Like 3
  • Thanks 3

Share this post


Link to post
Share on other sites
Posted (edited)

Quatrième exposé : Lloyd Knox, sur les aspects théoriques.

 

La situation :

  • Les céphéides donnent H0 directement, fin de l'histoire
  • Les BAO (oscillation acoustiques de baryons) donnent une combinaison de la distance à la région émettrice du fond diffus et de H0.
  • Le fond diffus nous dit à quel endroit de cette courbe H0 doit se situer.
  • Et ce n'est pas à la valeur de H0 des céphéides que cela se produit.

Un point important : pour simuler le fond diffus, il faut tenir compte de quantité d'effets physiques. Tous pris individuellement ont un impact important et mesurable sur le résultat. Oublier l'un de ces effets rendraient les prédictions incompatibles avec les observations (aucun jeu de paramètres cosmologiques compatible avec les données). Conclusion (implicite me semble-t-il) : on serait franchement malchanceux d'avoir oublié un effet physique qui change l'estimation des paramètres sans laisser une trace dans les test d'auto cohérence des données.

 

Ceci étant posé, quel scénario alternatif à LabmdaCDM pourrait réconcilier tout ce monde ? (l'exercice de Lloyd Knox ne vise pas à prouver que les céphéides sont dans l'erreur, mais plutôt de voir que qui pourrait avoir échappé à tout le monde).

 

En gros, il faudrait tripatouiller la recette cosmique entre un redshift de 1000 et 10000 (au plus tard 38000 après le Big Bang), mais pas vraiment ailleurs.

 

Donc en gros, une composante supplémentaire dans le contenu énergétique de l'Univers, mais qui ne se manifeste que dans un intervalle de temps limité afin de ne pas perturber le reste. Vu que les densités d'énergie décroissent au cours du temps mais à des rythmes différent c'est en principe possible, mais il n'est pas facile d'avoir une composante négligeable jusqu'à une époque, sous-dominante à un moment et qui retombe dans l'oubli juste après.

 

C'est un peu la limite de l'exercice : il y a énormément de contraintes sur ce qu'on ne peut pas faire, que toute explication semble nécessiter un ajustement très fin pour présenter une quelconque utilité. Mais dans ce contexte, il y a des trucs qui semblent marcher.

Edited by dg2
  • Like 3
  • Thanks 4

Share this post


Link to post
Share on other sites
Posted (edited)

Merci beaucoup pour ce "pseudo live" qui intéresse au moins moi et Superbaltringue.

 

J'ai l'impression de retrouver exactement les mêmes protagonistes et les mêmes arguments sur les forces et les faiblesses des différentes approches que dans l'article du HS de Pour La Science consacré au congrès de juillet 2019.

https://www.pourlascience.fr/sr/article/expansion-de-lunivers-un-probleme-de-vitesse-18621.php

Edited by Kirth
  • Like 3

Share this post


Link to post
Share on other sites

moi aussi je suis cela avec avidité !!! (mais silencieusement)

  • Like 2

Share this post


Link to post
Share on other sites
Posted (edited)

 

il y a 10 minutes, Kirth a dit :

J'ai l'impression de retrouver exactement les mêmes protagonistes et les mêmes arguments sur les forces et les faiblesses des différentes approches que dans l'article du HS de Pour La Science consacré au congrès de juillet 2019.

 

La situation ne me semble pas avoir radicalement changé en ce sens que le désaccord est toujours là et même plus marqué car à l'exception d'un groupe qui utilise les TRGB, aucun proxy de l'univers récent ne s'approche des valeurs des proxies anciens. Pour Wendy Freedman (qui travaille sur les TRGB) c'est encourageant parce que la méthode du TRGB est le proxy récent le plus "propre", mais des gens comme Lloyd Knox considèrent de leur côté qu'il ne fait plus de doute que la tension existe et pointe vers une explication qui selon toute vraisemblance va être assez exotique.

 

On peut dire qu'on se trouve obligé à choisir entre (i) une explication exotique justifiant que l'ensemble des proxies récents ou anciens se plante, et (ii)  une explication exotique selon laquelle le modèle sous-jacent doit se voir ajouter un ingrédient supplémentaire au seul motif que ça ne marche pas sinon.

Edited by dg2
  • Like 3
  • Love 1

Share this post


Link to post
Share on other sites

Ce n'est plus une tension en fait.

Quand tout le monde a raison dans le cadre théorique commun, et que les valeurs trouvées sont incompatibles, ça laisse penser que c'est le cadre théorique qu'il faut changer.

 

Merci en tout cas pour vos éclairages, on a l'impression d'être au bord d'une percée historique.

  • Like 3

Share this post


Link to post
Share on other sites
Il y a 1 heure, dg2 a dit :

Vu que les densités d'énergie décroissent au cours du temps mais à des rythmes différent c'est en principe possible, mais il n'est pas facile d'avoir une composante négligeable jusqu'à une époque, sous-dominante à un moment et qui retombe dans l'oubli.

 

C'est là que ça devient franchement exotique.

Et merci pour le débriefing.

Dans cette affaire, il ne manque peut-être plus que l'intuition géniale qui conduirait à formuler la bonne hypothèse pour construire la nouvelle théorie ( à tester ).

  • Like 2

Share this post


Link to post
Share on other sites

Du point de vue théorique, j'y panne quedalle, mais d'un point de vue pratique, l'exposé très clair de Dg2 indique une direction : LSST et Euclid, qui vont observer dans un volume gigantesque un échantillon de balises cosmologiques en nombre gigantesque vont "bientôt" resserrer la valeur locale de H0. On va suivre, par exemple, quelques SN détectées dans des mirages gravitationnels à des redshift énormes, genre 1 à 3... Ensuite, si le problème demeure crucial, JWST et les ELT pourront sonder ces mêmes balises à des redhifts plus hauts qu'aujourd'hui.

Bref, on est pas (enfin je crois) ici dans une impasse observationnelle, le sujet va continuer à évoluer dans les années qui viennent, c'est intéressant.

 

J'aime particulièrement :

 

Il y a 2 heures, dg2 a dit :

D'une manière générale, quand on écoute Riess, on se dit que ce n'est pas possible que lui et ses collègues se trompent et donc que le pb est du côté du fond diffus et des proxies anciens, et quand on écoute S. Galli, on se dit exactement le contraire.

 

 

  • Like 1

Share this post


Link to post
Share on other sites
Il y a 2 heures, dg2 a dit :

Donc en gros, une composante supplémentaire dans le contenu énergétique de l'Univers, mais qui ne se manifeste que dans un intervalle de temps limité afin de ne pas perturber le reste. Vu que les densités d'énergie décroissent au cours du temps mais à des rythmes différent c'est en principe possible, mais il n'est pas facile d'avoir une composante négligeable jusqu'à une époque, sous-dominante à un moment et qui retombe dans l'oubli.

 

hum hum hum... je me risque à une question sans doute ridicule, mais ça me turlupine depuis un moment déjà, en fait depuis la première détection directe d'OG
Voilà : GW150914 concernait la fusion de 2 TN de 36 et 29 masses solaires ; Il en a résulté un TN de 62 masses solaires plus l'équivalent de 3 masses solaires sous forme d' OG, se propageant à la vitesse de la lumière dans toutes les directions. C'est ça qui m'a frappé : cette énorme quantité d'énergie délivrée sous forme d'OG. Est-ce que cela a une influence sur le taux d'expansion de l'univers, en sachant que peut-être cette production d'OG a subi probablement d'importantes variations dans l'histoire de l'univers ?
Comme je n'ai lu aucune allusion des cosmologistes à cette affaire j'imagine que je suis à côté de la plaque... :P

  • Like 1

Share this post


Link to post
Share on other sites

Merci beaucoup @dg2 pour ces compte-rendu très clairs et passionnants !

 

jf

  • Like 1

Share this post


Link to post
Share on other sites
Posted (edited)
Il y a 17 heures, jackbauer a dit :

Comme je n'ai lu aucune allusion des cosmologistes à cette affaire j'imagine que je suis à côté de la plaque...

 

On peut faire un ordre de grandeur simple pour répondre à cette question  : lors de la fusion de deux TN, la luminosité gravitationnelle est comparable à la luminosité électromagnétique (EM) de toutes les étoiles de l'Univers observable. Or la coalescence ne ure franchement pas longtemps (200 ms pour le premier événement LIGO), et l'intervalle entre deux fusions est très long (plusieurs semaines pour un volume de plus de 300 Mpc de côté). En conséquence, l'injection de rayonnement gravitationnel est ridicule comparé au rayonnement EM des étoiles, qui ne compte que pour 2 ou 3% du rayonnement EM total, dominé (à 95%) par le fond diffus cosmologique, lui même ne comptant que pour moins de 0,01 % du bilan énergétique total de l'Univers.

 

Par contre (Riess en a parlé brièvement), les ondes gravitationnelles ne sont pas des "chandelles standards", mais des "sirènes standards", qui donc peuvent remplacer avantageusement les chandelles standard actuelles. Mais le problème majeur sera la statistique : des événements intrinsèquement très propres (seule la gravité y est à l'oeuvre), mais bien rares.

Edited by dg2
  • Like 5
  • Thanks 1

Share this post


Link to post
Share on other sites

Moi aussi  je suis de très prés ce "live" merci beaucoup @dg2 !

  • Like 1

Share this post


Link to post
Share on other sites

Deuxième session de la conférence, aujourd'hui consacrée aux détermination de distance, étape indispensable pour les proxies récents de HO.

 

Le premier orateur, Lennart Lindegren, va parler des résultats de Gaia à ce sujet. Si vous n'avez pas idée du volume de travail nécessaire pour arriver à déterminer les parallaxes de 1,3 milliard d'étoiles, vous allez vite comprendre, je pense.

 

Deuxième intervention par Grzegorz Pietrzynski avec un titre assez vague, pas sûr qu'il se focalise sur une méthode spécifique de détermination de distances. Hier lors de la séance de questions, Wendy Freedman avait résumé en un graphique les forces et faiblesses des différentes méthodes (avec le meilleur bilan pour la méthode  sur laquelle elle travaille, ceci dit...), peut-être aura-t-on un aperçu plus détaillé de la chose.

 

Troisième intervention de l'après-midi par Caroline Huang sur l'utilisation des étoiles de type Mira comme chandelle standard (en lieu et place des céphéides par exemple). C'était hier la méthode indiquée comme la moins intéressante par Wendy Freedman, mais je ne sais pas si c'est qu'elle est intrinsèquement faible (mauvaise compréhension de ces étoiles par exemple), ou juste que cela ne fait pas encore assez longtemps qu'on étudie le truc.

 

Dernier exposé par Bruno Leibundgut sur les supernovae comme chandelle standard (les Ia a priori au vu de ses publications récentes). Il y a une vingtaine d'années, B. Leibundgut endossait le rôle quasi officiel d'avocat du diable au sujet des supernovae comme indicateur de l'accélération de l'expansion ("officiel" car il faisait partie d'une des deux manips). Il s'amusait à faire remarquer que les méthodes de sélection et de réduction de données des deux équipes étaient globalement  incompatibles entre elles, en conséquence de quoi le fait qu'elles trouvent toutes deux le même résultat (l'expansion s'accélère depuis quelques milliards d'années) était peut-être juste le signe que les deux se plantaient dans les grandes largeurs... pour des raisons différentes. Il n'est donc pas exclu qu'il soit plus critique que les autres intervenants, mais on peut espérer que dans l'affirmative il apporte néanmoins du poil à gratter intéressant.

  • Like 4
  • Love 1
  • Thanks 1

Share this post


Link to post
Share on other sites
Posted (edited)

C'est parti pour aujourd'hui. Premier intervenant, Lennart Lindegren du consortium Gaia.

 

Gaia est une mission européenne succédant à Hipparcos avec un gain de 10000 dans le nombre de parallaxes mesurés.Gaia va (et a déjà) apporté beaucoup à quantités de domaines en astronomie. A titre d'exemple, les solutions actuelles de Gaia n'incorporent que les mouvements propres + parallaxes, mais à terme, la solution incorporera aussi les mouvements orbitaux. Même si seule une étoile sur 100000 présente un mouvement mesurable dû à une exoplanète distante, Gaia grossira le contingent d'exoplanètes de.... 10000. Mais ce n'est pas l'objet de cette présentation, qui va se focaliser sur les céphéides et Mira galactiques (et qui sait une future supernova ?).

 

  • Le relevé : complet jusqu'à mag 20,6 (15 magnitudes d'amplitude, donc, puisqu'on ne part que à partir de mag 6)
  • Lancement décembre 2013
  • Opération : min 5 ans, jusqu'à 10 ans (2023, donc)
  • Couverture complète du ciel, 14 visite d'une région donnée par an.
  • Méthode de mesure : deux miroirs pointant à 106° l'un de l'autre. On mesure des déplacements relatifs d'étoiles les unes par rapport aux autres dans les deux champs, donc le nombre de points de données va en N2, où N est une fraction du nombre d'étoiles (ça fait beaucoup au final, donc).
  • En plus du 1,3 milliards de parallaxes, on s'attend à 7 millions de vitesses radiales (mag < 12) et jenesaiscombien de spectres détaillés (pas eu le temps de voir).
  • Les données sont des séries temporelles, dont également photométriques.
  • Bonus : photométrie de tout ce qu'on peut identifier dans M31 (5° autour du centre).
  • Calage des mouvements propres/parallaxes sur 2800 quasars dont le mouvement propre/parallaxe est nul (trop loin pour être détectable) et position astrométrique connue à quelques dizaines de microsecondes d'arc en VLBI (interférométrie radio)

Il rentre dans divers détails technique expliquant les sources d'erreurs des mesures et qui vont déterminer les incertitudes finales.

 

Le point important est que l'incertitude dépend de l'objet et de son environnement et peut être corrélé à celle d'autres objets. Il n'est pas évident de dire que tel objet a une incertitude de tant sur sa parallaxe.

 

Une estimation des incertitudes : la détection d'une parallaxe (en réalité inexistante) sur 500000 quasars, typiquement 30 muas jusqu'à mag 19, mais d'autres analyses par des groupes extérieurs sont plutôt à 50-60 muas. A noter que à cause de cela, on peut très bien obtenir des parallaxes négatifs (mouvements apparents à l'opposé de celui attendu pour des parallaxes). Cela donne une idée des incertitudes : une parallaxe négative d'un objet en réalité sans parallaxe (un quasar, par exemple) n'est rien d'autre que l'incertitude de la détermination. 

 

Volume actuel de données : 1,5x10^12 observations astrométriques, fortement corrélées les unes avec les autres, d'où l'intervalle important entre la prise de données et la publication des résultats : c'est un gros volume de calcul (plusieurs mois/années sur un paquet de CPU ; dommage qu'il n'ait pas rappelé les chiffres, assez impressionnants). Même si le principe général est simple, ça prend du temps. 

 

Petite comparaison entre la DR2 (publique) et la DR3 (DR = data release) : amélioration de 30 muas de l'incertitude sur les mouvements propres. Ce n'est qu'un teaser, mais il laisse entendre que ce sera largement mieux grâce à la plus grande base temporelle (3 ans vs. 1,5 a ; rien de surprenant tant que les performances de l'instrument ne se dégradent pas).

 

Maintenant ce qui nous intéresse : déjà 72 millions d'objets (de tout type) avec parallaxe mesuré avec une amplitude 10 x plus grande que l'erreur (donc erreur de distance < 10%). A terme 10 millions. Pour des précision de 1% : aujourd'hui 2 millions, à terme 15. J'ignore combien de céphéides seront dans le lot, ceci dit (plusieurs centaines de céphéides dès la DR3 dixit Pierre Kervella dans la séance de questions).

 

Il montre brièvement le peuplement des régions du diagramme HR dont les paramètres sont mesurés. Pas eu le temps de voir où étaient les zones des chandelles standard, mais clairement, il y a des parallaxes partout, donc dans toutes les régions "intéressantes'.

 

Finalement, il ne donne rien sur tel ou tel objet, mais ce sera peut-être l'objet du prochain exposé.

Edited by dg2
  • Like 2
  • Thanks 4

Share this post


Link to post
Share on other sites
Posted (edited)

Deuxième exposé par Grzegorz Pietrzynski sur autre chose, finalement : la calibration de divers indicateurs extragalactiques.

 

Par exemple, la calibration des céphéides dépend potentiellement de la métallicité (problème connu depuis Henrietta Leavitt : la métallicité du Grand Nuage diffère de celle de notre Galaxie).

 

Autre exemple, effets d'extinction (absorption par les poussières).

 

Il parle d'un indicateur intéressant, les binaires à éclipses pour déterminer la distance du LMC (nécessaire pour calibrer les céphéides, je suppose - pas eu le temps de tout suivre en tapant au clavier)

 

35 millions d'étoiles individualisées dans le LMC, 26000 binaires, seulement 36 binaires à éclipse, avec une période lente (300 jours), heureusement la manip OGLE (polonaise) observe le LMC depuis 20 ans. C'est le prix à payer pour ben étudier ces systèmes.

 

L'avantage de ces binaires à éclipses : c'est un système géométrique, leur distance (relative ?) peut être déterminée avec une précision pouvant aller jusqu'à 0,2% (!) sans avoir besoin de parallaxes galactiques, d'où l'intérêt du LMC.

 

On en déduit la distance(plus inclinaison, etc) au LMC : 1%

Pour le SMC : 2%

 

Intérêt du truc au final (si j'ai bien compris) : avec cette précision, on peut vérifier l'influence de la métallicité sur les indicateurs des binaires et surtout faire des cartes d'extinction du LMC qui seront nécessaire pour analyser les céphéides (et accessoirement, cela permet de comparer aux autres cartes d'extinction - globalement c'est OK, sauf pour un truc mais plutot théorique qu'observationnel).

 

Ensuite, il parle de ces systèmes dans notre Galaxie. Là, toujours pas besoin de parallaxes, on va faire de l'astrométrie interférométrique. On détermine la séparation des composantes via interférométrie et on déduit l'orbite (projetée) sur le ciel et on en déduit la distance (très précise si je comprends bien, mais pour un petit nombre d'objet : on n'a rien sans rien). Désolé, je ne connais pas assez bien le truc pour bien expliquer l'articulation logique avec ce qui précède. Ce doit être assez simple pourtant...

 

 

Edited by dg2
  • Like 3
  • Thanks 2

Share this post


Link to post
Share on other sites
Posted (edited)

Troisième exposé, Caroline Huang sur l'utilisation des étoiles de type Mira comme indicateur de distance.

 

Rappel : on détermine la distance des céphéides par des méthodes géométriques (parallaxes par ex.), pour on utilise les céphéides pour calibrer la distance des supernovae de type Ia (SN Ia) puis on utilise celles-ci sur des distances cosmologiques pour déterminer au mieux H0 (plus l'intervalle de distance est grand, plus l'effet de levier l'est, donc c'est meixu avec les SN Ia, mais il faut les calibrer avant). Sinon, on s'arrête aux céphéides, mais le bras de levier est bien moindre. On peut faire de même avec les Mira (seules ou comme calibrateur des SN Ia).

 

Rappel maintenant sur les Mira : ce sont parmi les rares étoiles résolues par le HST (eh oui, il n'y a pas que Bételgeuse).

 

Période de variation ~300 jours, un peu irrégulière, amplitude de l'ordre de 5 mag : c'est leur intérêt : ce sont les étoiles les plus variables mais elles ne peuvent être bien observées qu'en IR (pas compris pourquoi, mais ce sont des enveloppes très étendues, donc sans doute assez froides).

 

Autre avantage : il y en a bien plus que des céphéides.

 

Autre avantage aussi : plus brillantes.

 

Reste à en étudier dans des galaxies aux distances bien établies : LMC et CMC, donc (cf. précédente présentation), plus NGC 4258 grâce à un maser à hydrogène qu'on y a trouvé (plus de détails un prochain jour à ce sujet). La distance à cette galaxie est déterminée à 1,5%.

 

Comparaison Mira/céphéides dans NGC4258 : les premières sont plus présentes, plus uniformément distribuées, donc moins sujettes à des effets d'environnement qu'on ne verrait pas sinon. Bonus : on en trouve beaucoup dans les régions périphériques, donc moins polluées (cf. exposé de Riess hier).

 

Elle parle maintenant de NGC 1559, une galaxie d'importance car il y a eu une SN Ia et on y a détecté des céphéides. -> on va y chercher une mesure de distance indépendante.

 

Elle reprend le graphique de Wendy Freedman sur les forces et faiblesses de la méthode. C'est pour l'heure moins bien en raison du faible nombre de galaxies où elles ont été étudies, de la faible connaissance des effets de métallicité et (conséquence du faible nombre de galaxies) de la méconnaissance de l'extinction pour celles étudiées. Pas vraiment entendu si elle dit que ça va peu à peu rattraper le retard sur les céphéides. (mais bon si elle n'y croyait pas, elle ne travaillerait pas dessus).

 

Elle passe aux résultats : la détermination de H0 par les seules Mira est à 73,? +/- 4 km/s/Mpc.

 

Prospective :

  • on doit pouvoir faire mieux avec des Mira plus brillantes, plus contrastées, mais avec de très longues périodes (> 1000 j), donc ça prendra du temps. Pb connu : la loi période luminosité est moins bien déterminée théoriquement.
  • Recherche de Mira dans M101, puiqsu'on y a trouvé une SN Ia il n'y a pas longtemps (SN2011fe), et c'est du reste la SN Ia la plus proche détectée depuis très longtemps (certains ici l'ont peut-être observée ?).
  • Demande de temps HST pour des observations de Mira dans un plus grand nombre de galaxies où des SN Ia ont été observées (pas eu le temps d'écouter quel volume d'observation est nécessaire pour ça).

 

Edited by dg2
  • Like 2
  • Love 1
  • Thanks 2

Share this post


Link to post
Share on other sites
Posted (edited)

Dernier exposé : Bruno Leibundgut sur les supernovae.

 

Problématique connue : sur le principe c'est simple : une naine blanche atteint la masse de Chandrasekhar et à cette masse là explose : chandelle standard parfaite.

 

Sauf que non : les courbes de lumière ne sont pas uniformes, donc c'est plus compliqué. Par exemple, le progéniteur pourrait être un système double de naines blanche entrant en collision, ce qui expliquerait des différences d'énergie car la masse du système varie  (plus la géométrie).

 

Leibundgut n'est pas un théoricien de l'explosion de ces machins, il va parler du point de vue d'un observateur.

 

D'ordinaire, on procède de façon phénoménologique : les courbes de lumière semblent ne dépendre que de deux paramètres, ce qui en fait non pas des chandelles standard, mais des chandelles "calibrables" (= les unes par rapport aux autres, exactement comme les céphéides avec la relation période-luminosité).

 

Au final, on ne sélectionne qu'une partie des SN Ia trouvée, on dégage les cas trop "bizarres" ou insuffisamment observés (il ne faut pas rater le pic d'émission sinon on ne peut pas faire grand chose).

 

Au final la recette permet d'en faire d'excellents indicateurs de distances relative. Utile pour déterminer l'accélération e l'expansion mais insuffisant pour déterminer H0.

 

Développement récent : l'homogénéité des courbes de lumière semble bien meilleure en IR proche (je suis surpris que personne ne l'ait remarqué depuis 20 ans, mais bon, c'est une bonne nouvelle). Ceci dit, on ne sait pas pourquoi (en tout cas BL ne prétend pas le savoir lui). Autre avantage : en IR, on est bien moins gêné par l'extinction, ce qui est une excellente nouvelle.

 

Au final : 37 SN Ia en IR donnent d'aussi bons résultats que 200 dans le visible.

 

L'étape suivante est donc toute trouvée : refaire des observations de SN Ia en IR. Prendra du temps, mais le gros de la machinerie utilisée en visible va marcher. Reste que la calibration reste à faire et personne ne sait quand une SN Ia proche aura lieu.

 

Petit retour sur la détermination de la loi de Hubble : a priori c'est simple, mais il faut tenir compte des vitesses particulières des galaxies, etc. Au niveau de précision requis ces effets doivent être pris en compte, mais sont atténués par les SN lointaines.

 

Rapide survol de l'utilisation des SN II (effondrement de coeur) pour l'exercice de détermination de H0.

 

Plus de variabilité d'une SN à l'autre, mais des espoirs qu'elles soient "standardisables", et il faudra les calibrer aussi (observer des galaxies avec SN II + céphéides/ Mira. Pour l'instant, ça ne peut rivaliser avec les SN Ia, mais le sujet est plus récent. Il faudra sans doute plus d'observation par SN pour en faire un concurrent sérieux. Avantage quand même du truc  (il ne le dit pas, c'est moi qui élabore) : les SN II sont parfois plus brillantes, donc visibles de plus loin, et aussi plus fréquentes, au moins dans les galaxies starburst.

 

Direction prometteuse : une modélisation simple de la photosphère en expansion pourrait éviter de nécessiter de calibration avec des céphéides ou autres, mais divers effets d'opacité sont présentes, et on observe qu'il ne sont pas les mêmes que pour les SN Ia.

 

Bref, dans chacun des cas, il faut vraiment aller dans les détails pour comprendre comment on arrive à gratter le petit pourcent ici et là qui fait toute la différence dans les tensions observées et sélectionnes les méthodes efficaces de détermination de H0 au profit des autres.

 

Edited by dg2
  • Like 4
  • Thanks 2

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now