dg2

Conférence sur H_0 (22-26 jiun 2020)

Messages recommandés

Encore merci @dg2 pour ces résumés. C'est clair, concis, et on y apprend plein de trucs.

 

Je n'avais jamais réalisé qu'on pouvait utiliser les binaires à éclipse pour mesurer les distance. En y réfléchissant deux secondes c'est logique, on peut déterminer leur masse, donc probablement leur luminosité absolue.

 

Comme toi, je suis un peu surpris qu'on ait pas plus d'observations de SN en IR, mais comme tu dis, le bon côté des choses c'est qu'il doit y avoir de la marge pour améliorer les mesures :)

 

jf

 

EDIT: vilaine fôte d'ortaugraffe.

Modifié par jfleouf
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonsoir dg2, d'abord un énorme merci pour ce travail de synthèse et de partage remarquable à la volée : c'est tout à fait passionnant de balayer ainsi l'état de l'art, et pour moi qui - comme beaucoup j'imagine - ne possède que des notions générales (et encore incomplètes) dans chacun de ces domaines, c'est fantastique de pouvoir accéder ainsi aux dernières recherches en cours, et en comprendre au moins les tenants et aboutissants.

(au passage, on comprend que l'astrométrie de pointe est absolument déterminante pour avancer, en fournissant des mesures irremplaçables : les données Gaia donnent le vertige !)

Une question béotienne concernant les OG utilisées comme "sirènes standard" comme tu les a appelées ;), au milieu de ce flot d'informations impressionnant : 

Il y a 18 heures, dg2 a dit :

Mais le problème majeur sera la statistique : des événements intrinsèquement très propres (seule la gravité y est à l'oeuvre), mais bien rares.

Peut-on espérer l'améliorer par des progrès observationnels, en sondant un volume d'univers plus vaste jusqu'à un redshift élevé, grâce à une sensibilité accrue par exemple ?

Dans un univers juvénile, le nombre d'évènements détectables chuterait-il obligatoirement et radicalement, ou d'autres phénomènes plus précoces pourraient-ils être à l'oeuvre pour nous aider ?

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, Alain MOREAU a dit :

Peut-on espérer l'améliorer par des progrès observationnels, en sondant un volume d'univers plus vaste jusqu'à un redshift élevé, grâce à une sensibilité accrue par exemple ?

 

Bien sûr, le projet Einstein Telescope (interféromètre terrestre à moyenne profondeur) fera , beaucoup mieux que LIGO et Virgo, pour trois raisons : interféromètre plus long, enfoui plus profondément et donc protégé du gros du bruit sismique qui reste en surface (modulo un choix idéal du site, actuellement en cours je crois), et surtout ce n'est pas un interféromètre à deux, mais à trois bras (en triangle), ce qui augmente considérablement la qualité du signal (grâce à la fameuse clôture de phase qu'on trouve en interférométrie "classique"). Mais ces interféromètres ont quand même un désavantage par rapport aux méthodes EM : l'amplitude est modulée à la fois par l'inclinaison du plan orbital par rapport à la direction d'observation, et par l'orientation du détecteur. Donc même si les événements sont propres, il en faut suffisamment et/ou il faut suffisamment de détecteurs pour cela. Par contre, je n'ai pas en tête s'il est mieux d'avoir des événements lointains et bruités ou des événements plus nombreux mais plus proches.

 

Rendez-vous demain à 16h15 pour le détail, donné par Bernard Schutz à ce sujet.

 

 

  • J'aime 2
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Et bien justement, la collaboration LIGO/VIRGO vient de publier un papier sur la détection d'une nouvelle fusion de deux objets compacts, avec une tentative de détermination de la constante de Hubble. L'excellent site "ça se passe la haut" nous explique tout ça :

 

https://www.ca-se-passe-la-haut.fr/2020/06/detection-gravitationnelle-dune-fusion.html


extraits :


Voilà une belle découverte obtenue par la détection d'ondes gravitationnelles : celle d'un objet à la frontière entre étoile à neutrons et trou noir. C'est la première détection d'ondes gravitationnelles par LIGO/Virgo qui a pour origine un couple aussi différent en terme de masses : 23,2 masses solaires pour le premier trou noir et seulement 2,6 masses solaires pour l'"autre objet"... car les chercheurs n'arrivent pas à savoir si c'est une (trop) grosse étoile à neutron ou bien un très petit trou noir... L'étude est parue dans The Astrophysical Journal Letters.
(...)
Plus intéressant encore, le signal gravitationnel de cette fusion atypique a permis aux physiciens gravitationnels de mesurer la constante de Hubble-Lemaitre de façon indépendante des autres méthodes en vigueur et qui se chamaillent... Et surtout de prouver qu'il était possible de faire ce type de mesure à partir de fusions de ce type. Pour faire cette évaluation, forcément soumise à une précision assez faible par rapport aux autres méthodes, en l'absence de localisation exacte de la galaxie hôte de cette fusion de trou noir/étoile à neutrons, les chercheurs ont considéré toutes les galaxies potentielles présentes dans la zone localisée de 20° carré (472 galaxies) et ont calculé un redshift moyen pondéré par la probabilité que la galaxie soit effectivement celle où s'est déroulé le cataclysme. Avec cette valeur de redshift d'une part et la valeur de distance obtenue par les ondes gravitationnelles d'autre part, les physiciens de la grande collaboration obtiennent une valeur de H0 égale à 75 +- 36 km/s/Mpc. Pas si mal compte tenu de la mauvaise localisation de la source. 
L'ajout des nouveaux interféromètres KAGRA et LIGO-India pour former un réseau mondial de détecteurs d'ondes gravitationnelles permettra bientôt de localiser les sources beaucoup plus précisément dans le ciel et de pouvoir identifier la galaxie hôte et ainsi déterminer H0 sans besoin de contrepartie électromagnétique. C'est le pari des physiciens gravitationnels.  

  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites

Troisième journée aujourd'hui, cette fois majoritairement  consacrée à des indicateurs de distance non stellaire.

 

Première oratrice de la journée, Tamara Davies sur les détermination de redshift (dont dixit un de ses derniers papiers, divers petits biais peuvent altérer de façon plus significative que ce qu'on pourrait croire la détermination de H0). Indépendamment de son intervention d'aujourd'hui, T. Davies a écrit il y a pas mal d'années de cela un papier remarquable avec Charles Lineweaver sur les subtilités de l'expansion de l'Univers. Le papier est ici : https://arxiv.org/abs/astro-ph/0310808 . Une version allégée était sortie dans Scientifiic American puis traduite en français dans Pour la Science, mais j'ai toujours trouvé l'original mieux fichu que la version vulgarisée.

 

Second intervenant,  Kenneth Wong qui parlera de la détermination de H0 par les lentilles gravitationnelles. Le principe est assez simple : une galaxie d'avant plan lentille un quasar d'arrière plan qui a donne à voir deux images (ou plus). Les rayons lumineux donnant les deux images ont suivi des chemins différents, et arrivent donc avec un léger délai les uns par rapport aux autres. La variabilité naturelle du quasar (quand il veut bien collaborer) permet ensuite de déterminer l'écart des temps d'arriver. Cette donnée plus l'écart angulaire des images permet de déterminer la distance de la galaxie lentille. Ces détermination donnent une valeur haute de H0, comme les céphéides et a significativement contribué à ce que les gens commencent à se demander s'il n'y avait pas un loup quelque part.

 

Troisième intervenant, Dominic Pesce qui va parler des mégamasers. Les mégamasers sont des sources radio, ponctuelles et brillantes, et donc parfaitement appropriées pour de l'astrométrie en VLBI (interférométrie radio). C'est par ce biais que dès 2005 on avait pu déterminer le mouvement propre de M33. L'idée ici est de faire pareil, mais sur des galaxies bien plus lointaines, en utilisant à cet effet des masers proches des centres galactiques et donc dotés de vitesses de déplacement (par ailleurs déterminées par spectroscopie) bien plus grandes. On mesure la vitesse et le déplacement angulaire, on en déduit la distance. C'est aussi un des moyens de calibration des distances puisqu'utilité en combinaison des céphéides avec M106/NGC 4258, mais en fait sur le papier, les masers tout seuls suffisent. Une des étapes limitantes de cette méthodes (comme la précédente du reste) est la précision astrométrique.

 

Dernier intervenant, Bernard Schutz sur les sirènes standard. Bernard Schutz est le gars qui en... 1986 avait fait remarquer que en mesurant  l'amplitude des ondes gravitationnelle d'une coalescence d'objets compacts on en déduisait sa distance (jusque là on n'a pas inventé l'eau tiède), et qu'avec plusieurs détecteurs ont pouvait par triangulation déterminer la position de l'événement. Muni de ces deux informations, on pouvait identifier la galaxie hôte soit par sa contrepartie optique (si une ou deux étoiles à neutrons interviennent dans la coalescence), ou sinon identifier un petit nombre de galaxies susceptible d'avoir abrité ledit événement. Connaissant le décalage vers le rouge de la galaxie, on en déduit la valeur de H0, ou sinon, plusieurs valeurs possibles (une par galaxie candidate). On refait le truc pour plusieurs autres événements,, et on ne garde que les valeurs de H0 commune à chacun des ensemble, etc. La méthode a pour la première fois été mise en oeuvre 31 ans après sa description avec la première détection de fusion EN-EN avec GW170817 dans NGC 4993, pour des résultats encore très peu précis mais comme toujours, le temps et donc la statistique jouent pour nous. Reste  à savoir si le diable se ache dans les détails et s'il existe ou non un plafond à la précision atteignable.

Modifié par dg2
  • J'aime 1
  • Merci 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Première intervention de Tamara Davies.

 

Question abordée : à quel point mesure-t-on les redshifts avec précision ?

 

Spoiler : il y a des erreurs sur les redshifts, mais sans doute pas assez importantes pour expliquer la tension sur la détermination de H0.

 

Il faut une précision de 10^-4 sur les redshifts pour éviter tout problème dans l'exercice, les incertitudes données dans la littérature sont dans la fourchette 10^-5 à 10^-3.

 

Un peu de spectroscopie maintenant : à quoi ressemble une erreur de 10^-4 dans une détermination de redshift ?  C'est claire que sauf à regarder une très petite plage de longueur d'onde. En pratique, une des difficultés (connue des amateurs) est la calibration de l'instrument : la calibration doit être faite sur tout le spectre, mas juste une ou deux raies.

 

Suit la liste d'erreurs possibles :

  • dispersion des vitesses dans l'objet
  • Calibration (cf. plus haut)
  • Réfraction
  • Précision dans la position des raies (négligeable ici mais pas complètement inexistante)
  • etc. (pas eu le temps de tout noter)

 

Par ailleurs, l'Univers n'est pas un milieu complètement homogène, et les photons subissent un décalage vers le rouge ou vers le bleu en traversant les puits de potentiel, et en cumulé, cela perturbe l'estimation du vrai redshift de 10^-5 (je suppose que c'est l'équivalent d'un truc appelé l'effet ISW pour le fond diffus).

 

Autre effet, bien plus important (et connu) : les vitesses particulière (30 km/s pour la Terre, 200 km/s du référentiel héliocentrique et 600 km/s en galactocentrique (connu par le fond diffus)..Idem bien sûr pour les galaxies mesurées (et là c'est moins connu).

 

Elle donne un exemple de cela avec NGC 4993, utilisé pour la première sirène standard. C'est un cas extrême car objet unique à bas redshift (0,01).

 

Autre subtilité : cette correction est sans objet pour les galaxies proches, qui partagent sans doute une grande partie de ce mouvement d'ensemble avec nous.

 

Petite pique lancée à des gens qui utilisent une formule approchée pour corriger de la vitesse particulière du réf héliocentrique, qui peut effectivement induite des erreurs de l'ordre 10^-3.

 

Elle parle ensuite de l'impact des erreurs pour des redshifts plus élevés (BAO), mais la conclusion est que ça n'est pas trop gênant.

 

Une remarque intéressante : les proxies récents de détermination de H0 sont photométriques : n déduit la distance via la luminosité. Les proxies anciens sont géométriques (angles sous lequel on voit la granularité du dfond diffus). Les deux distances diffèrent d'un facteur (1 + z)^2 : l'effet d'une erreur sur les redshifts est en fait deux fois plus importante. Pas sûr cependant de comprendre l'argument car les redshifts ne sont pas les mêmes dans un cas et dans l'autre.

 

La conclusion générale reste cependant : les gens ne font pas assez attention, mais ils ont de la chance, car tous ces effets mis ensemble ne semblent pas assez importants pour prétendre pouvoir relâcher la tension entre les proxies.

Modifié par dg2
  • J'aime 1
  • Merci 4

Partager ce message


Lien à poster
Partager sur d’autres sites

Deuxième orateur : Kenneth Wong, sur la détermination de H0 par les lentilles gravitationnelles.

 

Insiste sur le fait que la méthode des lentilles offre une approche assez indépendante des céphéides et donc peut renforcer la tension en confirmant le résultat des céphéides.

 

Suit le détail de la méthode et surtout sur ce qui importe ici : le délai des temps d'arrivée des images dépend de l'échelle du système observateur-lentille-arrière plan, qui est par définition inversement proportionnel à H0 (la lois de Hubble dit que v = H0 d où d est la distance. v étant connue par spectroscope, l'échelle (le r)  est proportionnel à l'inverse de H0.

 

Une première difficulté : tout ceci ne va marcher que si on reconstitue très bien la distribution des masses au voisinage de la lentille car c'est à ce niveau qu'une partie importante du délai temporel se construit.

 

Un peu d'histoire : l'effet a été envisagé il y a plus d'un demi siècle (Refsdal, en 1964), et 15 ans avant la première découverte d'image multiple d'un objet (1979). La conclusion de ce chapitre historique est que une grosse machinerie s'est peu à peu mise en marche pour atteindre un degré de précision important (mais à partir de là, il faut le croire sur parole) et désormais compétitif.

 

Pour l'instant, 6 système sont exploités, plus un 7e en cours.

 

Il détaille maintenant un peu plus les étapes.

 

La détermination des délais temporels dans les images ne pose pas de pb. Des télescopes de 1 ou 2 m le font sans problème. Un délai connu avec une précision d'un jour est largement suffisante (d'où les petits diamètres des instruments).

 

Ensuite, vient la modélisation de la lentille et donc de la précision de l'imagerie. En gros, sans OA ou HST, point de salut, et l'amélioration en 20 ans est impressionnante.

 

Par contre, un point difficile à maîtriser est la prise en compte des masses hors lentille sur la ligne de visée (exemple que j'ai en tête : des effets de lentille forts sont renforcés par le fait qu'on observe la lentille dans la direction du filament où elle se trouve). Il y a beaucoup de boulot pour bien garde contrôle dessus, mais ils pensent qu'ils y arrivent. Pas d'estimation chiffrée sur comment cela pourrait affecter les résultats.

 

Petit couplet sur l'importance de faire les analyses en aveugle : tout le monde s'accorde sur une ou plusieurs procédure, et l'analyse est faite sans savoir la valeur de H0 et on ne fait plus de triturage de données une fois l'analyse a donné ses résultats.

 

Prospective : pour une précision de 1% (en supposant qu'il n'y a pas de mauvaise surprise), il faut 30-40 lentilles (contre 7 actuellement). Pas sûr que cela soit facile, de suite, mais avec LSST et Euclid, il y aura largement de quoi (centaines ou milliers de systèmes). Attention cependant, il est probable que les 7 systèmes connus soient ce qu'il y a de mieux. L'amélioration ne va pas forcément être rapide en rajoutant des système plus bruités

 

Durant la séance des question, un petit blanc quand on lui demande à quel point la PSF (la tache d'une source ponctuelle après passage dans un système optique) peut biaiser les résultats de la reconstruction de la distribution des masses. "On pense que c'est sous contrôle", mais il est moins affirmatif que dans le reste de l'exposé.

Modifié par dg2
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Troisième orateur : Dom Pesce sur les megamasers.

 

Tout d'abord, qu'est-ce qu'un mégamaser ?

 

Du gaz moléculaire plutôt dense (10^9 particules / cm^3) et chaud (1000 K). Dans ces conditions, une transition à 22 GHz de jenesaisquoi (H2O ?) peut être excitée en permanence, produisant une raie assez intense dans le domaine radio.

 

Premier système de ce type : découvert en 1984 dans NGC 4258.

 

Les différentes parties de ce nuage sont localisées en VLBI et suivent une courbe de rotation parfaitement képlérienne (résolution de quelques millisecondes d'arc). Dans cette configuration on a pas mal de chance : trois gros nuages, un dans la ligne de visée du TN supermassif de la galaxie (vitesse projetée nulle par rapport au TN), et un de part et d'autre, à un quart de tour d'avance ou de retard.

 

La modélisation dans NGC 4258 est largement plus précise que la description ci-dessus, mais cela reste un système "propre" duquel on put obtenir beaucoup d'informations.

 

Le projet MPC (Megapaser Cosmology Project) vise à étendre cette technique à plusieurs autres systèmes :  NGC 5765b, 6246, 6323, UGC 3789. Cette liste est hélas déjà exhaustive : aucun AGN proches (où de tels masers peuvent présenter un intérêt pour le problème) ne possède de tels masers.

 

Problème, en terme de résolution angulaire, on a des systèmes 10 fois plus petits ce qui est à la limite de ce que l'on peut faire en VLBI.  La fréquence étant fixée, pas sûr qu'on puisse améliorer la situation en résolution, mais possible en sensibilité. Par contre, si on trouve des transitions induites par le même effet, mais à des fréquences plus élevées, on pourrait beaucoup gagner

 

L'incertitude augmente donc assez vite avec la distance des objets et n'aide pas vraiment à améliorer les choses par effet de bras de levier. 

 

Par ailleurs, les vitesses particulières de ces galaxies sont encore non négligeables par rapport au flot de Hubble, et donc induisent une incertitude qu'on ne peut lever qu'en connaissant les champs de vitesses locaux à ces galaxies, mais on peut espérer qu'avec déjà 5 ou 6 système, cela commence à s'annuler en moyenne.

Modifié par dg2
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Dernier orateur de la journée,  Bernard Schutz, sur le sujet le plus nouveau, les "sirènes standards".

 

Présentation rapide du premier système : coalescence EN-EN le 17/08/17. J'ai donné un résumé dans un message plus tôt dans l'après midi.

 

L'estimation de H0 est assez mauvaise parce que l'inclinaison du système n'est pas connue, ce qui empêche de relier l'amplitude de l'OG observée avec la "vraie" amplitude.

 

Autre source d'erreur : le système était tellement proche que sa vitesse de récession était largement pollué par les vitesses particulières.

 

Il parle d'une manière d'améliorer la connaissance de la distance par le biais des jet supraluminique (pas compris le détail), l'incertitude descend à +/- km/s/Mpc

 

Parle ensuite des autres système utilisés : 4 coalescences TN-TN (sans contrepartie optique), donnent des barres d'erreur déjà plus intéressantes : 69+14-7.

 

Donne un peu plus de détail sur la physique des coalescences. La puissance émise est indépendante de la masse des trous noirs (une fraction de 10^26 luminosités solaires), la masse dicte la durée de l'événement. Pour toutes ces raisons (pas le temps de tout noter), ce sont des sirènes standard tout le temps, pas seulement au moment de la coalescence.

 

Par contre, l'émission est anisotrope, d'où la difficulté de connaître la vraie amplitude. Mais on peut circonvenir à ce moyen en connaissant la polarisation de l'onde, ce que l'on peut faire avec plusieurs détecteurs orientées selon des axes les plus différents possible. GW170817 a été à ce titre plutôt insatisfaisant car mal orienté (ou plutôt Virgo n'était pas dans la bonne orientation).

 

Ce qu'il faudrait : 3 détecteur pi 2 + contrepartie optique, + 2 autres détecteurs. A terme KAGRA (Japon) + Virgo amélioré pourront faire le boulot, ainsi que LIGO India (2025-2030, je crois).

 

Attention cependant, une petite erreur de calibration sur les amplitudes mesurées par les détecteurs (5% à l'heure actuelle) peut donner lieu à d'importantes erreurs sur les distances. Une amélioration de la calibration à 1% est envisageable à relativement court terme, au delà il y aura plus de boulot.

 

Prospective : précision de 1 à 3% avec 250 événements sans contrepartie optique, ou 50 EN-EN (avec contrepartie optique, donc). Pas évident de savoir lequel ira le plus vite. La complétude des catalogues de galaxies sera déterminante pour les sirènes "noires" (sans contrepartie optique).

 

Aussi, avec des détecteurs plus sensibles, on pourra mieux suivre la phase de l'onde et détecter les écarts à une émission purement quadrupolaire. L'intérêt est que ces termes non quadrupolaires dépendent de l'inclinaison. Une fois l'inclinaison connue, on brise la dégénérescence distance-amplitude.

 

Prospective à plus long terme :

 

2034 : LISA : détectera des coalescences de TN beaucoup plus massifs (plus basse fréquence, inatteignable au sol en raison du bruit sismique).

2030-2040 : Einstein Telescope (projet terrestre à grande profondeur) : capables de voir TOUS les événements EN-EN de l'Univers observable (il doit y avoir un limite en z, mais apparemment c'est trèèèès loin ; après, il montre un graphe à on voit au(delà de z = 20 pour certaines masses). La précision de la calibration de ces instrument pourra d'ici là atteindre le 0,1%, ce qui sera la précision atteignable pour H0 aussi. Rendez-vous dans 20 ans !

 

 

 

  • Merci 3

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 38 minutes, dg2 a dit :

Du gaz moléculaire plutôt dense (10^9 particules / cm^3) et chaud (1000 K). Dans ces conditions, une transition à 22 GHz de jenesaisquoi (H20 ?) peut être excitée en permanence, produisant une raie assez intense dans le domaine radio.

 

Ce sont des transitions liés à l'absorption / émission de photons d'énergie différente, la différence étant (en gros, hein, je ne suis pas une fusée) l'énergie de rotation acquise ou perdue par une molécule polaire sous l'effet d'un rayonnement électromagnétique.

La transition à 22 GHz est en effet caractéristique de la molécule d'eau.

Modifié par Kirth
orthographe
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

D'une manière générale, il y a un certain contraste entre d'une part les deux derniers intervenants, assez prudents et celui d'avant (sur les lentilles), nettement plus affirmatif. Ce n'est qu'une impression visuelle (et auditive), ceci dit.

 

L'autre morale de cette histoire, c'est que sans la connaissance des vitesses particulières (les écart au flot de Hubble), tous les proxies locaux sont handicapés, qu'on le veuille ou non. C'est assez ironique. Il y a 25-30 ans, presque tout le monde pensait que l'étude des champs de vitesse allait permettre de tout savoir sur la cosmologie (ce qui n'est pas complètement faux sur le papier), mais en fait, les données sont trop incomplètes, trop bruitées pour que cela marche. Par contre, on ne peut pas se passer de ces champs de vitesse pour interpréter un paquet de choses.

Modifié par dg2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 16 minutes, dg2 a dit :

Prospective à plus long terme :

 

2034 : LISA : détectera des coalescences de TN beaucoup plus massifs (plus basse fréquence, inatteignable au sol en raison du bruit sismique).

2030-2040 : Einstein Telescope (projet terrestre à grande profondeur) : capables de voir TOUS les événements EN-EN de l'Univers observable (il doit y avoir un limite en z, mais apparemment c'est trèèèès loin ; après, il montre un graphe à on voit au(delà de z = 20 pour certaines masses). La précision de la calibration de ces instrument pourra d'ici là atteindre le 0,1%, ce qui sera la précision atteignable pour H0 aussi. Rendez-vous dans 20 ans !

 

Merci ! Voilà qui répond à mes questions ;)

Partager ce message


Lien à poster
Partager sur d’autres sites

(pas le temps de faire de live aujourd'hui. Si des gens sont intéressés par un récap en fin d'après-midi, laissez un message ici).

  • J'aime 5

Partager ce message


Lien à poster
Partager sur d’autres sites

Bien évidemment, il y en a qui sont intéressés.

Cela dit, on a aussi conscience du temps que ça prend et que vulgariser pour Astrosurf n'est pas exactement votre mission principale.

  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 26 minutes, dg2 a dit :

(pas le temps de faire de live aujourd'hui. Si des gens sont intéressés par un récap en fin d'après-midi, laissez un message ici).

 

Si tu as le temps de faire un récap, je le lirai avec grand plaisir ! J'ai beaucoup appris en suivant ce fil de discussion, merci encore pour cet effort.

 

jf

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Si tu fais un récap, évoques SVP un point que je n'ai pas encore vu, sauf distraction de ma part, dans ce passionnant fil : les SN lentillées (cf Refsdal) , une des plus élégantes et des plus belles observations de toute l'histoire de l'astronomie, à mon avis… 

 

 

 

 

Modifié par Superfulgur
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 15 minutes, Superfulgur a dit :

Si tu fais un récap, évoques SVP un point que je n'ai pas encore vu, sauf distraction de ma part, dans ce passionnant fil : les SN lentillées (cf Refsdal) , une des plus élégantes et des plus belles observations de toute l'histoire de l'astronomie, à mon avis… 

 

cf. message d'hier sur l'intervention de K. Wong. Ils font cela avec des quasars et pas des SN, mais cela revient au même (source variable), et il y en a beaucoup plus. Une SN lentillée est un énorme coup de chance. Un quasar lentillé, il y en a plusieurs, et il y en aura des centaines, voire des milliers avec Euclid et l'observatoire Vera Rubin (ex LSST). Wong disait cependant qu'ils disposent probablement déjà des systèmes les plus propres, donc l'ajout des futurs systèmes, plus faibles, moins résolus, etc., n'allait pas forcément être d'une énorme aide, sauf si l'amélioration permise par les EELT compense. Mais on en saura plus sur ce genre de prospective avec les intervenants de demain.

  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon, quatrième session, qui va cette fois s'intéresser aux proxies anciens (z > 1, jusqu"à z = 1100).

 

Participants :

 

  • Hendrik Hillebrandt, qui va parler de cisaillement gravitationnel (distorsions des images de galaxies d'arrière plan par les masses de la ligne de visée ; vous verrez pourquoi c'est important).
  • Nathalie Palanque Delabrouille,; qui va parler des oscillations acoustiques de baryons, une des raisons d'être des mesures de cisaillement gravitationnel
  • Julien Lesgourgues (qui est accessoirdment le frère de Marc Lesggy que vous connaissez tous) qui va parler de l'horizon sonore (le truc qu'on voit à l'oeil dans le fond diffus et qui détermine H0).
  • Enfin, Vivian Poulin qui va parler d'un ou plusieurs exemples de ce qu'il faut faire pour réconcilier les proxies anciens et locaux, à supposer qu'on les mesure correctement à l'heure actuelle

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Donc, H. Hillebrandt.

 

Il rappelle ce qu'est le cisaillement gravitationnel.

 

La déflexion de la lumière produit un décalage de la position d'une source ponctuelle, mais aussi une distorsion de l'image d'un objet étendu. C'est cette propriété qui nous intéresse. En gros, la distorsion d'une image d'arrière plan est fixée par la distribution de matière sur la ligne de visée. Un exemple très marqué est le fameux amas Abell 1689, où clairement on voit plein de de galaxies qui forme des petits arcs concentriques autour de l'amas.

 

Gravitationell-lins-4.jpg

 

Sauf cas extrême comme ci-dessus, l'effet est faible, donc il faut observer de nombreuses régions distinctes. riches en galaxies d'arrière plan.

 

(A propos, petite question rigolote : les galaxies cisaillées sur l'image sont plus bleues que les galaxies d'avant plan, plus proches, donc moins décalées vers le rouge... savez-vous pourquoi ?)

 

La puissance de la méthode : en combinant suffisamment d'observation (= beaucoup),  on détermine les propriétés statistiques de la distribution spatiale des galaxies, et surtout, comme on observe les distorsions avec des galaxies d'arrière plan situées à des distances/redshift différentes, donc on détermine aussi comment cette distribution spatiale évolue au cours du temps, évolution qui dépend du contenu matériel de l'Univers. Dans l'hypothèse usuelle (modèle LambdaCDM), il n'y a que deux paramètres qui interviennent : la densité de matière(noire + baryonique) rapporté à la densité totale (ce qu'on appelle Omega_m) et le truc appelé sigma_8 qui en gros dit quel est le degré d'inhomogénéité de l'Univers actuel sur des échelles de 8/h mégaparsec, où h est la constante de Hubble exprimée en unité de 100 km/s/Mpc (donc h = 0,72 pour les céphéides et 0,67 pour Planck). Pourquoi cette unité bizarre ? Parce que dans ces mesures, on ne "voit" que des angles et des redshifts, pas les distances physiques sous-jacentes, donc tout est connu à un terme d'échelle près proportionnel à 1 / H0. Si vous n'êtes largué, tant mieux, on a fait le plus dur.

 

Donc on sait aujourd'hui dire quelles sont les valeurs autorisées dans un plan Omega_m, sigma_8. Les deux valeurs sont grosso modo anticorrélées : si sigma_8 est grand, Omega_m est petit et vice versa, mais les incertitudes sont encore importantes.

 

Indépendamment de cela, Planck, qui mesure à peu près tout, dit quelles sont les valeurs autorisées. Les incertitudes sont bien moindres, et le points important c'est que les deux déterminations sont grosso modo en accord, mais les valeurs préférées par Planck (très contraintes) sont en légère tension avec les mesures de cisaillement, dont on peut dire qu'elles ont tendance à tirer les mesures de Planck vers des valeurs un peu différentes que celles le plus favorisées par Planck.

 

Il y a un débat pour savoir si on a vraiment de tension à ce niveau, mais pendant un temps, les gens qui font du cisaillement s'en fichaient un peu car il y a énormément de projets en cours, donc dans pas longtemps on aura des incertitudes bien moindres et il sera alors temps de voir si on a vraiment un pb. Avec l'accumulation de donnée,s le problème ne disparaît pas et montre plutôt une tendance à se renforcer. Il y a  bien moins que la tension sur H0 , mais bon on a une petite tension (pourvu que les barres d'erreurs ne soient pas trop sous-estimées, bien sûr).

 

Conclusion : le sigma_8 préféré par l'observation plus directe (le cisaillement) est plus bas que la valeur attendues par Planck. Pour l'instant il n'y a pas lieu de s'en émouvoir... mais on disait la même chose à propos de H0 il y a quelques années.

 

Pourquoi c'est intéressant (ce n'est pas lui qui le dit, mais moi qui précise) : si la tension sur H0 est fondée, cela veut dire qu'il faut changer qqch au modèle cosmologique et donc que d'autres observables traitées avec l'habituel  modèle cosmologique sous jacent (qui est faux dans ce cas) vont elles aussi finir par  montrer des tensions. Donc cette observation, même si elle n'est pas en rapport direct avec H0 renforce le sentiment qu'il y a un loup quelque part.

 

 

 

 

  • J'aime 2
  • J'adore 1
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Next speaker, Nathalie Palanque Delabrouille, sur la détermination de H0 avec le relevé DESI via les BAO (oscillations acoustiques de baryons).

 

Le principe : sur la carte du fod diffus, uon voit une certaine granularité, signe que les baryons étaient à cette époque quelque peu prisonniers des photons. Ensuite, les phtons se sont découplés des baryons, mais la distribution actuelle des baryons garde encore la trace de ces interaction antiques. en gros, si vous prenez une galaxie au hasard, le probabilité qu'il y ait des surdensités importantes à une distance donné diminue (c'est assez logique, au bout d'un moment, le reste de l'Univers ne "sent" plus la présence de la galaxie), mais vers 160 Mpc la probabilité remonte brusquement (puis redescend tout aussi brusquement). C'est ça les BAO.

 

Ces BAO ont été recherchées à partir du milieu des années 1990 et sont peu à peu apparues dans les relevés de galaxies. La difficulté est que le signal et faible et le relevé doit se faire dans un volume très grand (plusieurs fois 150 Mpc ; c'est beaucoup). Aujourd'hui, cette échelle est mesurée avec une précision de l'ordre de 1%. C'est plus facile, donc plus précis que le cisaillement.

 

Maintenant les deux choses qui importent :

  • La valeur trouvée est parfaitement compatible avec le fond diffus (pas vraiment surprenant, c'est le même phénomène physique qu'on regarde)
  • Cette distance physique se traduit, sur la ligne de visée, par un écart en redshift. D'après la loi de Hubble, cet écart est inversement proportionnel à H0. Donc on extrait H0, et on trouve la valeur du fond diffus.

BAO et fond diffus sont donc de grands copains et sont un net indicateur que le fond diffus n'est pas complètement dans le décor.

 

Elle passe ensuite à ce que l'on fait désormais avec un projet genre DESI.

 

Cette technique peut être mise en oeuvre avec des volumes situés à n'importe quel redshift. Et c'est là que cela devient intéressant : on ne va pas seulement mesurer la valeur actuelle de H0, mais son évolution au cours du temps. Donc on a vraiment la possibilité de savoir si la loi d'évolution de H suit la loi attendue dans le modèle LambdacDM (indépendamment de sa normalisation actuelle, d'ailleurs).

 

Evidemment, cela a un coût observationnel :

  • un télescope de 4 m (Kitt Peak)
  • images au foyer primaire pour avec un champ de 8 degrés carré
  • 35 millions de galaxies à observer en spectro (20 fois le SDSS, donc)
  • Elle insiste : ce sont des redshifts spectrométriques, pas photométriques.
  • La spectroscopie se fait à raison de 5000 spectres par champ, avec donc 5000 fibres optiques déplacées par un système robotisé (heureusement qu'on ne fait pas ça à la main...)

 

Précision attendue avec cette artillerie : H0 (actuel, donc) déterminé à 0,19 ou 0,27 près (dans les 0,3%, donc) au lieu de 1 (1,5%) à l'heure actuelle, le 0,19 ou 0,27 est en fonction d'hypothèses faites sur la masse des neutrinos.

 

Remarque perso : l'accumulation de la statistique est largement favorable à ce type de manip comparé aux céphéides ou images multiples/masers, etc. Eux ont déjà les meilleures données sans espoir de trouver mieux (plus oui, mais pas mieux) alors que DESI a énormément de bonnes données à récolter. Idem pour les OG/sirènes standard qui n'ont qu'à attendre pour voir s'accumuler des données de bonne qualité.

 

Précision sur le calendrier ! prise de données de DESI sur 5 ans, à commencer dès que l'observatoire est à nouveau accessible (il a comme tous les autres fermé ces dernières semaines).

Modifié par dg2
  • J'aime 2
  • J'adore 1
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Je ne vais pas prétendre avoir tout pigé, mais je vais persévérer.

Merci beaucoup néanmoins.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, dg2 a dit :

(A propos, petite question rigolote : les galaxies cisaillées sur l'image sont plus bleues que les galaxies d'avant plan, plus proches, donc moins décalées vers le rouge... savez-vous pourquoi ?)

 

Au pif, passque les galaxies d'avant plan sont de vieilles elliptiques, alors que les galaxies lentillées sont de jeunes irrégulières très bleues, parce que riches en jeunes étoiles OB, comme il sied à des galaxies à haut Redshift ?

 

(pas taper)

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 31 minutes, Superfulgur a dit :

Au pif, passque les galaxies d'avant plan sont de vieilles elliptiques, alors que les galaxies lentillées sont de jeunes irrégulières très bleues, parce que riches en jeunes étoiles OB, comme il sied à des galaxies à haut Redshift ?

 

Juste à 50% ! Il y a un autre effet qui entre en ligne de compte.

  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci dg2 pour cette série de débriefing. Je viens de les dévorer vite fait, c'est passionnant et dense ça va m'occuper pendant longtemps.

Il me semble avoir vu passer récemment des articles sur une remise en question de la fiabilité des SN1a comme chandelle standard, car il y aurait plusieurs types de progéniteurs, notamment les naines blanche binaires, assez fréquentes, qui seraient beaucoup moins contraintes que le scénario classique du système géante rouge + naine blanche.

J'ai peut-être mal compris (par manque de temps pour approfondir).

Est-ce que ce sujet a été évoqué ?

 

PS: je crois que c'est Tamara Davis l'astrophysicienne, pas Davies. "Expanding Confusion" a été mon papier de référence il y a un certain temps lors d'échanges sur ce même forum avec quelqu'un (plus ou moins affectueusement) parfois surnommé "gros troll velu" ... 

Pour la question rigolotte, l'autre partie de la réponse pourrait-elle être:    la lumière de l'amas subit un redshift gravitationnel parce qu'elle doit sortir de l'amas, alors que la lumière d'arrière plan  est blueshiftée quand elle tombe dans le puit gravitationnel puis redshiftée quand elle en ressort et donc ça se compense ? Au pif aussi, pas taper non plus...

 

Modifié par PascalD
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon, troisième orateur, Julien Lesgourgues, qui va parler du fameux horizon sonore.

 

L'horizon sonore est le nom que les gens qui étudient le fond diffus cosmologique au même truc que les gens qui font des catalogues de galaxies appellent les BAO. Visuellement, cet horizon sonore correspond à la granularité que l'on voit sur les cartes du fond diffus :

 

planck2015_cmb_3000_cropped.png

 

En gros, cet horizon sonore n'est rien d'autre que la distance parcourue par une onde sonre (= de densité) entre le Big Bang et 380000 ans plus tard. Elle dépend de la quantité de matière orinaire (qu'on peut ramener au nombre actuel de protons + neutrons par mètre cube), la quantité de matière noire et H0.

 

En un sens, le pb est très simple : on s'intéresse juste à une onde de densité qui se propage dans un milieu pas franchement dense, pas franchement chaud et qui se refroidit lentement. Sauf à imaginer qu'il y a des formes d'énergie inconnues, il n'y a pas d'autres paramètres libre. Le résultat de cette investigation, c'est qu'on trouve les valeurs des trois paramètres, avec une valeur "basse" de H0 (dans les 67 km/s/Mpc).

 

Peut-on tester que tout cela marche bien ? Oui, car en plus de H0 , on connait les densités de matière ordinaire et matière noire.

  • La densité de matière baryonique peut être déterminée de façon complètement indépendante par la nucléosynthèse : la fraction de deutérium qui suit à la nucléosynthèse est fonction de la seule densité baryonique. La fraction de deutérium est désormais très bien déterminé, ce qui donne une estimation indépendante de la densité baryonique à 1% compatible avec le fond diffus.
  • La densité de matière noire (ou plutôt sa contribution au bilan énergétique total) est bien déterminé (avec des incertitudes plus ou moins grandes) par quantité d'autres observations comme les BAO ou les supernovae.
  • Donc on peut retourner le pb dans tous les sens, hormis H0 les quantités déterminées par le fond diffus sont confirmées par d'autres jeux de données (là où les céphéides que donnent que H0 au passage, sans test d'autocohérence avec d'autres paramètres

Il donne pas mal de points un peu techniques, mais qui visent à expliquer qu'on comprend vraiment bien la physique à l'oeuvre, et qu'est ce qu'on peut mesurer avec ceci ou cela.

 

Grosso modo, tout ce qui concerne les catalogues de galaxies donne la même valeur de H0 que le fond diffus.

 

Il commence à expliquer comment on pourrait s'en sortir : on mesure l'horizon sonore, mais la physique qui le détermine est plus complexe.

 

En gros, on rajoute une forme d'énergie (de l'énergie noire qui ne se manifeste que temporairement, des neutrinos exotiques, etc).

 

Mais c'est là que ça se complique. On peut par exemple rajouter des neutrinos, ça marche un peu, mais il faut alors que ces neutrinos aient de faibles interactions avec la matière ordinaire, ou alors des interactions plus intenses avec la matière noire. On peut aussi rajouter une forme d'énergie noire qui a un effet entre qqes milliers d'années et 380000 ans après le Big Bang mais qui disparaît peu après.

 

Bref tout ces modèles sont assez tordus.

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant