dg2

Conférence sur H_0 (22-26 jiun 2020)

Messages recommandés

Il y a 11 heures, dg2 a dit :

(A propos, petite question rigolote : les galaxies cisaillées sur l'image sont plus bleues que les galaxies d'avant plan, plus proches, donc moins décalées vers le rouge... savez-vous pourquoi ?)

Outre les illuminations superfulgurantes : effet Sachs-Wolfe (comme semble le suggérer aussi PascalD ?) ou l'effet est-il encore négligeable à cette échelle ? Sinon, je ne vois pas...

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, Alain MOREAU a dit :
Il y a 15 heures, dg2 a dit :

(A propos, petite question rigolote : les galaxies cisaillées sur l'image sont plus bleues que les galaxies d'avant plan, plus proches, donc moins décalées vers le rouge... savez-vous pourquoi ?)

Outre les illuminations superfulgurantes : effet Sachs-Wolfe (comme semble le suggérer aussi PascalD ?) ou l'effet est-il encore négligeable à cette échelle ? Sinon, je ne vois pas...

 

L'effet que vous citez est effectivement l'effet Sachs Wolfe, dont l'amplitude est de 10^-5. Important (essentiel même) pour le fond diffus, mais négligeable ici.

 

L'autre effet est en fait une conséquence de l'effet cité par super Super : beaucoup d'étoiles jeunes, donc beaucoup d'UV qui ionisent l'hydrogène, qui va se recombiner en émettant entre autre un photon Lyman alpha. Ledit photon a une longueur d'onde de 121 nm, donc largement dans l'UV.... sauf quand la galaxie a un redshift qui dépasse 2 et quelques, ce qui fait entrer la raie dans la bande visible du côte du violet.

Modifié par dg2
  • J'aime 3
  • Merci 3

Partager ce message


Lien à poster
Partager sur d’autres sites
Invité iblack
il y a 41 minutes, dg2 a dit :

L'autre effet est en fait une conséquence de l'effet cité par super Super : beaucoup d'étoiles jeunes, donc beaucoup d'UV qui ionisent l'hydrogène, qui va se recombiner en émettant entre autre un photon Lyman alpha. Ledit photon a une longueur d'onde de 121 nm, donc largement dans l'UV.... sauf quand la galaxie a un redshift qui dépasse 2 et quelques, ce qui fait entrer la raie dans la bande visible du côte du violet.

 

Merci @dg2 pour toutes ces informations, franchement c'est super ! Mais dans le cas précis cette explication ne me suffit pas (désolé). J'aimerais comprendre pourquoi l'amas MACS 1206 situé à 4 milliards d'al produit une image (lentille gravitationnelle) qui "tire" plutôt sur le rouge https://apod.nasa.gov/apod/ap111017.html

Loin de moi de vouloir polluer cet excellent fil de discussion, c'est par simple curiosité...

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, Pascal C03 a dit :

Merci pour cet énorme travail !

 

 

PAREIL ! Un grand Merci..

Un source incontournable désormais.

(même si perso je "rame" un peu/beaucoup parfois/souvent B|)..

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, iblack a dit :

J'aimerais comprendre pourquoi l'amas MACS 1206 situé à 4 milliards d'al produit une image (lentille gravitationnelle) qui "tire" plutôt sur le rouge https://apod.nasa.gov/apod/ap111017.html

 

Le rendu dépend des filtres utilisés pour la prise de vue et leur conversion en RGB, donc difficile pour moi de vous en dire plus sans ces informations, mais si on montre les bandes V à IR, l'effet de la raie Lyman alpha n'apparait pas, et de toute façon si les galaxies d'arrières plan ne sont pas à z > 2, l'effet ne se voit pas non plus. Je profitais de l'occasion de montrer l'image pour illustrer le cisaillement pour poser cette petite colle (en supposant implicitement que l'image était assez proche de la sensibilité de l'oeil), à laquelle la plupart des étudiants ne trouvent pas la réponse. Donc aucune malice de ma part : c'était une question amusante, mais difficile.

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon, dernière intervention de la journée d'hier, Vivian Poulin, sur diverses pistes théoriques pour expliquer l'anomalie.

 

 Spoiler : il n'y a pas de solution satisfaisante qui se détache de la (grosse) foule d'explication proposées

 

Petit rappel : on peut toujours avec le fond diffus tirer les paramètres pour avoir une valeur plutôt haute de H0, mais dans ce cas, on va être en tension avec les BAO ou le reste. Le pb n'est pas avec UNE manip, mais leur combinaison.

 

Il propose une autre façon de voir les choses : ce qu'on peut mesurer n'est pas la H0 mais l'horizon sonore, et on retrouve la même chose : les proxies locaux (cisaillement   à ne voient pas la même valeur de cet horizon sonore.

 

Une possibilité de résoudre les tensions est donc de trouver un moyen de faire grandir l'horizon sonore plus vite entre z = 25000 et 1000, de sorte que notre analyse se basant sur une croissance plus lente se sera en fait trompée sur sa vraie valeur (j'espère que je suis clair ?!).

 

Des pistes simples : l'horizon sonore dépend du degré d'interaction entre les photons et la matière mais aussi entre matière noire et photons. Quand on joue avec cela, ça ne marche pas car la structure à plus petite échelle de la carte ne convient pas.

Autre possibilité : supposer qu'on a mal évalué l'époque d'émission du fond diffus. Si on le voit plus récemment, la taille angulaire des structures change. Ca ne marche pas un peu pour la même raison (je résume, c'est un poil plus technique en vrai, mais l'idée est que l'on observe une carte avec des structures à toutes les échelles. Changer la physique qui affecte la granularité la plus évidente n'est pas sans conséquence sur tout le reste). Pour que ça marche, il faut changer simultanément deux trucs : la constante de structure fine (l'intensité de la force électrique, en gros) ET la masse de l'électron. Ca fait beaucoup. Et même avec ça, on réduit la tension plus qu'on ne l'annule complètement... tout en créant une tension avec les BAO.

 

Dernière possibilité (par élimination) : changer l'histoire de l'expansion entre z = 25000 et z = 1000., ce qui implique changer le contenu matériel de l'Univers à cette époque, ou changer la façon dont elles sont diluées par l'expansion.

 

L'hypothèse canonique est de supposer qu'il n'y a pas trois espères de neutrinos dans l'Univers, mais un autre nombre (ou que l'abondance des trois espèces ne suit pas la loi attendue quand tout ce petit monde est en équilibre thermique avec tout le reste).

 

Du coup, une autre hypothèse est de supposer qu'en pus de matière noire, il y a aussi de la "radiation noire" (espèces se déplaçant à la vitesse de la lumière sans interagir avec rien). Mais dans ce cas, il faut que ladite radiation noire interagisse avec la matière noire. -> on rajoute un truc, et au final, on doit en rajouter un 2e.

 

Autre hypothèse : pour une raison transcendantale, les neutrinos interagissent entre eux longtemps après qu'il devraient avec cessé de le faire. Aucune justification à cela dans le cadre du modèle standard, mais cela donne des résultats intéressants... mais surtout cela nécessite d'avoir un 4e neutrino, avec des masses qui commencent à être sévèrement en tension avec les limites supérieures sur les masses mesurées en laboratoire (aujourd'hui).
 

Il évoque ensuite l'autre recette canonique pour essayer de s'en sortir.

 

Rappel, les distance croissent au cours du temps, c'est l'expansion de l'Univers, on appelle a, ou facteur d'échelle, le truc qui croît proportionnellement aux distances. La matière est diluée par l'expansion, sa densité décroît inversement proportionnellement au volume, donc 1 / a^3. Pour al radiation, c'est pareil, sauf que l'énergie des photons décroît elle aussi puisque l'expansion étire leu longueur d'onde, donc la densité d'energie va en 1 / a^4 . Pour bidouiller la loi d'expansion, on a besoin d'un truc de densité d'énergie au départ négligeable, mais qui décroît moins vite que le reste (en 1/ a^2 par exemple), mais qui après doit disparaître, donc décroître plus vite, genre en 1/a^5. Il existe une entité qui peut faire cela, c'est un truc appelé champ scalaire, donc la densité d'énergie décroît selon les situation en 1/a^0 (donc  elle est constante) et 1/a^6. Le problème c''est qu'il faut ajuster la dynamique de ce truc pour qu'il entre en scène à la bonne époque et qu'il en disparaisse assez rapidement après pour ne plus jamais jouer de rôle.

 

Il essaie de résumer les avantages et les inconvénients des différentes pistes évoquées (warning : il travaille sur celle sur laquelle il voit le plus d'avantages). Ca donne cela :

 

VP.PNG.2e0b959cc11b29925b57586cea890748.PNG

 

Bref après s'être convaincu que les observateurs bossaient tellement bien que c'étaient les théoriciens qui avaient loupé un truc, quand on écoute les théoriciens, on se dit que c'est probablement les observateurs qui se sont plantés.

  • J'aime 1
  • J'adore 1
  • Haha 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon, voici le programme de cette dernière journée, qui apportera des réponses à  ce qu'évoquait Superprospecteur lundi dernier : que peut-on attendre des années à venir?

 

En premier, Giuliana Fiorentino va parler des mesures de distances à l'ére des E-ELT.

Ensuite, Stefano Casertano va faire pareil mais pour ce qui concerne le JWST

Après, Elisabeth Krause va parler des projets futurs de sonder les propriétés de l'énergie noire

Enfin, Raphael Flauger parlera des manips futures d'observation du fond diffus, dont les fluctuations de température sont déjà observées de façon optimales, mais pas les fluctuations de polarisation.

 

A priori, ce sera plus reposant que les autres jours, avec de nombreuses promesses (sincères) de lendemains qui chantent.

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est parti pour la première intervenante, Giuliana Fiorentino.

 

Rappel du calendrier : l'ELT de l'ESO a une première lumière prévue en 2025, puis 2027 pour le TMT et 2029 pour le GMT, tous en construction.

 

Elle passe diverses images du site de l'E-ELT (déjà postées ici).

 

Elle passe aux instrument de 1ere génération : MICADO et MAORY

MICADO : imageur/spectro (bande I,J,H,K - en IR donc).

Taille pixel : 0,0015" ou 0,004"

Champ : 20x20 minutes ou 50x50'.

MAORY est le système d'AO. Pas spécialiste du truc, donc difficile de suivre, mais les simulations des performances sont remarquables.

 

Elle compare ce qu'on peut faire avec un 8m et un 40m ( et un HST).

 

Apparemment, il y a les "single conjugate" et  "multi conjugate" système d'optique adaptative. Apparemment le gain est très important, surtout en terme de photométrie (car moins de pollution des objets proches, j'imagine, cf. exposé de Riess lundi ou mardi).

 

Autre avantage : on pourra bien mieux déterminer la métallicité des cibles observées en spectro IR (bande J), qui sont une possible source de biais pour ce qui est des céphéides.

 

L'apport des ELT sur la problématique de la conf : les céphéides, sur des distances de 7 à 40 Mpc. D'ordinaire on ne voit pas de céphéides plus loin, mais là oui, ce qui évitera en principe de calibrer les supernovae sur les céphéides : on fera tout avec les céphéides.

 

Petite comparaison au passage des performances optiques ELT vs. JWST (ça ne fait jamais de mal de dire qu'on est meilleur que la concurrence).

 

Retour à la problématique de la détermination de H0 avec les céphéides. Un instrument tel l'ELT permettra aussi de mieux déterminer l'amplitude de variation des céphéides (elle parle presque exclusivement de photométrie, en fait), toujours grâce au meilleur pouvoir séparateur. Bref, ce qui importe pour la problématique n'est pas ici le gain en flux, mais en résolution.

 

Elle finit son intervention sur ce qu'on peut faire de mieux, cette fois parce qu'on recueille plus de flux : étudier les céphéides jusqu'à 100 Mpc (objectif avoué : aller jusqu'à l'amas de Coma).

 

  • J'aime 2
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 45 minutes, dg2 a dit :

Enfin, Raphael Flauger parlera des manips futures d'observation du fond diffus,

 

Quelqu'un m'a dit un jour un truc qui a été pour moi une révélation (si j'ai bien compris le truc, ce qui n'est pas sûr) : c'est que la "photo" actuelle du CMB ne sera jamais dépassée en terme de résolution, ça m'avait (encore une fois si j'avais bien compris) donné le vertige… J'imagine que la raison est que le CMB est aujourd'hui l'image très agrandie ( x 1000 ? (ou au carré, fois un million ???) du ciel à z : 1000, et que du coup, en dessous de la résolution du satellite Planck, il n'y a plus rien à résoudre, mais si tu as le tps, j'aimerai, 1, que tu confirmes ce que ce gonze m'avait dit, 2, détailles un poil plus.

   

Sinan, ya quelques années, il y avait un projet fou : mesurer "pour de vrai" le changement de Redshift d'une galaxie… Ca aussi, ça me fout le vertige. En gros, on prend un spectre avec une résolution démentielle de la galaxie Machin, on attend 20 ans, et on refait le spectre : la galaxie s'est éloignée, forcément, paf, le Redshift a changé. C'est toujours d'actualité, cette manip du turfu promise par l'ELT ?

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Deuxième intervenant, Stefano Casertano(du STScI) sur le JWST.

 

Il rappelle (comme l'intervenante d'avant aurait pu le faire) que ces gros instruments ne vont pas faire de gros relevés, mais observer des cibles plus spécifiques. Ils ne vont pas participer à des programmes de type DESI ou autre.

 

Rappel des performance du JWST : de la bande R (0,6 microns min) à plus de 30 microns.

 

Pb actuels avec les céphéides : calibration locale (améliorables avec Gaia), petitesse de l'intervalle où on peut étudier céphéides et SN Ia.

 

Céphéides les plus éloignées étudiées par SH0ES (Riess) : NGC 5468 à 42 Mpc.

 

En fait on peut déjà observer des céphéides dans l'amas de Coma, mais au pris de 100 orbites HST (je ne sais pas quel temps d'observation par orbite).

 

Ex. : on a trouvé des céphéides dans NGC 4291.

 

Pour résumer, le JWST fera à 100 Mpc ce que le HST fait à 40 Mpc.

 

Pb quand même : difficile de trouver des céphéides en IR, donc le HST servira en complément à ça (rappel le HST détecte aussi en UV). a priori, le HST est en bonne forme pour pouvoir fonctionner jusqu'en 2030.

 

Sinon, il est d'accord que le problème de pollution des céphéides par les autres objets du champ est réel.

 

Il insiste sur le fait qu'un instrument genre JWST va avoir une énorme pression niveau demande, donc tout ce qui n'est pas indispensable à faire avec le JWST gagnera à être fait ailleurs, et vraiment réserver le JWST au reste. C'est évident, mais on ne l'a pas entendu lors de l'exposé précédent.

 

Il passe maintenant à ce qu'on peut faire de mieux avec la méthode TRGB (extrémité de la branche des géantes rouges sur le diagramme HR). Apparemment, l'apport du JWST est moins fort mais je n'ai pas bien compris la raison. A l'inverse, le JWST est plus intéressante pour les Mira, parce qu'il va bien plus loin en IR, surtout pour les Mira les plus brillantes (qui sont plus rouges).

 

En terme de temps d'observation, il faut 1 h de JWST pour une Mira à 50 Mpc (plus plusieurs époques pour faire la courbe de lumière bien sûr). Par contre la recherche prendra beaucoup de temps.

 

Autre apport, les lentilles/images multiples car avec le gain en résolution on reconstitue bien mieux le profil de masse.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, dg2 a dit :

... à laquelle la plupart des étudiants ne trouvent pas la réponse.

Pfff ! Ça me rassure : j'ai failli penser que raconter sans arrêt des conneries m'avait vraiment rendu débile ! 😆

(c'est d'ailleurs étonnant qu'une fois expliqué ça paraisse si évident... comme quoi : un peu débile quand même, il faut hélas l'admettre 9_9)

Sinon, fil en tout point passionnant : on ne peut que te remercier de l'effort de partage 👏:)

 

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est au tour de Elisabeth Krause de parler des projets de détermination des propriétés de l'énergie noire.

 

De très nombreux projets :

CFHTLS, COSMOS, DLS (terminés),  KiDS, DES, HSC  (en cours), Euclid, Vera Rubin Observatory (ex LSST), Nancy-Grace-Roman Space Telescope (ex WFIRST)

 

En couverture du ciel, Euclid et VRO dépassent largement le reste (première lumière en 2023 et 2027 respectivement).

 

Elle passe un peu trop rapidement pour que je suive sur les types d'observations faites (ou favorisées) par les différents relevés : cisaillement, catalogue, lentilles.

 

Pas mal de points techniques sur le nerf de la guerre, à savoir non pas l'argent, mais l'estimation et le contrôle des incertitudes.

 

Elle passe au détail ce que fera le NGRST (lancement prévu en 2025), dont la stratégie d'observation est encore en cours d'élaboration. Comme toujours, la question est de trouver meilleur compromis entre la couverture du ciel (nbre de degrés carrés observés) et la profondeur du relevé (redshift maximum pour la classe de galaxies cibles. Le choix est d'autant plus complexe à faire qu'à un moment ou un autre, il est important de comparer avec d'autres relevés, et donc d'avoir une couverture du ciel qui chevauche celle des autres relevés, mais cela limite la magnitude max, etc nuit à la calibration interne de la manip. C'est de la cuisine interne, mais c'est essentiel pour obtenir les meilleurs résultats possibles.

 

Elle passe (rapidement) en revue la problématique du côté du VRO et avec un peu plus de détail celle de Euclid. et revient au NGRST. Un peu trop technique/rapide pour faire un compte-rendu live.

 

Sa conclusion est le truc que j'ai souligné : on va avoir de très gros relevés, de très gros volume de données, et comme le disent les physiciens des particules, "precision is difficult".

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 16 minutes, Alain MOREAU a dit :

Pfff ! Ça me rassure : j'ai failli penser que raconter sans arrêt des conneries m'avait vraiment rendu débile ! 😆

(c'est d'ailleurs étonnant qu'une fois expliqué ça paraisse si évident... comme quoi : un peu débile quand même, il faut hélas l'admettre 9_9)

 

Chuis d'accord. Ne pas penser à une raie dans l'UV qui passe dans le bleu avec le Redshift... j'ai un peu la tehon comme dirait baltringuesuper.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

En effet.

D'ailleurs "étonnant " est assez faible et auto-complaisant en vérité.

"Vexant" serait plus approprié... -_-

Modifié par Alain MOREAU
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Dernier intervenant, Raphael Flauger sur le futur de l'observation du fond diffus.

 

Ce qu'on fait déjà : les fluctuations de température, observées de façon optimale : l'époque d'émission est dite à 380000 ans après le Big Bang, mais en fait ça s'étale sur plusieurs dizaines de milliers d'années avant et après, donc en gros (c'est pas tout à fait ça mais c'est l'idée), on a un énorme bougé. On ne voit rien à petite échelle angulaire à cause de ça. On dispose déjà de la carte "ultime", avec un niveau de bruit qui n'est pas parfait, mais on sait qu'on ne grattera pas grand chose de plus.

 

Ce qui manque : la polarisation. Le rapport signal sur bruit des données est mauvais, le contrôle des avant-plans aussi, la résolution imparfaite, etc. Enfin, ce n'est pas "mauvais" dans l'absolu, mais nettement perfectible. Par exemple, on peut encore améliorer la résolution d'un facteur trois et mieux tester diverses explications citées par V. Poulin hier.

 

On peut aussi espérer observer la trace d'ondes gravitationnelles primordiales, mais cette fois à grande échelle angulaire (cf. la tristement célèbre annonce de BICEP en 2013).

 

Revue des projets du moment '("Stage 3", ou S3) :

projets au sol, focalisés sur la mesure de la polarisation. Selon qu'on s'intéresse aux grandes ou petites échelles, le design de l'instrument est très différent : on ne peut pas tout faire avec un seul instrument. La problématique couverture du ciel vs. profondeur se pose autant que pour les observations en optique (cf. exposé de E. Krouse).

 

Il passe maintenant au futur, le projet anonymement baptisé S4 (stage 4, si vous avez suivi). Manip au sol en opération en 2028-2035, puis mission japonaise LiteBird lancée en 2028 (?). Cette dernière aura une faible résolution, donc sera dédiée à la recherche des OG primordiales. La raison est que le contrôle des avant-plans est ce qui prime, donc nécessité d'aller dans l'espace au détriment de la résolution angulaire (difficile de faire les deux dans l'espace à cause du volume de données et de la télémétrie).

 

Il revient sur les performances de ces projets pour la mesure de H0 : incertitude (en km/s/Mpc) de 0,6 pour le meilleur projet S3, jusqu'à 0,2 avec S4. Si jamais il faut ajouter un ingrédient ou deux à la recette cosmique (neutrinos, etc, cf V. Poulin), S3 reste aussi bien (incertitude de 0,6), les S4 se dégradent, conséquence des choix sur lesquels ils arrêtent la stratégie d'observation. 

 

Bref, ce sera mieux demain.

  • J'aime 4
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Quelques remarques personnelles sur ce que je n'ai pas vu / entendu :

  • Pour un modèle donné, l'âge de l'Univers est inversement proportionnel à H0. Si vous prenez une valeur haute comme Riess et ses céphéides, il n'est pas exclu que vous finissiez à être en désaccord avec l'âge de certaines très vieilles étoiles. Donc les valeurs "hautes" de H0 pourraient très bien se fracasser sur un écueil de ce type, à supposer que les âges soient estimés avec une précision acceptable (aucune idée si c'est le cas).
  • Il y a une alternative quelques fois évoquée mais pas abordée ici : quand on modélise l'Univers, on fait l'hypothèse que c'est un Univers homogène et isotrope en expansion, et avec de petites fluctuations, qu'on modélise avec une technique classique de linéarisation (plus termes non linéaires au besoin). Mais en fait à aucun moment on ne démontre que cette approximation est OK dans le cadre de la relativité générale. Bref, on a ici pensé à regarder si les observations étaient en erreur, si la recette cosmique était en erreur, mais n'a pas été abordée l'hypothèse que le formalisme sous-jacent soit en erreur. C'est un point qui a déjà été regardé, mais dont l'effet exact est pour l'instant impossible à quantifier parce que c'est très compliqué. Je ne pense pas que beaucoup de gens seraient heureux de cette issue, qui pourrait ajouter une grosse couche de complexité aux simulations de formation des structures ou autre, mais cela reste une possibilité.

 

  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 28 minutes, dg2 a dit :

mais n'a pas été abordée l'hypothèse que le formalisme sous-jacent soit en erreur

 

Ce n'est pas l'hypothèse de, par exemple, Laurent Nottale, ça, que "l'Univers local" où nous faisons nos mesures n'est pas représentatif de l'Univers à plus grande échelle, bien au delà de l'horizon ?

Plus généralement, est ce que les cosmologistes ne font pas implicitement l'hypothèse du Principe cosmologique, alors que le Principe cosmologique serait faux (l'Univers dans l'horizon n'étant pas représentatif de l'Univers à très grande échelle) ?

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 17 minutes, Superfulgur a dit :

Ce n'est pas l'hypothèse de, par exemple, Laurent Nottale, ça, que "l'Univers local" où nous faisons nos mesures n'est pas représentatif de l'Univers à plus grande échelle, bien au delà de l'horizon ?

 

C'est plutôt l'hypothèse de Thomas Buchert, mais en moins pire. Buchert dit que en fait personne ne sait si l'Univers reste homogène à des échelles plus grandes que ce que l'on observe (c'est indiscutable), et il émet des doutes quant au fait qu'un Univers inhomogène à plus grande échelle soit sans conséquence sur la dynamique de la région observable. Son principal résultat est que ces effets d'Univers inhomogène à très grande distance peuvent induire une "constante cosmologique apparente", qui en réalité n'existe pas. Pour lui, la totalité de l'expansion accélérée observée pourrait être liée à cela, ce qui ne convainc pas grand monde, sauf ceux qui n'aiment pas la constante cosmologique. Mais il rajoute qu'il y a certainement un risque qu'un effet de ce type existe, quelle que soit son amplitude. Et là, ce n'est pas que personne ne le croit, mais que personne n'a envie que cela soit vrai car prendre en compte ceci dans les simulations compliquerait singulièrement la tâche. L"hypothèse de mon message ci-dessus est moins extrême, mais du même type : il n'est pas clair que la façon dont un modélise l'Univers qui au départ était un milieu parfaitement homogène et en expansion, reste une modélisation acceptable dès un redshift situé quelque part entre 1000 et 10. Et en particulier, il n'est pas exclu que ces effets ne soient pas dépendant de la résolution. Le fond diffus qui nécessite au max une fraction de minute d'angle pourrait être mieux loti par effet de moyennage que des objets ponctuels situés dans des "faisceaux" bien plus fins dont la propagation pourrait être altérée plus que ce que l'on croit lors de leur propagation dans le milieu intergalactique (effets de lentille plus important, par exemple, qui causerait des erreurs systématiques sur la photométrie et fausserait la mesure des distances).

 

Mais en l'absence d'orateur, il est difficile de se prononcer sur l'importance de la remarque. C'est dommage, une revue sur le sujet aurait été un plus.

  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 26/06/2020 à 16:41, dg2 a dit :

Ce qu'on fait déjà : les fluctuations de température, observées de façon optimale : l'époque d'émission est dite à 380000 ans après le Big Bang, mais en fait ça s'étale sur plusieurs dizaines de milliers d'années avant et après, donc en gros (c'est pas tout à fait ça mais c'est l'idée), on a un énorme bougé. On ne voit rien à petite échelle angulaire à cause de ça. On dispose déjà de la carte "ultime", avec un niveau de bruit qui n'est pas parfait, mais on sait qu'on ne grattera pas grand chose de plus.

 

 

Un rappel tout sauf inutile ; on a trop souvent tendance à se représenter le CMB comme une surface sans dimension.

Ce qui n'est pas le cas et surtout pas sans conséquence sur le traitement du signal.

La recombinaison électrons/protons ne s'est pas produite instantanément, pas plus que le découplage des photons qui a immédiatement suivi.

Ce qui veut dire que que les 10^9 photons par baryons ne se sont pas mis à voyager en ligne droite au même instant t.

En fait on estime l'épaisseur de la dernière surface de diffusion ( la région de l'espace ou a été émis le CMB ), qui est une sphère centrée sur n'importe quel observateur de l'univers actuel, a environ delta z ~ 200.

Et encore une fois mille mercis à dg2 pour la qualité de son boulot.

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 26/06/2020 à 16:41, dg2 a dit :

mission japonaise LiteBird lancée en 2028 (?). Cette dernière aura une faible résolution, donc sera dédiée à la recherche des OG primordiales.

 

J'avais ouvert un fil sur cette mission (lancement en 2027 selon mes sources) 

C'est pour moi le projet le plus excitant dans le domaine de la cosmologie, à mon humble avis...

 

 

 

Pour l'obs Vera Rubin (LSST) la 1ère lumière se fera bien avant 2027 mais son boulot risque d'être un peu compliqué par des milliers de Starlink... :D

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, jackbauer a dit :

Pour l'obs Vera Rubin (LSST) la 1ère lumière se fera bien avant 2027 mais son boulot risque d'être un peu compliqué par des milliers de Starlink... 

Je ne pense pas puisque les pose seront de 10 secondes, ce qui limite fortement les risques que le champ soit pollué par quoi que ce soit. Par contre il faudra peut-être plus de nuits d'observation avant d'atteindre les objectifs en terme de magnitude limite vue qu'il y aura peut-être des champs inexploitables. Je suppose qu'il y a déjà de la littérature à ce sujet, donc tout ceci est dit sous toute réserve.

Modifié par dg2

Partager ce message


Lien à poster
Partager sur d’autres sites

L'été dernier, j'avais eu le bonheur d'assister à une conférence grand public à l'Observatoire de Haute-Provence par Alain BLANCHARD. Elle avait pour titre "Cosmologie : que sait-on de l'univers ?", donc je m'attendais forcément à une description très générale du modèle actuel. C'est en effet le plan qu'avait choisi l'orateur, et il a su l'expliciter avec talent.

 

Mais au moment des questions, je me suis levé du carrelage frais sur lequel mon postérieur était alors appuyé pour lui demander ce qui ressemblait à : "Puisque notre modèle repose en partie sur les principes cosmologiques d'homogénéité et d'isotropie, ceux-là devraient être bien étudiés, observés, prouvés, théorisés... Mais il semble que ce ne soit pas le cas. Il en va de même pour l'inflation qui semble être une pièce de puzzle fabriquée sur mesure pour remplir un trou théorique, ce qui semble aller à l'inverse de la méthode scientifique. Alors quelle sont nos meilleures raisons de les considérer comme exacts ?"


La réponse m'avait alors frappé : en quelques phrases, monsieur Blanchard m'a fait comprendre que "C'est comme ça parce qu'on sait pas comment faire différemment".

 


Il semble que l'on soit dans la "vraie" métaphysique, la limite des savoirs scientifiques accessibles, très proches de questions philosophiques.
C'est extrêmement intéressant comme sujet, merci beaucoup pour toutes les infos, dg2, et merci à tous les intervenants pour vos questions et réflexions !

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

https://www.simonsfoundation.org/2020/07/15/new-view-of-natures-oldest-light-adds-fresh-twist-to-debate-over-universes-age/

 

Les résultats d'un instrument situé au Chili, l' ACT (Atacama Cosmology Telescope), qui a observé le fond diffus cosmologique, viennent d'être publiés.
Ils sont en accord avec le satellite PLANCK
extrait :

"...Les mesures ACT suggèrent une constante de Hubble de 67,6 kilomètres par seconde par mégaparsec. Cela signifie qu'un objet à 1 mégaparsec (environ 3,26 millions d'années-lumière) de la Terre s'éloigne de nous à 67,6 kilomètres par seconde en raison de l'expansion de l'univers. Ce résultat correspond presque exactement à l'estimation précédente de 67,4 kilomètres par seconde par mégaparsec par l'équipe du satellite Planck, mais il est plus lent que les 74 kilomètres par seconde par mégaparsec déduits des mesures des galaxies..."

 

 

Atacama-Cosmology-Telescope.jpg

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant