dg2

Member
  • Content count

    1102
  • Joined

  • Last visited

  • Days Won

    3
  • Country

    France

dg2 last won the day on June 25

dg2 had the most liked content!

Community Reputation

579 Excellent

1 Follower

About dg2

  • Rank
    Very active member
  1. Oui, et c'est le genre de niveau de précision dont on a sûrement besoin pour tenter de détecter des ondes gravitationnelles de très basse fréquence avec les pulsars. Une erreur de 100 m sur la position du barycentre, c'est une erreur de 0,3 microsecondes dans le détermination des temps d'arrivée rapportés du barycentre du Système solaire (ce qu'on a besoin de faire pour détecter les OG via les irrégularités de ces temps d'arrivée), erreur qui se produit dans une unique direction (en tout cas sur une courte fenêtre d'observation) , exactement comme pourrait le faire une onde gravitationnelle de très basse fréquence. (ou un petit nombre d'entre elles sur de plus grandes échelles de temps). De ce que je comprends, on connaît grâce à la télémétrie de Cassini la position de Saturne avec une précision de 75 m (donc son influence sur la position du barycentre d'un quart de millipoil), par contre c'est beaucoup moins bien pour les autres planètes géantes. On va à (court) terme améliorer la situation pour Jupiter grâce à la télémétrie de Juno, on peut à la rigueur mieux connaître la masse d''Uranus via son influence sur Saturne déduite de la télémétrie de Cassini. Pour les positions de Uranus et Neptune, ça a l'air plus compliqué mais apparemment Gaia pourra aider (je n'avais jamais lu de truc à ce sujet, donc je ne sais pas si c'est un projet ou un truc déjà bien maîtrisé). Ceci dit, à la fin, les gens de NanoGRAV concèdent qu'ils ne pourront connaître la masse de Neptune que par déduction de leurs données alors qu'à la base ils auraient aimé la connaître pour mieux contraindre les ondes gravitationnelles. Ceci dit même sur plusieurs années, on peut dans le contexte de NanoGRAV considérer Neptune comme en mouvement quasi rectiligne et cela est moins gênant.
  2. Un trou noir né trop tôt ?

    C'est un marronnier de la physique extragalactique : des trous noirs trop gros, trop jeunes, ce qui signifie que soit on évalue mal leur masse il existe un processus permettant de former des "graines" très massives il existe un processus leur permettant de grossir très rapidement. Les points 1 et 3 sont possiblement en rapport : d'ordinaire, on considère que l'accrétion est modulée par la limite d'Eddington, qui dit que le flux de masse (et donc la luminosité) est proportionnel à la masse du trou noir, ce qui fait que celle-ci croît au plus vite exponentiellement, avec une constante de temps de 40 millions d'années. Une accrétion super Eddington aurait le double avantage de : permettre au tour noir de grossir plus vite expliquer qu'on surévalue la masse du trou noir en supposant à tort qu'il accrète à un rythme plus lent. De mon point de vue (distant), l'hypothèse 1 + 3 l'emporte sur la 2 dans la littérature actuelle.
  3. Il y a déjà eu un exemple d'étoile disparue entre 2007 et 2015 dans NGC 6946. Apparemment ici, l'étoile "progénitrice" n'est pas la même (supergéante rouge pour NGC 6946 et variable lumineuse bleue ici). Pour rappel ,dans NGC 6946, cela avait donné ça :
  4. Je pense que ce manque d'attention est normal : L'événement est considéré comme un candidat, pas une détection La probabilité que ce soit un artéfact terrestre est estimée à 3% La distance de l'événement (si c'en est un, donc) est de 4000 Mpc avec une incertitude de 1000 Mpc (six milliards d'années-lumière en profondeur, donc La localisation sur le ciel de 600 degrés carrés, soit à cette distance, une zone de plus de 1000 Mpc de côté Dans ce volume, on doit avoir une énorme palanquée de galaxies Dans ce volume, donc, des gens disent avoir observé un sursaut bizarre Le sursaut a eu lieu plusieurs semaines après l'événement. Comme le sursaut est bizarre ils se disent que c'est peut-être la contrepartie optique tardive d'un événement incertain issu d'une configuration improbable. Tout ressemblance avec la fugacement célèbre étoile KIC 8462852 n'est à mon avis pas complètement fortuite, à moins que ce ne soient avec les canaux martiens.
  5. Je ne pense pas puisque les pose seront de 10 secondes, ce qui limite fortement les risques que le champ soit pollué par quoi que ce soit. Par contre il faudra peut-être plus de nuits d'observation avant d'atteindre les objectifs en terme de magnitude limite vue qu'il y aura peut-être des champs inexploitables. Je suppose qu'il y a déjà de la littérature à ce sujet, donc tout ceci est dit sous toute réserve.
  6. C'est plutôt l'hypothèse de Thomas Buchert, mais en moins pire. Buchert dit que en fait personne ne sait si l'Univers reste homogène à des échelles plus grandes que ce que l'on observe (c'est indiscutable), et il émet des doutes quant au fait qu'un Univers inhomogène à plus grande échelle soit sans conséquence sur la dynamique de la région observable. Son principal résultat est que ces effets d'Univers inhomogène à très grande distance peuvent induire une "constante cosmologique apparente", qui en réalité n'existe pas. Pour lui, la totalité de l'expansion accélérée observée pourrait être liée à cela, ce qui ne convainc pas grand monde, sauf ceux qui n'aiment pas la constante cosmologique. Mais il rajoute qu'il y a certainement un risque qu'un effet de ce type existe, quelle que soit son amplitude. Et là, ce n'est pas que personne ne le croit, mais que personne n'a envie que cela soit vrai car prendre en compte ceci dans les simulations compliquerait singulièrement la tâche. L"hypothèse de mon message ci-dessus est moins extrême, mais du même type : il n'est pas clair que la façon dont un modélise l'Univers qui au départ était un milieu parfaitement homogène et en expansion, reste une modélisation acceptable dès un redshift situé quelque part entre 1000 et 10. Et en particulier, il n'est pas exclu que ces effets ne soient pas dépendant de la résolution. Le fond diffus qui nécessite au max une fraction de minute d'angle pourrait être mieux loti par effet de moyennage que des objets ponctuels situés dans des "faisceaux" bien plus fins dont la propagation pourrait être altérée plus que ce que l'on croit lors de leur propagation dans le milieu intergalactique (effets de lentille plus important, par exemple, qui causerait des erreurs systématiques sur la photométrie et fausserait la mesure des distances). Mais en l'absence d'orateur, il est difficile de se prononcer sur l'importance de la remarque. C'est dommage, une revue sur le sujet aurait été un plus.
  7. Quelques remarques personnelles sur ce que je n'ai pas vu / entendu : Pour un modèle donné, l'âge de l'Univers est inversement proportionnel à H0. Si vous prenez une valeur haute comme Riess et ses céphéides, il n'est pas exclu que vous finissiez à être en désaccord avec l'âge de certaines très vieilles étoiles. Donc les valeurs "hautes" de H0 pourraient très bien se fracasser sur un écueil de ce type, à supposer que les âges soient estimés avec une précision acceptable (aucune idée si c'est le cas). Il y a une alternative quelques fois évoquée mais pas abordée ici : quand on modélise l'Univers, on fait l'hypothèse que c'est un Univers homogène et isotrope en expansion, et avec de petites fluctuations, qu'on modélise avec une technique classique de linéarisation (plus termes non linéaires au besoin). Mais en fait à aucun moment on ne démontre que cette approximation est OK dans le cadre de la relativité générale. Bref, on a ici pensé à regarder si les observations étaient en erreur, si la recette cosmique était en erreur, mais n'a pas été abordée l'hypothèse que le formalisme sous-jacent soit en erreur. C'est un point qui a déjà été regardé, mais dont l'effet exact est pour l'instant impossible à quantifier parce que c'est très compliqué. Je ne pense pas que beaucoup de gens seraient heureux de cette issue, qui pourrait ajouter une grosse couche de complexité aux simulations de formation des structures ou autre, mais cela reste une possibilité.
  8. Dernier intervenant, Raphael Flauger sur le futur de l'observation du fond diffus. Ce qu'on fait déjà : les fluctuations de température, observées de façon optimale : l'époque d'émission est dite à 380000 ans après le Big Bang, mais en fait ça s'étale sur plusieurs dizaines de milliers d'années avant et après, donc en gros (c'est pas tout à fait ça mais c'est l'idée), on a un énorme bougé. On ne voit rien à petite échelle angulaire à cause de ça. On dispose déjà de la carte "ultime", avec un niveau de bruit qui n'est pas parfait, mais on sait qu'on ne grattera pas grand chose de plus. Ce qui manque : la polarisation. Le rapport signal sur bruit des données est mauvais, le contrôle des avant-plans aussi, la résolution imparfaite, etc. Enfin, ce n'est pas "mauvais" dans l'absolu, mais nettement perfectible. Par exemple, on peut encore améliorer la résolution d'un facteur trois et mieux tester diverses explications citées par V. Poulin hier. On peut aussi espérer observer la trace d'ondes gravitationnelles primordiales, mais cette fois à grande échelle angulaire (cf. la tristement célèbre annonce de BICEP en 2013). Revue des projets du moment '("Stage 3", ou S3) : projets au sol, focalisés sur la mesure de la polarisation. Selon qu'on s'intéresse aux grandes ou petites échelles, le design de l'instrument est très différent : on ne peut pas tout faire avec un seul instrument. La problématique couverture du ciel vs. profondeur se pose autant que pour les observations en optique (cf. exposé de E. Krouse). Il passe maintenant au futur, le projet anonymement baptisé S4 (stage 4, si vous avez suivi). Manip au sol en opération en 2028-2035, puis mission japonaise LiteBird lancée en 2028 (?). Cette dernière aura une faible résolution, donc sera dédiée à la recherche des OG primordiales. La raison est que le contrôle des avant-plans est ce qui prime, donc nécessité d'aller dans l'espace au détriment de la résolution angulaire (difficile de faire les deux dans l'espace à cause du volume de données et de la télémétrie). Il revient sur les performances de ces projets pour la mesure de H0 : incertitude (en km/s/Mpc) de 0,6 pour le meilleur projet S3, jusqu'à 0,2 avec S4. Si jamais il faut ajouter un ingrédient ou deux à la recette cosmique (neutrinos, etc, cf V. Poulin), S3 reste aussi bien (incertitude de 0,6), les S4 se dégradent, conséquence des choix sur lesquels ils arrêtent la stratégie d'observation. Bref, ce sera mieux demain.
  9. C'est au tour de Elisabeth Krause de parler des projets de détermination des propriétés de l'énergie noire. De très nombreux projets : CFHTLS, COSMOS, DLS (terminés), KiDS, DES, HSC (en cours), Euclid, Vera Rubin Observatory (ex LSST), Nancy-Grace-Roman Space Telescope (ex WFIRST) En couverture du ciel, Euclid et VRO dépassent largement le reste (première lumière en 2023 et 2027 respectivement). Elle passe un peu trop rapidement pour que je suive sur les types d'observations faites (ou favorisées) par les différents relevés : cisaillement, catalogue, lentilles. Pas mal de points techniques sur le nerf de la guerre, à savoir non pas l'argent, mais l'estimation et le contrôle des incertitudes. Elle passe au détail ce que fera le NGRST (lancement prévu en 2025), dont la stratégie d'observation est encore en cours d'élaboration. Comme toujours, la question est de trouver meilleur compromis entre la couverture du ciel (nbre de degrés carrés observés) et la profondeur du relevé (redshift maximum pour la classe de galaxies cibles. Le choix est d'autant plus complexe à faire qu'à un moment ou un autre, il est important de comparer avec d'autres relevés, et donc d'avoir une couverture du ciel qui chevauche celle des autres relevés, mais cela limite la magnitude max, etc nuit à la calibration interne de la manip. C'est de la cuisine interne, mais c'est essentiel pour obtenir les meilleurs résultats possibles. Elle passe (rapidement) en revue la problématique du côté du VRO et avec un peu plus de détail celle de Euclid. et revient au NGRST. Un peu trop technique/rapide pour faire un compte-rendu live. Sa conclusion est le truc que j'ai souligné : on va avoir de très gros relevés, de très gros volume de données, et comme le disent les physiciens des particules, "precision is difficult".
  10. Deuxième intervenant, Stefano Casertano(du STScI) sur le JWST. Il rappelle (comme l'intervenante d'avant aurait pu le faire) que ces gros instruments ne vont pas faire de gros relevés, mais observer des cibles plus spécifiques. Ils ne vont pas participer à des programmes de type DESI ou autre. Rappel des performance du JWST : de la bande R (0,6 microns min) à plus de 30 microns. Pb actuels avec les céphéides : calibration locale (améliorables avec Gaia), petitesse de l'intervalle où on peut étudier céphéides et SN Ia. Céphéides les plus éloignées étudiées par SH0ES (Riess) : NGC 5468 à 42 Mpc. En fait on peut déjà observer des céphéides dans l'amas de Coma, mais au pris de 100 orbites HST (je ne sais pas quel temps d'observation par orbite). Ex. : on a trouvé des céphéides dans NGC 4291. Pour résumer, le JWST fera à 100 Mpc ce que le HST fait à 40 Mpc. Pb quand même : difficile de trouver des céphéides en IR, donc le HST servira en complément à ça (rappel le HST détecte aussi en UV). a priori, le HST est en bonne forme pour pouvoir fonctionner jusqu'en 2030. Sinon, il est d'accord que le problème de pollution des céphéides par les autres objets du champ est réel. Il insiste sur le fait qu'un instrument genre JWST va avoir une énorme pression niveau demande, donc tout ce qui n'est pas indispensable à faire avec le JWST gagnera à être fait ailleurs, et vraiment réserver le JWST au reste. C'est évident, mais on ne l'a pas entendu lors de l'exposé précédent. Il passe maintenant à ce qu'on peut faire de mieux avec la méthode TRGB (extrémité de la branche des géantes rouges sur le diagramme HR). Apparemment, l'apport du JWST est moins fort mais je n'ai pas bien compris la raison. A l'inverse, le JWST est plus intéressante pour les Mira, parce qu'il va bien plus loin en IR, surtout pour les Mira les plus brillantes (qui sont plus rouges). En terme de temps d'observation, il faut 1 h de JWST pour une Mira à 50 Mpc (plus plusieurs époques pour faire la courbe de lumière bien sûr). Par contre la recherche prendra beaucoup de temps. Autre apport, les lentilles/images multiples car avec le gain en résolution on reconstitue bien mieux le profil de masse.
  11. C'est parti pour la première intervenante, Giuliana Fiorentino. Rappel du calendrier : l'ELT de l'ESO a une première lumière prévue en 2025, puis 2027 pour le TMT et 2029 pour le GMT, tous en construction. Elle passe diverses images du site de l'E-ELT (déjà postées ici). Elle passe aux instrument de 1ere génération : MICADO et MAORY MICADO : imageur/spectro (bande I,J,H,K - en IR donc). Taille pixel : 0,0015" ou 0,004" Champ : 20x20 minutes ou 50x50'. MAORY est le système d'AO. Pas spécialiste du truc, donc difficile de suivre, mais les simulations des performances sont remarquables. Elle compare ce qu'on peut faire avec un 8m et un 40m ( et un HST). Apparemment, il y a les "single conjugate" et "multi conjugate" système d'optique adaptative. Apparemment le gain est très important, surtout en terme de photométrie (car moins de pollution des objets proches, j'imagine, cf. exposé de Riess lundi ou mardi). Autre avantage : on pourra bien mieux déterminer la métallicité des cibles observées en spectro IR (bande J), qui sont une possible source de biais pour ce qui est des céphéides. L'apport des ELT sur la problématique de la conf : les céphéides, sur des distances de 7 à 40 Mpc. D'ordinaire on ne voit pas de céphéides plus loin, mais là oui, ce qui évitera en principe de calibrer les supernovae sur les céphéides : on fera tout avec les céphéides. Petite comparaison au passage des performances optiques ELT vs. JWST (ça ne fait jamais de mal de dire qu'on est meilleur que la concurrence). Retour à la problématique de la détermination de H0 avec les céphéides. Un instrument tel l'ELT permettra aussi de mieux déterminer l'amplitude de variation des céphéides (elle parle presque exclusivement de photométrie, en fait), toujours grâce au meilleur pouvoir séparateur. Bref, ce qui importe pour la problématique n'est pas ici le gain en flux, mais en résolution. Elle finit son intervention sur ce qu'on peut faire de mieux, cette fois parce qu'on recueille plus de flux : étudier les céphéides jusqu'à 100 Mpc (objectif avoué : aller jusqu'à l'amas de Coma).
  12. Bon, voici le programme de cette dernière journée, qui apportera des réponses à ce qu'évoquait Superprospecteur lundi dernier : que peut-on attendre des années à venir? En premier, Giuliana Fiorentino va parler des mesures de distances à l'ére des E-ELT. Ensuite, Stefano Casertano va faire pareil mais pour ce qui concerne le JWST Après, Elisabeth Krause va parler des projets futurs de sonder les propriétés de l'énergie noire Enfin, Raphael Flauger parlera des manips futures d'observation du fond diffus, dont les fluctuations de température sont déjà observées de façon optimales, mais pas les fluctuations de polarisation. A priori, ce sera plus reposant que les autres jours, avec de nombreuses promesses (sincères) de lendemains qui chantent.
  13. Bon, dernière intervention de la journée d'hier, Vivian Poulin, sur diverses pistes théoriques pour expliquer l'anomalie. Spoiler : il n'y a pas de solution satisfaisante qui se détache de la (grosse) foule d'explication proposées Petit rappel : on peut toujours avec le fond diffus tirer les paramètres pour avoir une valeur plutôt haute de H0, mais dans ce cas, on va être en tension avec les BAO ou le reste. Le pb n'est pas avec UNE manip, mais leur combinaison. Il propose une autre façon de voir les choses : ce qu'on peut mesurer n'est pas la H0 mais l'horizon sonore, et on retrouve la même chose : les proxies locaux (cisaillement à ne voient pas la même valeur de cet horizon sonore. Une possibilité de résoudre les tensions est donc de trouver un moyen de faire grandir l'horizon sonore plus vite entre z = 25000 et 1000, de sorte que notre analyse se basant sur une croissance plus lente se sera en fait trompée sur sa vraie valeur (j'espère que je suis clair ?!). Des pistes simples : l'horizon sonore dépend du degré d'interaction entre les photons et la matière mais aussi entre matière noire et photons. Quand on joue avec cela, ça ne marche pas car la structure à plus petite échelle de la carte ne convient pas. Autre possibilité : supposer qu'on a mal évalué l'époque d'émission du fond diffus. Si on le voit plus récemment, la taille angulaire des structures change. Ca ne marche pas un peu pour la même raison (je résume, c'est un poil plus technique en vrai, mais l'idée est que l'on observe une carte avec des structures à toutes les échelles. Changer la physique qui affecte la granularité la plus évidente n'est pas sans conséquence sur tout le reste). Pour que ça marche, il faut changer simultanément deux trucs : la constante de structure fine (l'intensité de la force électrique, en gros) ET la masse de l'électron. Ca fait beaucoup. Et même avec ça, on réduit la tension plus qu'on ne l'annule complètement... tout en créant une tension avec les BAO. Dernière possibilité (par élimination) : changer l'histoire de l'expansion entre z = 25000 et z = 1000., ce qui implique changer le contenu matériel de l'Univers à cette époque, ou changer la façon dont elles sont diluées par l'expansion. L'hypothèse canonique est de supposer qu'il n'y a pas trois espères de neutrinos dans l'Univers, mais un autre nombre (ou que l'abondance des trois espèces ne suit pas la loi attendue quand tout ce petit monde est en équilibre thermique avec tout le reste). Du coup, une autre hypothèse est de supposer qu'en pus de matière noire, il y a aussi de la "radiation noire" (espèces se déplaçant à la vitesse de la lumière sans interagir avec rien). Mais dans ce cas, il faut que ladite radiation noire interagisse avec la matière noire. -> on rajoute un truc, et au final, on doit en rajouter un 2e. Autre hypothèse : pour une raison transcendantale, les neutrinos interagissent entre eux longtemps après qu'il devraient avec cessé de le faire. Aucune justification à cela dans le cadre du modèle standard, mais cela donne des résultats intéressants... mais surtout cela nécessite d'avoir un 4e neutrino, avec des masses qui commencent à être sévèrement en tension avec les limites supérieures sur les masses mesurées en laboratoire (aujourd'hui). Il évoque ensuite l'autre recette canonique pour essayer de s'en sortir. Rappel, les distance croissent au cours du temps, c'est l'expansion de l'Univers, on appelle a, ou facteur d'échelle, le truc qui croît proportionnellement aux distances. La matière est diluée par l'expansion, sa densité décroît inversement proportionnellement au volume, donc 1 / a^3. Pour al radiation, c'est pareil, sauf que l'énergie des photons décroît elle aussi puisque l'expansion étire leu longueur d'onde, donc la densité d'energie va en 1 / a^4 . Pour bidouiller la loi d'expansion, on a besoin d'un truc de densité d'énergie au départ négligeable, mais qui décroît moins vite que le reste (en 1/ a^2 par exemple), mais qui après doit disparaître, donc décroître plus vite, genre en 1/a^5. Il existe une entité qui peut faire cela, c'est un truc appelé champ scalaire, donc la densité d'énergie décroît selon les situation en 1/a^0 (donc elle est constante) et 1/a^6. Le problème c''est qu'il faut ajuster la dynamique de ce truc pour qu'il entre en scène à la bonne époque et qu'il en disparaisse assez rapidement après pour ne plus jamais jouer de rôle. Il essaie de résumer les avantages et les inconvénients des différentes pistes évoquées (warning : il travaille sur celle sur laquelle il voit le plus d'avantages). Ca donne cela : Bref après s'être convaincu que les observateurs bossaient tellement bien que c'étaient les théoriciens qui avaient loupé un truc, quand on écoute les théoriciens, on se dit que c'est probablement les observateurs qui se sont plantés.
  14. Le rendu dépend des filtres utilisés pour la prise de vue et leur conversion en RGB, donc difficile pour moi de vous en dire plus sans ces informations, mais si on montre les bandes V à IR, l'effet de la raie Lyman alpha n'apparait pas, et de toute façon si les galaxies d'arrières plan ne sont pas à z > 2, l'effet ne se voit pas non plus. Je profitais de l'occasion de montrer l'image pour illustrer le cisaillement pour poser cette petite colle (en supposant implicitement que l'image était assez proche de la sensibilité de l'oeil), à laquelle la plupart des étudiants ne trouvent pas la réponse. Donc aucune malice de ma part : c'était une question amusante, mais difficile.
  15. Outre les illuminations superfulgurantes : effet Sachs-Wolfe (comme semble le suggérer aussi PascalD ?) ou l'effet est-il encore négligeable à cette échelle ? Sinon, je ne vois pas... L'effet que vous citez est effectivement l'effet Sachs Wolfe, dont l'amplitude est de 10^-5. Important (essentiel même) pour le fond diffus, mais négligeable ici. L'autre effet est en fait une conséquence de l'effet cité par super Super : beaucoup d'étoiles jeunes, donc beaucoup d'UV qui ionisent l'hydrogène, qui va se recombiner en émettant entre autre un photon Lyman alpha. Ledit photon a une longueur d'onde de 121 nm, donc largement dans l'UV.... sauf quand la galaxie a un redshift qui dépasse 2 et quelques, ce qui fait entrer la raie dans la bande visible du côte du violet.