dg2

Member
  • Content count

    1385
  • Joined

  • Last visited

  • Days Won

    6

dg2 last won the day on April 6

dg2 had the most liked content!

Community Reputation

1778 Excellent

2 Followers

About dg2

  • Rank
    Very active member
  1. Stabilité du Système solaire

    La subtilité de la remarque de votre interlocuteur a dû vous échapper, donc je vais traduire : un projet à "seulement" trois personnes, ce n'est pas forcément beaucoup en sciences. L'heure est de plus en plus aux grandes collaborations et aux grands projets. Ce n'est pas forcément nécessaire pour répondre à cette question, cela dit.
  2. Pour Phobos, il y a je crois deux hypothèses concurrentes : Le gros impact qui a produit Stickney (le plus gros cratère) a fracturé l'astéroïde Les effets de marées de Mars sont en train de le fracturer Je n'ai pas spécialement suivi la littérature récente, mais j'ai le souvenir que l'hypothèse 2 est désormais jugée plus crédible car l'alignement des fracture est incompatible avec ce qui résulterait d'un impact, alors qu'elle sont vraiment alignées avec le grand axe de Phobos. Une des conséquences de l'hypothèse n°2 est que Phobos ne s'écrasera peut-être pas sur Mars, il sera désintégré bien avant. Déimos n'étant sujette à aucune des phénomènes envisagés pour la fracturation, il est normal que son aspect soit bien plus lisse. À faire confirmer par les planétologues de formation, bien sûr.
  3. C'est le truc qui me laisse le plus perplexe dans toute cette affaire. Quand je vois les chantiers que représentent la fabrication d'un pas de tir raisonnablement solide (j'ai en tête Soyouz et Ariane 6 à Kourou), avec des durées qui se comptent en années, et des centaines de milliers de m3 de béton, je suis quelque peu surpris par le côté rudimentaire du truc ici, qui à l'évidence devra être reconstruit à chaque lancement (en supposant même qu'il résiste à chaque tir). Quelqu'un a-t-il une idée de ce qui a été annoncé à ce niveau ?
  4. Si vous regardez les orbites des troyens de Jupiter, vous verrez que les excursions sont assez larges autour de L4 et L5. Mais pour de ce qui est de l'astronautique et des points L1 et L2 terrestres, je pense qu'il y a des aspects liés à la navigation et à la consommation de carburant. La mise en orbite n'a pas de raison de demander autant de carburant en fonction de la taille de l'orbite de halo, par exemple.
  5. Plusieurs centaines de milliers de kilomètres au minimum, voire plus d'un million. Cela dépend de la taille de l'orbite de halo choisie autour de L2, elle-même déterminée par des paramètres que j'avoue mal connaître (Planck avait une orbite bien moins large que Herschel, par exemple). Au passage, rappelons qu'il serait totalement inutile de se mettre pile au point L2, car dans ce cas la Terre y occulterait presque complètement le Soleil : vu que la Terre est un peu moins de 4 fois plus grosse que la Lune, à 1,5 millions de km de la Terre, la taille angulaire de celle-ci est assez voisine de celle de la Lune vue depuis la Terre à 400000 km de distance. En conséquence, depuis le point L2 on aurait une sorte d'éclipse annulaire en permanence, ce qui serait, hum, préjudiciable pour la production d'énergie avec les panneaux solaires.
  6. Ils ne l'ont pas vraiment imaginée, ils ont plutôt réfléchi à si on pourrait les détecter si elles existaient. Mais justement, la partie difficile n'est pas au niveau de la détection, c'est que de tels machins existent. Donc le problème évoqué n'a que peu d'intérêt si celui passé sous le tapis n'est pas résolu. C'est un peu comme l'histoire de la planète prétendument habitable dont les découvreurs réfléchissaient déjà à la couleur des feuilles des plantes qui pourraient y pousser... jusqu'à ce qu'on montre que en fait non, la planète n'était pas là. Au passage, l'auteur de l'article de numerama n'a quand même pas tout compris. Il y a un passage assez savoureux, je trouve : Tout cela relève exclusivement du domaine de la physique théorique. En premier lieu, parce que ces travaux n’ont pas encore été publiés dans une revue scientifique (et n’ont donc pas été relus par des pairs). Genre la physique théorique, c'est-à-dire par exemple la relativité et la mécanique quantique, c'est un truc qui n'a jamais été publié dans une revue scientifique. Einstein et consorts apprécieront !
  7. Une particule de matière noire étant non collisionnelle, elle ne peut émettre de rayonnement (d'où le "noir") et donc ne peut perdre d'énergie. Si elle est en orbite autour d'un astre, quel qu'il soit, elle restera indéfiniment sur cette même orbite, sans que celle-ci ne s'use au cours du temps. Or pour tomber sur un trou noir, il faut dissiper énormément d'énergie (une fraction non négligeable de son m c2), ce qui rend d'autant plus improbable sa capture. Bien sûr une particule sur une trajectoire purement radiale tombera dans un trou noir mais cela représente un flux totalement négligeable. Pour rappel, il y a beaucoup moins de matière noire que de matière ordinaire dans le centre des galaxies (précisément parce que la matière noire n'est pas collisionnelle et ne tombe pas spécialement au centre), donc il y a aura toujours un flux considérablement plus important de matière ordinaire que de matière noire, même sur des trajectoires purement radiales, trajectoires qui correspondent à un apport négligeable par rapport à l'accrétion suite à des processus dissipatifs.
  8. Cela fait effectivement partie des quatre ou cinq scénarios pour expliquer l'émergence d'une "graine" bien plus massive à l'origine des trous noirs supermassifs. Si celles-ci faisait quelques milliers de masses solaires et pas quelques dizaines, tous les problèmes d'âge seraient réglés.
  9. c'est effectivement mal dit. La question devrait plutôt être : comment un objet a-t-il pu grossir aussi rapidement ? La problématique est connue depuis des lustres : dans un régime d'accrétion stationnaire, il semble qu'il y ait une limite au flot de matière qui entre dans un trou noir, et qui l'empêche de faire mieux que doubler sa masse en 40 millions d'années. En 400 millions d'années, donc, sa masse sera multipliée au mieux par 210, soit en gros 1000, ou alors un million en 800 millions d'années. Or comme on observe des trous noirs bien plus massifs que un million de masse solaires moins de 800 millions d'années après le Big Bang, on a un problème si on imagine que la graine initiale faisait au mieux quelques dizaines de masses solaires... Ou pas. Parce que du fait que ces objets existent et ont l'air assez banals, les gens questionnent sérieusement la "preuve" qu'un trou noir ne peut pas grossir mieux qu'en doublant sa masse en 40 millions d'années. Il suffirait que le temps pour le doublement de la masse ne soit pas 40 millions mais 20, et on aurait zéro problème (augmentation d'un facteur un million en 400 millions d'années). L'autre aspect de la question est que plus le flot de matière est important, plus sa luminosité est grande. Mais comme le flot de matière est lui-même limité par la masse (cf. ci-dessus), plus c'est lumineux, plus le trou noir est probablement massif. Donc au final on considère qu'on peut évaluer la masse (ou une limite inférieure) via la luminosité de la parti centrale des galaxies. Mais si l'émission n'est pas isotrope, la mesure de la luminosité dans le seule direction de visée est insuffisante pour dire quoi que ce soit. Et quand bien même ce serait le cas, cela dépendrait toujours du calcul assez simpliste qui laisse à penser qu'on ne peut que doubler la masse en 40 millions d'années. Donc au final, on interprète des observations via pas mal d'hypothèses, et plutôt que de se dire qu'une révolution scientifique est sur le point d'arriver quand on trouve une incohérence (premier réflexe), les gens penchent plutôt désormais sur le fait que, au moins pendant une partie de leur existence, les trous noirs peuvent peut-être grossir plus vite. Car si c'est le cas, on a zéro problème. Les cas où les flots de matière sont (temporairement) supérieurs à la limite autorisé sont appelés "accrétion super-Eddington". Sur ADS, on recense sans trop se casser la tête plus de 300 articles qui ont le terme dans leur titre. Plus important, il me semble qu'il ne fait strictement aucun doute que certains systèmes facilement observables sont avérés comme étant super-Edddington. La question qui se pose est donc de savoir si cette configuration peut durer suffisamment longtemps (ou se reproduire suffisamment souvent) pour évacuer tous les problèmes possiblement causés par les trous noirs estampillés "trop gros trop tôt". Mais vu que ces objets sont fréquents, on a quand même fortement tendance à penser que c'est ce qui va être établi tôt ou tard. À noter que cette problématique n'a strictement aucun lien avec la matière noire ou les théories de gravité modifiée : c'est de la matière ordinaire qui est absorbée par les trous noirs, et les problématiques de flux maximal de matière vers les trous noirs sont relativement indépendantes des lois de la gravitation. Donc la place de ces bizarreries dans cette rubrique n'est pas très évidente à mes yeux : ce n'est pas parce que ces objets sont mal compris (ou leurs observations mal interprétées) que cela prouve que l'ensemble de la cosmologie est à revoir. Cela va sans dire, mais cela va peut-être mieux en le disant !
  10. Vous avez raison sur le principe, mais il convient de faire un peu attention à ce que vous faites de cela. Quand un paradigme se dégage, il est important qu'il reste des avocats du diable pour voir s'il n'y a pas un risque qu'on s'oriente dans une mauvaise direction. Mais si les avocats du diable, qu'ils soient neutres ou un peu orientés sur le sujet, échouent pendant des années à trouver une alternative au paradigme, eh bien le paradigme se trouve renforcé grâce au "travail infructueux" de ces personnes. Un exemple plutôt bien documenté a été le travail d'Alain Blanchard au début des années 2000. À ce moment là on pensait avoir découvert l'accélération de l'expansion de l'Univers via les supernovae lointaines, mais cela avait l'air d'être la seule preuve de l'existence de l'énergie noire. Se pouvait-il que pour une raison inconnue on se soit trompé dans l'interprétation des données et qu'on ait conclu à tort qu'il y avait de l'énergie noire ? Il a essayé de voir si on pouvait se passer d'énergie noire en occultant complètement les données de du superrnovae. Il est arrivé à la conclusion qu'avec divers paramètres assez loufoques on pouvait s'accorder des données du fond diffus cosmologique, mais au prix d'avoir une constante de Hubble étonnamment basse, incompatible avec les observations. Oublions à nouveau le problème de la constante de Hubble et continuons. Pas longtemps en fait : les autres paramètres sont alors en contradiction avec les catalogues de galaxie alors qu'avec l'énergie noire tout est en ordre. Conclusion : pour que l'énergie noire n'existe pas (ou en tout cas l'accélération de l'expansion), il fallait que simultanément les données des supernovae soit fausses, les données du fond diffus cosmologique le soient, ainsi que celles des catalogues de galaxies. Vient ensuite le moment où il faut être réaliste : qu'on aime ou qu'on n'aime pas le truc, il faut bien reconnaître qu'il va être très difficile de s'en passer. Ce qui est intéressant, c'est qu'à titre personnel, Alain Blanchard n'aimait guère l'énergie noire. Il aurait été le premier ravi à trouver un échappatoire à cette hypothèse et c'était à n'en pas douter une motivation pour exercer ce rôle d'avocat du diable. Sauf qu'il l'a fait en tant que scientifique rigoureux et non en idéologue, et qu'au bout d'un moment il a fini par "manger son chapeau" (ce sont ses termes) et reconnaitre que non, on ne pouvait pas s'en passer. On peut citer d'autres exemples, comme celui de Bruno Leibundgut pour l'analyse des supernovae, qui lui avait presque ce rôle officiel au sein de sa collaboration dont il ne se privait pas de souligner les faiblesses dans les premières années. Mais pour la bonne cause : il a contribué à ce que ses collègues soient plus rigoureux et lui encore plus tatillon. D'une manière générale, on a toujours tendance à sous-estimer le degré de précision avec lequel une communauté scientifique vérifie ses résultats. C'est dommage car si on est soi-même rigoureux, c'est un peu prétentieux de considérer que par défaut les autres le sont moins. Mais c'est, d'expérience, une attitude persistante qu'il convient, à titre individuel, de s'efforcer à corriger.
  11. C'est bien ce que je dis : les ondes gravitationnelles primordiales, même quand il y en a, ça ne va pas vous décoiffer. Donc l'évolution ultérieure de l'Univers n'est pas affectée par leur présence. Mais celle-ci sera éventuellement détectable et le modèle éventuellement testable (quoique tous les théoriciens disent cette phrase magique pour rassurer leurs lecteurs, sans que le truc soit toujours effectivement testable en pratique ; il faut donc être prudent). Il y a (comme souvent en cosmologie) un problème de vocabulaire. Le Big Bang n'est pas une théorie (comme la mécanique quantique ou la relativité), c'est un modèle (une époque de l'histoire de l'Univers). Selon les auteurs, le terme désigne : la singularité initiale (densité et température infinies), un Univers très chaud (1026 K) ou un Univers un peu moins chaud (1017 K). Les lois actuelles de la physique vous disent qu'on sait à peu près ce qu'il se passe jusqu'à des énergies de 10 TeV (énergies testées au LHC) ce qui grosso modo simule une température de 1017 K (un électronvolt = 10 000 degrés, en gros). Or les lois de la physique prédisent que si rien de nouveau ne se passe, on atteint des température arbitrairement élevées en remontant dans le passé. Donc si changement il y a, il sera forcément au-delà de 1017 K. Donc le modèle à rebond de votre gars il se fait forcément à une température supérieure à 1017 K. Il n'y a peut-être pas de Big Bang (= singularité initiale dans ce contexte), mais le truc il est sur les rails que l'on connaît dès que la température descend en-dessous de 1017 K c'est-à-dire un pouième de pouième de seconde après la singularité initiale dans la chronologie où elle aurait eu lieu. Et une fois qu'on est là, on sait à peu près comment faire évoluer jusqu'à l'émission du fond diffus cosmologique, que l'on observe. Dire dans ce cas que "la théorie du Big Bang est erronée" est un abus de langage et une énorme source de confusion dont vous êtes une malheureuse victime parmi de très nombreuses autres. Evidemment c'est plus subtil que ce bref descriptif qui mériterait d'être nuancé, mais vous voyez l'idée.
  12. Les simulations numériques ont des limitations connues. Par exemple, le taux de formation d'étoiles est quasi impossible à reproduire dans une simulation (impossible d'implémenter simultanément ce qu'il se passe à une échelle d'une fraction d'année-lumière dans une zone de formation d'étoiles et l'évolution d'une galaxie qui en fait 100000). Donc on fait toujours (et on fera pour toujours) des modèles hybrides, où on rajoute des ingrédients qui ne peuvent être simulés en même temps que le reste, mais que l'on va éventuellement évaluer dans une simulation à plus petite échelle... dans laquelle c'est l'évolution de la galaxie et son influence sur le taux de formation d'étoiles qu'on ne peut reproduire. Donc au final, même si on aimerait une simulation qui fasse tout d'un seul coup, ça ne marche jamais comme cela, et on va éventuellement ajuster tel ou tel paramètre pour reproduire telle ou telle donnée, sans savoir si par ce biais on évalue ce paramètre (car tout le reste de la modélisation est OK) ou si justement on recueille des indication comme quoi la modélisation n'est pas OK. Selon la confiance qu'ont les gens dans la physique implémentée dans leur simulation, ils vont soit dire "ça ne marche pas, donc il faut revoir quelque chose au modèle général" (et alors ça finit dans un article de Laurent Sacco dans Futura-Sciences), ou alors ils disent "il manque un ingrédient dans les simulations pour bien reproduire les choses", bref, il faut se remettre au boulot. Plus de 90% des chercheurs sont dans la seconde approche, et jusque là ils ont toujours eu raison au sens où les problèmes rencontrés à un moment donné ont presque systématiquement été atténués par une modélisation plus fine. Cela ne signifie pas que ce sera toujours le cas ou que les problèmes du moment ne sont pas, eux, révélateurs d'un problème plus profond, mais cela donne quand même des raisons d'être prudent quant aux conclusions qu'on va tirer et optimiste quant à l'évolution future de la discipline. Par exemple, pendant longtemps, on faisait des approximations sphériques sur l'accrétion (= la captation) du milieu intergalactique par les galaxies. En fait non, on s'est rendu compte assez tardivement que ça ne se passait pas du tout comme cela et surtout que cela changeait beaucoup de choses à l'évolution des galaxies. C'est un "ingrédient" basique (comment et selon quelle direction la matière "tombe" sur les galaxies) qui a énormément d'influence sur ce qu'il se passe et dont la mauvaise prise en compte a des conséquences sur ce qu'on croit comprendre des phénomènes.
  13. Il faut bien comprendre de quoi on parle. "Pas de Big Bang" = pas de singularité initiale. Mais on sait que la nucléosynthèse a eu lieu, donc que la dynamique de l'expansion est bien celle prédite de longue date depuis la première seconde. Le Big Bounce, s'il a eu lieu, ne se produit qu'au tout début du début de cette première seconde. Rien du déroulé de l'histoire ultérieure n'est affecté par l'existence ou non de ce rebond. D'où sortez-vous cela ? On sait expliquer l'évolution de l'Univers depuis l'époque d'émission du fond diffus cosmologique (380 000 ans après le Big Bang) jusqu'à aujourd'hui. Dans l'intervalle, il n'y a pas grand chose qui ne colle pas aux observations : peut-être que la croissance précoces des galaxies n'est pas comprises, mais l'état actuel l'est. Et l'Univers 380 000 ans après le Big Bang est compatible avec la nucléosynthèse (entre 1s et 3 minutes après l'éventuelle singularité initiale). Un modèle avec rebond qui ne concerne que les périodes antérieures ne change strictement rien à cela. Ce qu'un tel modèle peut apporter, c'est que la nouvelle physique qui produit le rebond (souvent c'est compliquer à implémenter) peut avoir pour conséquence que la matière noire ou l'énergie noire aient telle ou telle nature.
  14. Alors, de mémoire, le preprint de l'équipe BICEP2 est ici : https://arxiv.org/abs/1403.3985 Ensuite vous cliquez sur le petit "v1" pour voir la version fautive, et vous téléchargez le pdf qui va bien : https://arxiv.org/pdf/1403.3985v1 Sur le pdf, vous allez au paragraphe 9.1, fin p. 12, intitulé "Polarized Dust Projections". En gros, les auteurs en sont au moint où ils ont détecté de la polarisation "intéressante", mais ne savent pas si elle est due au fond diffus (Nobel en vue) ou aux avant-plans de notre galaxie, dont personne à l'époque ne connaît le niveau de polarisation (poubelles de l'histoire en vue). Impossible de savoir depuis le sol : les avant-plans émettent surtout au-delà de 300 GHz, rayonnement rendu inexploitable par la vapeur d'eau de l'atmosphère (raison pour laquelle en interférométrie radio on ne descend jamais en dessous de 1,3 mm, soit 230 GHz ; si on pouvait, on aurait des images bien plus résolues de Sgr A* et M87*). Pour savoir, il faut aller dans l'espace et donc utiliser les données de Planck. Sauf qu'elles ne sont pas encore publiques à ce moment-là. Les auteurs reconnaissent donc qu'ils n'ont pas les données de Planck et donc qu'ils vont essayer de deviner ce qu'il y aura. Ils se basent sur diverses estimations antérieures (FDS, BSS, LSA et PSM) publiées dans la littérature... et sur des trucs internes à la collaborations Planck, le DDM1 et le DDM2. Qu'est-ce que le DDM2 ? Un truc jamais publié, décrit par les auteurs comme "constructed using all publicly available information from Planck" (ça commence déjà à sentir mauvais), et là les auteurs ne mettent donc pas une référence publiée dans la littérature, mais une note de bas de page (la n°32) qui renvoie sur la présentation dont j'ai extrait une page dans le post précédent : http://www.rssd.esa.int/SA/PLANCK/docs/eslab47/Session07_Galactic_Science/47ESLAB_April_04_11_25_Bernard.pdf . Le lien ne marche plus et ne semble pas non plus archivé sur Internet Archive [edit : une présentation du même gars datée de quelques semaines après est ici : https://www2.mpia-hd.mpg.de/RSF13/archive/day_1/Bernard.pdf ], mais il existe encore une présentation des gens de BICEP2 qui revendiquent très explicitement le truc : https://indico.in2p3.fr/event/9931/contributions/51126/attachments/41399/51300/20140610_clem_apc.pdf (p. 57 et 58). Baser un article digne du Nobel sur une note de bas de page et non une référence publiée est effectivement quelque peu atypique pour ne pas dire franchement discutable d'un point de vue déontologique. C'est cela qui est curieux, en fait : personne au sein de la collaboration BICEP2 n'a froncé les sourcils. Qu'un chercheur isolé se laisse aller à divaguer ainsi, OK, mais sur une collaboration de plusieurs dizaines de personnes, c'est vraiment surprenant.
  15. La collaboration BICEP2 avait besoin de disposer de données du satellite Planck pour interpréter leurs propres données, plus précises sur certains points mais pas sur d'autres (impossible d'étudier l'infrarouge lointain depuis le sol en raison de l'absorption atmosphérique de la vapeur d'eau). Ces données n'étant pas publiques et de toutes façons soumises à embargo, ils ont tenté de contourner le problème de façon éthiquement discutable en accédant à des présentations internes à la collaboration Planck, dont certaines étaient accessibles. Sauf que évidemment, les gens de la collaboration Planck savaient parfaitement que tout ce qu'ils pourraient mettre en ligne était susceptible d'être exploité par d'autres. Donc ils ont soigneusement veillé à rendre les données présentes sur leurs présentation inexploitables. Et ils l'ont fait dès le début, sans toujours le dire explicitement, mais en laissant des indices assez "évidents" pour tout chercheur un tant soit peu lucide. Premier exemple : dès août 2009, soit trois mois après le lancement, l'ESA avait fait un communiqué de presse pour expliquer que tout allait bien et avait montré un début de carte du fond diffus cosmologique pour indiquer où en était la couverture du ciel : Croyez-vous qu'on pouvait extraire de l'information de ce moignon de carte ? Bien sûr que non. Elle avait été soigneusement dégradée, et pour que les gens comprennent bien que c'était le cas, les données subtilement dégradées étaient même à la fois de moins bonne qualité et incompatibles avec celles de la mission américaine WMAP, lancée en 2003, comme tous les petits malins qui ont essayé de tirer de l'information de cette carte s'en sont rendus compte (plus ou moins rapidement). Autre exemple, encore plus évident : peut-être vous souvenez-vous de cette carte, qui avait même eu les honneurs du journal Le Monde à l'hiver 2010 (ou 2011 ?). C'est joli, n'est-ce pas ? Sauf que si vous projetez cela sur une sphère, vous vous rendez immédiatement compte qu'il y a une discontinuité. Les gens de Planck ont rajouté (a minima) un petit gradient pour indiquer que les données étaient préliminaires et qu'il ne fallait pas s'amuser à en tirer quelque chose. Quelques années plus tard, c'est en gros la même chose que les gens de BICEP2 ont tenté de faire, et se sont plantés dans les grandes largeur. Si vous voulez tout savoir, c'est ce transparent là qui les a perdus : Le nom de l'auteur et la réunion où il l'a montré sont indiqués. C'est une carte qui montre des données liées à la polarisation du ciel (ce que les gens de BICEP2 étudiaient), sauf que le "Not CIB substracted" indique clairement (et c'était plutôt sympa) que on parle d'un mélange de pas mal de trucs, dont certains non polarisés (CIB = Cosmic Infrared Background). Donc impossible d'en tirer quoi que ce soit relativement à la polarisation galactique vu que deux informations décisives manquant : l'intensité relative du fameux CIB et le degré de polarisation de celui-ci par rapport aux autres avant-plans. En gros, c'est comme si quelqu'un vous dit que sa moyenne pondérée en maths et français est de 10/20. Il a peut-être eu 10/20 en français et en maths, ou alors 5/20 et 15/20, mais même pas forcément. Si les maths sont coefficient 2, alors il peut avoir eu 0 en français et 15 en maths. La seule moyenne ne permet pas de conclure quoi que ce soit. [edit : corrections diverses] Ensuite, transformer en png un bout de pdf, le déprojeter pour le mettre sur une sphère et en tirer une information statistique, clairement, c'est source de quantités de problèmes supplémentaires (peut-être est-ce cela que vous évoquez avec le terme "artéfact"). Mais ce n'était même pas le plus gros problème, cf. ci-dessus.