dg2

Membre
  • Compteur de contenus

    1 429
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Tout ce qui a été posté par dg2

  1. Les choses sont liées (sans bien sûr être imputables à Delambre et Méchain) par le fait que les Américains de la fin du XVIIIe étaient enthousiastes à l'idée d'adopter le mètre mais que le retard pris dans la mesure de la Méridienne a brisé cet élan. On ne peut refaire l'histoire pour vérifier, mais le fait est que si l'expédition de Delambre et Méchain avait rendu son verdict dans les temps, la possibilité que les anglo-saxons adoptent le système métrique aurait été sensiblement augmentée. C'est un point très bien expliqué dans le livre de Ken Alder. Qu'ensuite les anglo-saxons n'aient pas fait cet effort, et qu'ils se soient trompé à cause d'une erreur de conversion 200 ans plus tard, c'est effectivement leur problème.
  2. C'est une histoire très humaine, qui a dépassé ceux qui y ont été impliqués. Ce n'est pas être discourtois que de dire que les choses ne se sont pas aussi bien passées que prévu et que Méchain a mal supporté la pression qui reposait sur ses épaules, pression due au fait qu'une mission importante reposait sur les épaules de deux personnes dont les siennes. Ce n'est pas discourtois que de dire que "le mètre est faux" (l'expression est de Delambre), car c'est la réalité, au sens ontologique du terme (le mètre ne correspond pas à la définition qui aurait dû avoir). C'est juste que le projet était très (trop ?) ambitieux pour l'époque et que les moyens mis en œuvre étaient insuffisants. Mais le mètre est "vrai" parce que tout le monde l'utilise désormais, ce qui était le but de l'opération, créer une unité de mesure valable "pour tous les temps, pour tous les hommes". Je préfère (largement) la version de Alder qui romance moins les choses que Guedj, et qui en prime a découvert des documents inédits sur l'histoire. De plus, malgré d'abondantes notes de bas de page et références, le livre de Alder se lit facilement, presque comme un roman, ce qui de la part d'un historien des sciences est à souligner. Enfin, le fait qu'un Américain, qui vit dans un pays qui n'a pas adopté le système métrique (ce que l'intéressé déplore), donne à cette aventure franco-française un regard extérieur intéressant, et autorisé aussi puisqu'il a parcouru en vélo l'ensemble du méridien tel quelqu'un qui ferait un pèlerinage. Son regard sur José Bové et le démontage du MacDo de Millau (je vous laisse découvrir pourquoi il parle de cela) est inattendu mais instructif, ne serait-ce que pour nous rappeler que tout le monde ne voit pas le monde de la même façon. Il me semble que bien des intervenants et lecteurs ici sont suffisamment savants et désireux d'en savoir plus pour que recommander un ouvrage particulièrement remarquable soit plutôt encouragé. Quand au rapport avec Mars, disons que l'échec en 1999 de la mission Mars Climate Orbiter est en partie lié à l'histoire de l'invention du mètre pour des raisons expliquées dans le livre de Alder (et sans doute Guedj, je ne me souviens plus).
  3. Bien mieux que les livres de D. Guedj, celui de l'historien américain Ken Alder : Ken Alder est le gars qui près de 200 ans après les faits a découvert dans les archives de l'observatoire de Paris les atermoiements de Delambre et Méchain, le premier ayant quelque peu trafiqué ses mesures pour masquer une possible incohérence, le second ayant, après le décès du premier, décidé de tout passer sous silence. Résultat des courses, le mètres est "faux" au sens où il ne satisfait pas à sa définition (le diamètre polaire de la Terre fait 40008 km et non 40000 comme il aurait dû par définition du mètre).
  4. Pourquoi ces divisions par 2 ? a et b sont les demi axes (= rayons dans le cas d'un cercles), pas les axes (= diamètre).
  5. J'ai vu finir le monde ancien.

    Un excellent résumé paru ce jour dans Le Monde. https://www.lemonde.fr/sciences/article/2023/09/04/pourquoi-le-lk-99-un-suppose-supraconducteur-miracle-a-enflamme-la-communaute-scientifique_6187796_1650684.html
  6. Luna 25 (Russie) octobre 2021

    Une coalescences d'étoiles à neutrons produit du plutonium, du curium et bien au-delà. D'ailleurs on a des traces de radioactivité éteinte à base de plutonium et de curium dans certaines météorites primitives. Donc oui, la Nature sait produire bien plus d'isotopes que nous n'en serons jamais capables. En fait, il y a un petit calcul amusant que l'on peut faire : l'isotope le plus stable du plutonium, c'est le plutonium-244, avec une demi vie de 80 Ma. En un milliard d'années, l'abondance du Pu-244 diminue donc d'un facteur 2^12,5, soit dans les 6000 : si vous avez un kilo de Pu-244, il vous en reste 0,16 g au bout d'un milliard d'années. De même, sur l'échelle de vie de la Terre, la diminution de Pu-244 "natif" présent à la formation de la Terre est de 2^57. Or 2^57, c'est dans les 10^17 et 10^17 atomes, c'est largement moins de un gramme. Il suffirait qu'il y ait même pas un gramme de Pu-244 à la naissance de la Terre pour qu'il reste encore bien plus d'un atome de ce plutonium. Alors certes la quasi totalité du Pu-244 que l'on trouve sur terre est un résidu des essais atmosphérique, mais on ne peut exclure qu'il y en ait qui soit 100% naturel. Je vous laisse en guise d'exercice évaluer quelle quantité de Pu-244 on peut imaginer être présent dans la nébuleuse protosolaire. Désolé du dérangement, c'était pour mettre un peu de science dans ce fil.
  7. L'argument est je crois un peu pipeau. Le plutonium des RTG est pris dans une céramique conçue pour ne par se vaporiser. En cas d'explosion au décollage, celle-ci sera éventuellement brisée en morceau mais ne sera pas dispersée sous forme d'aérosols dangereux.
  8. Je suis assez d'accord... Si j'essaie de résumer : L'auteur invente un problème qui n'existe probablement pas (les galaxies trop évoluées pour leur âge) Il invente un truc qui n'existe probablement pas pour résoudre ce problème qui n'existe pas (la lumière fatiguée), truc qui n'a aucune motivation physique sous-jacente. Il le fait fort mal, les histoire de vitesse de la lumière variable résultant soit d'un artéfact lié à un jeu de coordonnées mal fichu ou alors ne dérivant pas d'un lagrangien (cf. travaux de J.-P. Uzan, déjà évoqués sur plusieurs fils). Et comme ça ne marche pas, il invente un autre truc qui n'existe pas (variation des constantes fondamentales) pour étayer le truc qui n'existe et ne marche pas, lui même censé expliquer le problème qui n'existe pas. Et bien sûr, mis à part les supernovae lointaines, dont on sait depuis 25 ans qu'elles ne contraignent pas la physique fondamentale, rien du reste de la cosmologie n'est abordé : rien sur l'influence (probablement délétère) du modèle sur la nucléosynthèse, rien sur le fond diffus, etc, etc. Pour la méthode générale, il utilise la même technique qu'un autre auteur déjà évoqué sur ce forum et qui après un buzz éphémère a disparu des radars : publier une demi-douzaine d'articles dont on ne comprend pas à quoi ils servent, et les mélanger tous ensemble dans l'article final pour tirer une conclusion impressionnante. Ici, on note que l'article n'a pas été mis sur arXiv avant envoi à la revue scientifique, histoire de faire un maximum de buzz ("article accepté") sans avoir préalablement été soumis à l'examen critique de la communauté. La démarche est certes obligatoire pour certaines revues à embargo (Nature), mais ici c'est MNRAS donc c'est hautement non standard. J'ai personnellement du mal à y voir autre chose qu'une manœuvre volontaire pour faire parler de soi en évacuant (pendant un temps seulement) les critiques.
  9. Les points L4 et L5 de Jupiter sont "encombrés" de quelques dizaines de milliers d'objets, répartis sur une zone de plusieurs dizaines de millions de km, ce qui n'est pas franchement "encombré", en fait. Pour la Terre, c'est encore plus simple : à peu près aucun objet (= suffisamment gros pour être détectable) ne réside sur ses points de Lagrange. La durée du transit et, surtout, la télémétrie sont les raisons pour lesquelles on n'envoie rien là-bas. La solution intermédiaire est d'envoyer un objet sur une orbite solaire vaguement plus petite ou plus grande que la Terre. L'objet va au départ accompagner la Terre, qui s'en éloigner inexorablement (cas de Spitzer). C'est largement plus simple que perdre du temps à aller à L4 ou L5.
  10. ... tous les quelques mois, plutôt, et à ma connaissance, ça n'est pas un problème car les corrections nécessaires sont faibles. Exemple trivial : SOHO, en orbite du côté de L1 depuis 1995... et qui devait y rester jusqu'à au moins 2025, soit une longévité de 30 ans. Donc oui, c'est instable, mais franchement pas beaucoup et ça n'est pas ça qui fixe la durée de vie des satellites.
  11. L'oscillation... est une oscillation. Le centre de l'oscillation (polhodie) se déplace peu. En vrai il se déplace, en raison de la variation de répartition des masses sur Terre. Deux sources évidentes sont identifiées depuis longtemps : La diminution de masse du Groenland du fait de la fonte des glaces Le rebond isostatique toujours en cours des anciennes calottes polaires de l'hémisphère nord (Scandinavie notamment). Toute la difficulté est de savoir si ces phénomènes, plus d'autres comme la convection dans le manteau (plus difficile à détecter par ailleurs), expliquent tout ou s'il manque un ingrédient. J'indique ci-dessous des données récupérées auprès de spécialistes. À l'évidence, 78 cm en 17 ans, c'est plusieurs dizaines de pourcents du mouvement moyen observé, qui donc méritait qu'on en cherche une explication.
  12. La rumeur des ondes gravitationnelles...

    Fin de l'embargo à 2h00... Un article du Monde à ce sujet : https://www.lemonde.fr/sciences/article/2023/06/29/premiere-detection-d-ondes-gravitationnelles-provenant-de-trous-noirs-colossaux_6179689_1650684.html Les articles vont paraître sur arXiv dans les minutes qui viennent.
  13. La rumeur des ondes gravitationnelles...

    Cela reste un point technique. Il ne fera pas la une du JT, donc les gens qui s'y intéressent (vous) font déjà partie des happy few... et qui, c'est cruel, ne nécessitent peut-être pas autant d'attention qu'un public plus vaste qu'on aurait besoin de toucher.
  14. La rumeur des ondes gravitationnelles...

    Que les temps d'arrivé des signaux reçus des pulsars sont perturbés par le "bruit de fond" produit par l'ensemble des ondes gravitationnelles basse fréquences issues de la fusion de trous noirs supermassifs. Impossible d'en extraire une a priori, c'est seulement leur effet cumulé qui sera détecté. Le but est de déterminer le rythme de ces fusions, non pas en les voyant une à une, mais en observant leur effet cumulé. Je n'aime pas les paris, mais ce qui est attendu/espéré, c'est qu'on détecte la présence de ce fond, c'est-à-dire en gros l'amplitude moyennes des OG dans une bande (sans doute assez large) de fréquence. A moyen terme, il s'agira de "faire de la spectroscopie", càd déterminer l'amplitude de façon vaguement précise dans des bandes de fréquence de plus en plus étroites, le tuot pour comparer aux modèles de croissance hiérarchique des trous noirs supermassifs par fusions successives. Depuis le temps que les gens travaillent sur cela, je suis assez certain qu'ils ont trouvé des façons pertinentes d'expliquer la chose au grand public, donc à mon avis il n'y a pas trop à s'en faire à ce niveau-là.
  15. La rumeur des ondes gravitationnelles...

    C'est un chiffre obtenu à partir d'une petite cinquantaine d'événements observés. L'incertitude va aller en diminuant à mesure qu'on observe plus d'événements. Et avec l'augmentation de la prise de données et surtout l'amélioration de la sensibilité, ce n'est pas un ou deux événements par mois que l'on détectera à terme, mais potentiellement plusieurs par jour. Aucune autre technique d'estimation de H_0 n'offre autant de perspectives prometteuses. Bien sûr au bout d'un moment on va se rendre compte qu'ici comme ailleurs gagner en précision est de plus en plus difficile. Mais le temps joue pour nous : autant il y a peu de chance qu'une nouvelle galaxie puisse voir sa distance évaluée proprement avec les céphéides ou une autre méthode, autant il est certain qu'on aura de plus en plus de coalescences observées.
  16. Je crois qu'elle était déjà présente dans des bouquins de Hubert Reeves...
  17. L'univers primordial est opaque = il est majoritairement ionisé car (très) chaud, et les électrons libres diffusent la lumière alors présente, c'est-à-dire le fond diffus cosmologique. L'univers primordial devient transparent = la température baissant, les électrons libres se recombinent aux noyaux d'hydrogène (et avant cela aux noyaux d'hélium). Les sites de diffusion diminuent drastiquement et les photons du fond diffus cosmologique se propagent librement. Cela se passe dans les 380000 ans après le Big Bang (c'est progressif cela dit, pas instantané). C'est un peu la transition intérieur-extérieur du Soleil, où la lumière est diffusée sans cesse, puis se propage sans entrave. La différence, c'est que dans le Soleil, c'est l'abondance de matière qui chute brusquement alors qu'ici c'est son opacité. L'univers se réionise : quelques centaines de millions d'années après le Big Bang les premières générations d'étoiles sont chaudes et massives, elles émettent un fort rayonnement UV à même d'ioniser la totalité du milieu interstellaire. Les photons du fond diffus cosmologique sont à nouveau susceptible d'être diffusés, mais la densité de matière a tellement baissé que seule une petite partie le sera. En gros 10% des photons du fond diffus cosmologique ont subi au moins une diffusion depuis la réionisation et 90% n'ont pas été diffusé. Si la réionisation avait eu lieu plus tôt, les proportions seraient plus semblables (20-80% par exemple). On sait par ailleurs avec certitude que l'Univers s'est réionisé car le rayonnement UV émis pas les quasars sera absorbé si l'hydrogène est à l'état neutre (l'UV est absorbé par un atome de H qui est alors réionisé) et ne le sera pas s'il est ionisé. Le changement entre un univers partiellement et totalement réionisé est visible par ce biais. Par l'analyse du fond diffus cosmologique, on peut évaluer ces proportions (dans les 10-90%), mais pas l'histoire de la réionisation. On ne distingue pas (ou à peine) entre une réionisation instantanée à z = 8 ou une réionisation progressive entre z = 9 et z = 7, par exemple. L'apport du JWST est précisément d'étudier les galaxies et donc les populations d'étoiles à ces époques et donc à déterminer le flux UV produit au cours du temps.
  18. Dans le monde quelque peu sinistré de la presse en général et de la presse scientifique grand public en particulier, un acteur majeur (et centenaire) semble être en danger : https://www.liberation.fr/france/2018/10/11/reworld-un-conseil-ne-bossez-jamais-pour-eux_1684727 Je ne sais pas si on peut faire quelque chose pour eux, mais ça fait mal au coeur de voir ce qu'il pourrait advenir de ce magazine.
  19. Une bonne nouvelle pour terminer la journée : la justice a donné raison aux anciens de S & V, partis fonder Espiloon, contre Reworld Media : https://www.lemonde.fr/economie/article/2023/06/07/reworld-media-perd-ses-proces-intentes-contre-des-anciens-de-science-vie_6176626_3234.html
  20. Anneau d'Einstein et arc-en-ciel

    Il y a conservation du flux, donc si on focalise la lumière dans certaines directions, on défocalise dans d'autres. Mais en gros la focalisation est importante sur une très petite zone (le voisinage immédiat de l'axe source-lentille-Terre) et la défocalisation est distribuée uniformément partout ailleurs, aussi en pratique est-elle invisible. On peut tenter quelques chiffres avec la sphère céleste vue depuis la Terre, et déformée par le Soleil. Un rayon lumineux qui rase le Soleil est dévié de 1,87 seconde d'arc (mesuré par Eddington en 1919 puis Campbell en 1922). Un rayon lumineux atteignant la Terre depuis une étoile perpendiculaire au plan de l'écliptique approche le Soleil d'une distance égale à la distance Terre-Soleil, soit 230 rayons solaire. La déflexion est donc 230 fois moins que précédemment, soit 8 millisecondes d'arc : c'est la moitié de cet écart (4 mas) qu'elle montre par rapport à la perpendiculaire au plan de l'écliptique puisqu'au moment où on voit l'étoile, la lumière de celle-ci n'a subi que la moitié de sa déviation. Donc en gros la moitié de la sphère céleste située à l'opposé du Soleil est en fait comprimée, son rayon angulaire n'est pas de 90°, mais de 90° - 4 mas. Le disque de chacune de ses étoiles est donc, en moyenne réparti sur une région qui ne fait pas la moitié de la sphère céleste (2 pi stéradian) mais un chouias moins, genre 0,0004 stéaradians de moins, soit un écart relatif de 0,006%. Avec un amas bien plus lointain, l'effet est encore plus faible.
  21. Stabilité du Système solaire

    La subtilité de la remarque de votre interlocuteur a dû vous échapper, donc je vais traduire : un projet à "seulement" trois personnes, ce n'est pas forcément beaucoup en sciences. L'heure est de plus en plus aux grandes collaborations et aux grands projets. Ce n'est pas forcément nécessaire pour répondre à cette question, cela dit.
  22. Objectif Mars en 2021 pour les E.A.U.

    Pour Phobos, il y a je crois deux hypothèses concurrentes : Le gros impact qui a produit Stickney (le plus gros cratère) a fracturé l'astéroïde Les effets de marées de Mars sont en train de le fracturer Je n'ai pas spécialement suivi la littérature récente, mais j'ai le souvenir que l'hypothèse 2 est désormais jugée plus crédible car l'alignement des fracture est incompatible avec ce qui résulterait d'un impact, alors qu'elle sont vraiment alignées avec le grand axe de Phobos. Une des conséquences de l'hypothèse n°2 est que Phobos ne s'écrasera peut-être pas sur Mars, il sera désintégré bien avant. Déimos n'étant sujette à aucune des phénomènes envisagés pour la fracturation, il est normal que son aspect soit bien plus lisse. À faire confirmer par les planétologues de formation, bien sûr.
  23. C'est le truc qui me laisse le plus perplexe dans toute cette affaire. Quand je vois les chantiers que représentent la fabrication d'un pas de tir raisonnablement solide (j'ai en tête Soyouz et Ariane 6 à Kourou), avec des durées qui se comptent en années, et des centaines de milliers de m3 de béton, je suis quelque peu surpris par le côté rudimentaire du truc ici, qui à l'évidence devra être reconstruit à chaque lancement (en supposant même qu'il résiste à chaque tir). Quelqu'un a-t-il une idée de ce qui a été annoncé à ce niveau ?
  24. Si vous regardez les orbites des troyens de Jupiter, vous verrez que les excursions sont assez larges autour de L4 et L5. Mais pour de ce qui est de l'astronautique et des points L1 et L2 terrestres, je pense qu'il y a des aspects liés à la navigation et à la consommation de carburant. La mise en orbite n'a pas de raison de demander autant de carburant en fonction de la taille de l'orbite de halo, par exemple.
  25. Plusieurs centaines de milliers de kilomètres au minimum, voire plus d'un million. Cela dépend de la taille de l'orbite de halo choisie autour de L2, elle-même déterminée par des paramètres que j'avoue mal connaître (Planck avait une orbite bien moins large que Herschel, par exemple). Au passage, rappelons qu'il serait totalement inutile de se mettre pile au point L2, car dans ce cas la Terre y occulterait presque complètement le Soleil : vu que la Terre est un peu moins de 4 fois plus grosse que la Lune, à 1,5 millions de km de la Terre, la taille angulaire de celle-ci est assez voisine de celle de la Lune vue depuis la Terre à 400000 km de distance. En conséquence, depuis le point L2 on aurait une sorte d'éclipse annulaire en permanence, ce qui serait, hum, préjudiciable pour la production d'énergie avec les panneaux solaires.