dg2

Membre
  • Compteur de contenus

    930
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

7 Neutre

1 abonné

À propos de dg2

  • Rang
    Membre actif
  1. J'ai l'impression que plusieurs personnes ici n'ont pas compris ce qui a été mesuré. Newton a postulé que masse gravitationnelle était égale à la masse inerte, d'où le qualificatif d'"universel" à sa théorie de la gravitation. Einstein a proposé un cadre explicatif à cela, en disant que si la gravitation était une déformation de l'espace, alors tout objet voyant la même déformation serait affecté de la même façon. Pour vérfier cela, il faut et il suffit de voir si deux objets de masse et de constitution différente tombent de la même façon dans un champ gravitationnel. Les deux objets n'ont pas besoin d'avoir la même masse, bien sûr, à aucun moment on ne mesure leur masse, du reste (et tant mieux : la précision avec laquelle ou pourrait le faire serait bien inférieure au 10^-14 recherché). De même, on se fiche probablement complètement de l'éventuelle radioactivité résiduelle des échantillons. Du moment où elle est isotrope, cela ne devrait rien changer. Par contre, pour s'assurer que les objets sentent bien le même champ gravitationnel, il faut s'assurer que l'on connaît... le champ gravitationnel de la sonde elle-même, qui a sans doute nécessité une modélisation soigneuse (c'était déjà le cas pour Lisa Pathfinder, en tout cas). Il faut aussi s'assurer qu'il n'y a aucune force électrostatique résiduelle qui viendrait polluer les mesures (charges résiduelles de surface, etc.). Il faut aussi s'assurer que l'on écrante correctement toute perturbation non gravitationnelle (vent solaire, champ magnétique terrestre ou autre), qui affecterait les masses test de façon différente. Quant aux possibles implications de ce résultats, elles ne sont pas toutes connues à l'heure actuelle. Si la théorie de la gravitation est une théorie métrique (= une manifestation de la déformation de l'espace), alors les objets sont censés tomber de la même façon dans un champ gravitationnel, du moins tant qu'ils ne sont pas auto gravitants. C'est ce qu'on appelle le principe d'équivalence faible, ou principe d'équivalence d'Einstein (il y a de ptites différences entre les deux, mais peu importe ici). Quand ils sont auto gravitants, le concept même de principe d'équivalence est plus subtil, et pour le tester, il faut des corps auto-gravitants, donc pas du tout ce que fait Microscope. Pour l'heure, la meilleure vérification du principe d'équivalence fort se fait avec l'étude de l'orbite de la Lune autour de la Terre, les deux étant plongés dans le champ gravitationnel du Soleil. Mais comme l'énergie de liaison gravitationnelle de la Lune est infime par rapport à son énergie de masse, les éventuelles déviations au principe d'équivalence fort sont difficiles à mettre en évidence, et faiblement contraintes (10^-3 ou 10^-4, sans doute). On peut espérer mieux faire en regardant d'autres systèmes triples, comme un couple étoile à neutron-naine blanche en orbite autour d'une étoile. La plus grande énergie de liaison des constituants, à laquelle s'ajoute l'importante différence de constitution interne, donne aussi des résultats intéressants. Un système de ce type a été trouvé en 2014 (pulsar + naine blanche en orbite rapprochée, plongés dans le même champ gravitationnel d'une autre naine blanche en périphérie, voir https://arxiv.org/abs/1401.0535 ). A quoi sert donc une manip comme Microscope ? Tout le point réside dans le fait qu'on a dit "tous les objets voient la même métrique", ce qui est a priori vrai, mais ceux-ci peuvent voir de façon différente une autre interaction couplée à la métrique. Dans ce cas, ces objets ne vont pas tomber de la même façon dans un champ gravitationnel, non pas parce qu'ils intéresagissent différemment avec celui-ci, mais parce qu'ils interagissent vis-à-vis d'une autre force fondamentale. La quasi-totalité des extensions de la relativité générale prédit l'existence de champs supplémentaires, ce qui est un moyen de les contraindre. Et bien sûr, si on s'intéresse à de telles extensions, c'est parce que celles-ci ont a priori plus de chances de décrire les phénomènes gravitationnels dans un régime non classique. Quant à la zoologie de modèles qui ont été proposés, elle est assez considérable. Mais à ma connaissance, il existe beaucoup de travail à faire pour, à partir d'une phénoménologie donnée, dire quels paramètres d'une extension donnée sont les mieux contraints, que ce soit par les tests classiques de la gravitation (Système solaire, pulsars binaires, etc) ou via le principe d'équivalence, aussi la mesure de Microscope est-elle en l'état un peu "creuse", puisque finalement on ne sait pas trop (ou pas assez) ce qu'elle implique comme conséquences concrètes. Il est à noter que tout le monde semble d'accord pour dire qu'à un moment ou à un autre, d'autres champs non encore détectés vont se manifester d'une façon ou d'une autre, que ce soit de façon marquée à haute énergie ou de façon infime à basse énergie (ce que teste Microscope). Dans le temps, les gens disaient qu'aux alentours de 10^-18 on finirait par voir quelque chose, une valeur qui peu à peu a dérivé vers 10^-16. Microscope est donc loin d'être entré dans le coeur de la Terra Incognita, mais s'en approche peu à peu, et nul d'autre que c'est une étape indispensable dans la quête des trois ou quatre ordres de grandeur qui nous intéressent. Un peu comme les premières versions de LIGO et Virgo qui permettaient de tester diverses techologies sans espoir de pouvoir détecter d'ondes gravitationnelles. On connaît la suite.
  2. ESO : annonce spectaculaire (?) le 16 octobre

    Ce que la vidéo dit, c'est qu'on ne sait pas si la fusion de deux étoiles à neutrons donne une étoile à neutrons ou un trou noir, ce n'est pas la même chose. A priori, la collision de deux étoiles à neutrons produit un signal gravitationnel assez sale, qui empêche de savoir ce qui est issu de la fusion. Et comme la masse maximale d'une étoile à neutrons est de l'ordre de trois masses solaires, on ne sait pas avec certitude ce qu'il résulte de la collision de deux étoiles à neutrons de 1,4 ou 1,5 masse solaire. Par contre, dans tous les cas, il y a une possibilité de contrepartie optique, sans doute un peu décalée par rapport au signal gravitationnel.
  3. La rumeur des ondes gravitationnelles...

    Sans surprise, le Prix Nobel de Physique de cette année a été attribué à trois des quatre pères fondateurs de LIGO, Rainer Weiss, Kip Thorne et Barry Barish (le quatrième, Ronald Drever, était décédé en début d'année). https://www.nobelprize.org/nobel_prizes/physics/laureates/2017/press.html
  4. La rumeur des ondes gravitationnelles...

    Mais si on extrapole au supposé événement à 40 Mpc avec contrepartie optique, je présume qu'il ne doit pas y avoir beaucoup de galaxies à la fois à 40 Mpc (+ ou - 10%, disons) et dans une zone de seulement 60 degrés carrés. Je trouve que ça fait un volume de 100 Mpc^3, soit, à la louche un cube de 4 ou 5 Mpc de côté. Ca ne permet sans doute pas d'identifier la galaxie hôte avec certitude, par contre, s'il y a une contrepartie optique compatible avec la localisation et la direction du phénomène, ça ne laisse guère de doute.
  5. La rumeur des ondes gravitationnelles...

    Bon, c'est officiel maintenant, détetion d'une fusion de deux trous noirs de 25 et 31 masses solaires, dont 5% rayonnées lors de la fusion, le trou noir final faisant 53 masses solaires. L'adjonction de Virgo permet de réduire la localisation à une région de 60 degrés carrés seulement et de mieux préciser la distance, sans par contre améliorer le rapport signal/bruit du signal si je comprends bien (car le détecteur est moins sensible).
  6. La rumeur des ondes gravitationnelles...

    Au moins, cela permettra de savoir si Virgo a des performances compétitives par rapport à LIGO, et quelle est la boite d'erreur dans la localisation du signal obtenu par triangulation, et donc si avec cette boite d'erreur, un événement à 40 Mpc peut être associé de façon non ambigüe à une galaxie donnée eu égard à leur faible nombre.
  7. La rumeur des ondes gravitationnelles...

    Bon, quelques recherches plus tard, il apparaît qu'il y a une annonce "intéressante" dans les cartons pour le mois prochain (possiblement l'événement avec contrepartie optique évoqué ici), et une annonce moins spectaculaire (quatrième détection d'une fusion de trous noirs ?) qui sera faite ce soir. Cela expliquerait que LIGO et Virgo parlent de plusieurs détections communes sans faire trop de publicité à l'annonce de ce soir, qui aura un retentissement moindre que la prochaine.
  8. La rumeur des ondes gravitationnelles...

    Curieusement aucune mention n'est faite de cette annonce (dont j'ai également eu vent) sur les sites de Virgo et LIGO, mais ceux-ci font part du fait qu'il y a eu *plusieurs* détections conjointes LIGO et Virgo entre le 1er et le 25 août 2017. Annonce à 18h30 heure de Paris, apparemment.
  9. Sonde JUNO : destination Jupiter

    Survol à basse altitude (9000 km) de la grande tache rouge annoncé pour le 10 juillet prochain, quelques minutes après le périjove (3500 km d'altitude). https://www.missionjuno.swri.edu/news/juno-to-flyover-red-spot-july-10 [Ce message a été modifié par dg2 (Édité le 04-07-2017).]
  10. Exoplanètes : dernières découvertes

    Au passage, une remarque entendue lors d'un séminaire consacré au système TRAPPIST-1 il y a quelques mois.1. Ce système est très compact, de sorte que la probabilité qu'on le voie par la tranche est assez élevée, soit 2%.2. Il y avait 50 naines rouges observées dans le cadre du projet TRAPPIST, soit 1/(2%).3. La découverte d'un système planétaire est donc soit due à (a) un gros coup de chance (ces systèmes sont rares, mais on en a quand même trouvé un en cinquante essais), soit (b) est un phénomène normal, car toute les naines rouges possède(raie)nt un système planétaire compact.4. Les naines rouges sont (de loin) les étoiles les plus communes dans l'Univers5. Donc, dans l'hypothèse 3b, les systèmes planétaires du type TRAPPIST-1 sont (de loin) les plus communs6. Ce qui évidemment a(urait) des conséquences non négligeables en exobiologie, car il pourrait devenir opportun de s'interroger sur ce qu'il se passe sur des planètes recevant un rayonnement visible assez faible, mais des rayonnements IR, UV et même X largement supérieurs à la Terre en comparaison, et qui de plus aurait pas mal de chances d'être synchronisées avec leur étoile (un côté jour trop chaud, un côté nuit trop froid, et une bande crépusculaire OK, par exemple).7. A titre de comparaison, on a souvent tendance à catégoriser les exoplanètes en mettant le rayon orbital en abscisse et la masse des planètes en ordonnées. La graphique est un peu fouillis, mais il se structure notablement plus si en ordonnnée, on met le rapport de masse planète/étoile au lieu de la masse de la planète. Dans ce cas, TRAPPIST-1 ressemble à un truc que l'on connaît très bien pas loin de chez nous : les satellites galiléens de Jupiter. Cela ouvre bien sûr pas mal de perspectives pour l'étude de la formation de ces systèmes.8. Réponse dans quelques années avec un autre projet plus ambitieux d'étude des naines rouges, du nom de SPECULOOS (made in Belgium, qui l'aurait cru ?), qui devrait dans les années à venir étudier quelques centaines de naines rouges et donc décider si on détecte un dizaine de systèmes (hypothèses 3b avec toute les conséquences ci-dessus) ou très peu (hypothèse 3a, sans doute moins "drôle" pour certains). L'orateur semblait pencher, pour des raisons de mode de formation, sur l'hypothèse 3b (pronostic de 20 à 30 systèmes découverts pour 500 étoiles suivies).9. A cela s'ajoute le fait que la caractérisation des atmosphères exoplanétaires est beaucoup plus simple dans le cas d'une naine rouge que dans le cas d'une étoile de type solaire (je ne me souviens plus si c'était pour les planètes des la zone habitable, car plus près donc avec plus de transits, ou si c'était plus général). [Ce message a été modifié par dg2 (Édité le 19-06-2017).]
  11. Déces d'Eugene Cernan

    ... ou 9 euro sur Kindle, mais en anglais. http://www.amazon.fr/Last-Man-Moon-Eugene-Cernan/dp/1501264559 [Ce message a été modifié par dg2 (Édité le 27-01-2017).]
  12. Actualités de Curiosity - 2013

    Quelqu'un peut-il confirmer que si les images de la hazcam arrière sont systématiquement bruitées, c'est à cause d'une plus grande proximité avec les RTG ?
  13. Schiaparelli

    L'occasion peut-être de remettre en lumière ce qui est pour moi la plus émouvante image de la conquête martienne : Nous sommes en mai 2008, et Phoenix, encore accroché à son parachute entame la phase finale de sa descente, photographié par MRO.
  14. Le vide ?

    Déjà, la densité moyenne de matière dans l'univers, c'est un quart de proton par mètre cube. De telles densité n'existent qu'en dehors des galaxies, mais en terme de volume, c'est le plus fréquent. De mémoire, le milieu interstellaire froid a une densité qui se compte en dizaines de protons par centimètre cube (100 millions de fois plus que le chiffre ci-dessus, donc), et les nuages moléculaires à au moins 100 protons par centimètre cube, voire significativement plus.Par comparaison, un bon vide industriel (je ne parle pas de ce que l'on sait faire en laboratoire) a une pression un milliard de fois moindre que la pression atmosphérique normale, donc à température égale, une densité de matière un milliard de fois moindre. Si vous prenez l'air ambiant, 1 m^3 d'air = 1,3 kg, à 29 g par mole, donc dans les 40 moles par mètre cube, soit 2,5 x 10^25 molécules par mètre cube si je ne me trompe pas dans les zéros. C'est-à-dire que ces bons vides industriels avoisinent les 2,5 x 10^16 molécules par mètre cube, soit 25 milliards de molécules par centimètre cube. C'est, à la louche, un milliard de fois plus que le milieu interstellaire froid. Ce qu'il faudrait voir ensuite, c'est à quelle altitude l'atmosphère terrestre atteint une densité comparable à celle du milieu interstellaire, mais je pense que c'est nettement plus haut que l'altitude de l'ISS.
  15. gardons un oeil sur Bételgeuse

    quote:mais j'ai peut-être tort.c'est pas grand chose, mais après 31456 interventions provocantes, pompeuses ou trollesques, c'est toujours ça de pris. Sinon, cela fait longtemps qu'on ne détecte pas à l'oeil une périodicité en regardant l'espacement entre les maximas d'une courbe. Et le fait que les points de données ne sont pas régulièrement espacés n'empêche pas de la chercher (et de la trouver).