dg2

Member
  • Content count

    1308
  • Joined

  • Last visited

  • Days Won

    3
  • Country

    France

dg2 last won the day on June 25 2020

dg2 had the most liked content!

Community Reputation

1355 Excellent

2 Followers

About dg2

  • Rank
    Very active member
  1. catalogues d'étoiles

    Surpassés cependant par M81 lorsque les conditions sont optimales (sujet plusieurs fois abordé ici).
  2. catalogues d'étoiles

    Si, elle l'a été, mais comme la supernova était située vraiment au centre de M31 (à 15 secondes d'arc, de mémoire), l'impression visuelle était plutôt que M31 était globalement un peu plus brillante plutôt que celle d'un astre supplémentaire.
  3. Sgr A* est le trou noir le moins actif connu (et oui, c'est pas de bol). Pour un trou noir de masse donnée, sa luminosité d'accrétion maximale est de 30000 luminosités solaires par masse solaire. Avec Sgr A* on est à 4 millions de masses solaires, mais sa luminosité (contraintes probablement via des mesures IR et X, non atténuées par le milieu interstellaire) est au plus un milliardième de sa luminosité max., soit 30000 x 4 x 106 x 10-9 = 120 luminosités solaires. Donc cela complique la donne. Mais au moins quand on vous dit qu'on voit des étoiles très lumineuses tourner autour de rien du tout ,on ne raconte pas d'âneries. Attention cependant, l'émission radio est non thermique, donc pour un truc en radio cela reste assez intense.
  4. La température de brillance se compte en dizaines de milliards de degrés, donc c'est beaucoup (quoique moins que des quasars et autres trucs très actifs). Cela signifie que le truc crache autant en radio qu'un corps noir de 1010 K ne cracherait en radio. Bien sûr le disque n'est pas à une telle température (plutôt 106 K max pour un trou noir de cette masse, et bien moins ici car ce TN est assez peu actif), c'est juste que les phénomènes radio dus à diverses causes sont très importants.
  5. Je ne dirais pas cela, une telle configuration ne permettrait simplement pas de conclure. Car il ne fait quand même guère de doute qu'une galaxie comme la Voie lactée est issue de fusions successives de galaxies de plus petite taille. C'est ce que disent tous les modèles de formation des grandes structures et on peut vérifier explicitement que les étoiles de notre halo galactique gardent la trace dynamique de six fusions galactiques passées. La plupart de ces fusions étaient d'ailleurs identifiées avant Gaia, qui a affiné la chose et détecté la trace d'une autre fusion, plus un possible 7e candidat, cf. https://arxiv.org/abs/2202.07660.
  6. Les deux sont vus en incidence plutôt normale. On le sait depuis longtemps pour M87 (le jet émanant de la galaxie pointe vers nous, d'où le fait qu'on ne voit pas le contre-jet, beaucoup trop atténué car redshifté). C'est un peu surprenant pour Sgr A* car on se serait plutôt attendu que son axe de rotation soit perpendiculaire au plan galactique mais ça n'est pas le cas (écart de 60° environ, dans la limite où l'imagerie confirme l'inclinaison préalablement estimée). Mais les modèles de fusions galactiques expliquent je crois qu'une partie importante du moment cinétique des TN supermassifs est dû au moment cinétique orbital du couple qu'il a formé avec un autre TN supermassif lors d'une fusion galactique, et que ce plan orbital-là n'a rigoureusement aucune raison d'être corrélé avec l'orientation des galaxies avant ou après fusion.
  7. La centrifugeuse de SpinLaunch

    Il faut garder en tête que si on modélise un électron (masse m, charge q) dans le cadre d'un atome de Bohr, alors l'électron en question parcourt une orbite de rayon R égale à, disons, 0,05 nm, et il le fait suivant l'équivalent électromagnétique de la troisième loi de Kepler, soit v2R = q2 / 4 π ε0m, soit une vitesse v égale à quelques pourcents de la vitesse de la lumière, et une accélération de v2 / R = v2R / R2 = q2 / 4 π ε0m R2, soit, à la louche, dans les... 1022 g (c'est bien 10 puissance 22). Donc si on lui rajoute 10000 g = 104 g, l'électron a peu de chances d'être décoiffé. La problématique n'est sans doute pas dans l'électronique elle-même, mais dans la résistance mécanique des différents éléments, électroniques ou pas.
  8. Oui mais non. Le quasar double a été découvert... parce que c'était un quasar double et qu'il était curieux (statistiquement parlant) qu'on ait deux radiosources aussi brillantes aussi proches. À partir du moment où on a détecté cette anomalie en radio, on y a regardé de plus près. Je ne pense pas que la résolution en visible ait joué un rôle.
  9. Si on se fie au schéma, est pointable toute cible située entre 85° et 135° du Soleil, ce qui, dans le cas d'une cible sur l'écliptique correspond à deux périodes de 50° de l'orbite, donc un poil moins que 50 jours. Plus la latitude augmente, plus la cible est pointable pendant longtemps, soit sur deux périodes (moins de 45° de latitude), soit en continu pendant une seule période. Une cible à plus de 85° de l'latitude écliptique est pointable en permanence. Il me semble cependant qu'il existe des contraintes supplémentaires car le pare-Soleil a une efficacité variable en fonction de l'angle qu'il fait avec le Soleil et qu'il n'est pas possible de pointer en continu une cible pendant toute sa période d'observabilité potentielle. (Source : https://jwst-docs.stsci.edu/jwst-observatory-characteristics/jwst-observatory-coordinate-system-and-field-of-regard/jwst-target-viewing-constraints)
  10. Une mission vers Uranus et Neptune ?

    Pour Galileo et Cassini, la moitié de la masse de la sonde était du carburant. Au-delà de Jupiter, la seule source d'énergie et un générateur électrique à radioisotopes qui ne fonctionne qu'avec du plutonium-238, plutonium-238 dont les USA ne possèdent que quelques kilos et une capacité de production quasi-nulle (ils l'importaient de Russie jusqu'alors). Une sonde de poche qui fonctionne au plutonium-238, on connaît, c'est New Horizons avec 478 kg dont 30 d'équipements scientifiques. Et autant dire qu'on ne va pas gagner en passer de 30 kg à une seule caméra. Mais si vous voulez vous mettre en orbite autour d'un objet, il faut beaucoup, beaucoup plus lourd (plus d'une tonne) et donc c'est beaucoup, beaucoup plus cher... ne serait-ce que parce qu'il faut disposer du lanceur idoine, cf. Le projet Persephone d'orbiteur autour de Pluton : https://arxiv.org/abs/2102.08282 : 30 ans de missions, 3 ou 4 tonnes de xénon, des RTG qui n'existent pas encore, lancement obligatoire par un SLS, etc, pour un coût de 3 milliards de dollars. Donc à mon avis, ça va faire cher la caméra.
  11. Nouvelles comètes pour 2021

    Erreur de traduction à mon avis. Avec une densité de 1, la masse est de un milliard de tonnes par kilomètre cube, donc si la bestiole fait plus de 100 km de long, la volume se compte plus probablement en centaines de milliers de km3, donc centaines de milliers de milliards de tonnes.
  12. Pour les autres satellites "froids" comme Planck, ça n'a jamais été un problème. Par contre, le fait que le carburant s'agite dans les réservoirs quand le satellite subit des accélérations est, je crois, un source de bruit pour la précision de pointage. Et avec la qualité optique du JWST, peut-être que ce sera une problématique plus difficile à gérer que jusque alors.
  13. D'expérience, c'est plutôt dans le sens inverse que les choses se passent : la puissance publique impose des contraintes à ces agents avant de faire voter un loi pour l'imposer au privé, avec l'antienne "si nous on s'est adaptés, vous aussi". Donc si un jour prochain, on a un truc du genre "nous (fonctionnaires) on a fait notre bilan carbone donc vous (entreprises) devez le faire aussi", ce sera une très bonne chose. Et oui, il faudra changer nos habitudes et ce ne sera pas agréable mais notre empreinte climatique est bien trop insupportable. Et ce n'est pas une question de stigmatisation. Combien coûte un article scientifique par exemple ? Si on part d'un salaire brut de chercheur de 50000 euros par an, quelques articles par an mais souvent co-écrits avec d'autres auteurs, qu'on ajoute le fonctionnement des labos, les coûts liés à la réalisation de l'article, le chiffre souvent invoqué est 100000 euros, même s'il cache d'énormes disparités (la chiffre est bien moindre en sciences humaines, par exemple). Ce n'est pas rien ! Et à titre personnel, je trouve que cela responsabilise d'avoir le chiffre en tête. Pour ce qui est du bilan carbone, c'est la même chose. Le bilan est globalement plus grand que ce que les chercheurs eux-mêmes imaginent. Prenez un article sur des simulations numériques de quelques centaines de milliers d'heures CPU (pas grand chose, donc). Entre le coût de l'électricité des machines, plus le coût de la climatisation (qui double la facture), selon que vous avez fait vos calculs en France où l'électricité est décarbonée ou alors en Allemagne ou en Australie, le bilan carbone n'est pas du tout le même. Idem en fonction de la saison où le calcul est fait. Mais dans tous les cas, il sera élevé. C'est comme ça. Donc autant le savoir, et autant réfléchir à comment l'atténuer. Est-il indispensable de faire une réunion par mois en présentiel avec des collaborateurs de toute l'Europe ou du monde entier qui vont tous prendre l'avion ? Pas évident. Est-il raisonnable de choisir de de réunir "par habitude" à tel endroit alors que ce réunir ailleurs minimiserait le bilan carbone ? Pas évident non plus. Etc., etc., etc. Les physiciens des particules connaissent cela depuis des décennies, pas forcément dans la perspective "carbone", mais dans celle "électricité". Le CERN, ou le Tevatron consomment beaucoup, beaucoup d'électricité, résultat les opérations de maintenance se font préférentiellement aux saisons où l'électricité est la plus chère : hiver pour le CERN (car beaucoup de chauffages électriques), et été aux États-Unis (à cause des clims). Mais si l'électricité était gratuite, il serait idiot de ne pas faire le même effort pour l'aspect carbone. Pour ce qui est des satellites des télécommunications, je n'ai pas d'idée du bilan carbone. Quelques milliers de tonnes de CO2 pour le lancement en lui-même, mais le bilan est à répartir sur le nombre final d'utilisateurs. Beaucoup de milliers de tonnes divisées par beaucoup de milliers d'utilisateurs, pas évident de savoir combien cela fait au final. Et je ne sais pas non plus ce qu'on gagne ou qu'on perd en creusant des millions de kilomètres de tranchées pour enterrer des millions de kilomètres de fibres optiques si on préfère faire uniquement des moyens au sol. Si vous voulez savoir ce qui a le meilleur/moins mauvais bilan, eh bien... il faut faire le bilan.
  14. = Zwicky Transient Facility, un programme d'observation grand champ à l'observatoire du Mont Palomar ayant pour but de détecter des événements transitoires type SN, astéroïdes, étoiles variables, etc., cf. https://www.ztf.caltech.edu/ztf-camera.html Au passage, c'est typiquement le genre de programme qui est susceptible d'être impacté par les mégaconstellations de satellites du fait de la combinaison grand champ x nombreux clichés. Les participants au programme ont fait un papier récent là-dessus (lien peut-être à mettre dans le fil dédié) : https://arxiv.org/abs/2201.05343
  15. L'idée sous-jacente est la suivante : Quand la comète est loin du Soleil, sa trajectoire initiale est parabolique et le foyer est au niveau du barycentre du Système solaire, c'est-à-dire, en première approximation, le barycentre du système Soleil-Jupiter. Si la comète à un périhélie "petit" (moins de 1 ua, disons), alors dans la partie interne de sa trajectoire elle est bien plus près du Soleil que de Jupiter, qui se surcroît est peu massive par rapport au Soleil. Le foyer de sa trajectoire est donc désormais le centre du Soleil. La transition (progressive) entre la trajectoire loin su Système solaire interne et celle proche du Soleil s'accompagne donc inévitablement d'un changement des paramètres orbitaux, sans qu'il soit nécessaire que la comète passe près d'une planète. Or, quand une comète a une trajectoire quasi parabolique, sa vitesse au périastre vp et sa distance au Soleil q sont liées par une relation simple, à savoir vp2 / 2 = G M / q, où G et M sont la constante de gravitation et la masse du Soleil. S'il n'y a plus égalité, l'orbite devient hyperbolique (si le membre de gauche est plus grand que celui de droite) ou elliptique (dans le cas contraire). L''écart en distance entre le centre du Soleil et le barycentre du Système solaire est de l'ordre d'un rayon solaire. L'ordre de grandeur de la variation de la distance au périastre est donc de cet ordre, et n'est pas ridicule par rapport à la distance au périastre (1/200 pour un périastre à 1 ua) Ceci suffit largement pour l'égalité vp2 / 2 = G M / q ne prévale pas et que la comète ne soit plus sur une orbite parabolique. Si q augmente, la trajectoire devient hyperbolique, si il diminue, elle devient elliptique. On pourrait dire que l'effet inverse se produit quand la comète sort de la région interne de sa trajectoire, mais Jupiter aura bougé entre temps. Les deux perturbations (à l'entrée et à la sortie de la portion la plus interne de sa trajectoire) n'ont donc aucune raison de se compenser. Bien évidemment, si en prime la comète passe devant une planète géante, sa trajectoire subira une autre perturbation mais ça n'est pas indispensable pour que sa nature change. Bien évidemment aussi, la réalité est plus complexe que le modèle naïf ci-dessus et malheureusement il n'existe pas de formule simple qui explique comment les paramètres orbitaux vont changer. Il faut faire au cas par cas.