dg2
-
Compteur de contenus
1 429 -
Inscription
-
Dernière visite
-
Jours gagnés
6 -
Last Connexion
Soon available - 42142
Messages posté(e)s par dg2
-
-
L'opportunité de continuer cette discussion ne me paraît pas certaine, mais je me permets de réagir à ce que vous avez écrit hier soir.
Il y a 21 heures, Romlag a dit :A chacun de se faire son avis en toute impartialité, et avec sa conscience. Pour ma part, je continuerai à défendre ce qui me tient à cœur. Le jour où Janus sera officiellement invalidé en séminaire, je ne le prendrai plus au sérieux. Certainement pas avant.
Ne craignez-vous pas que votre attitude vous condamne à l'ignorance ? Vous appelez de vos vœux, ou exigez (question d'interprétation) que M. Petit soit autorisé à faire un séminaire, tout en sachant (ou devinant) que cela ne peut avoir lieu eu égard au piètre niveau de l'intéressé. Vous dites ensuite que rien ne vous fera changer d'avis sans cet indispensable préliminaire (pour vous). Conditionner une amorce de réflexion à un événement qui a peu de chances d'avoir lieu n'est pas, je crois, le meilleur moyen de faire évoluer votre compréhension de l'Univers. Que M. Petit soit dans ce schéma de pensée, lui qui à son âge est plus près de la fin que du début, cela peut sans doute se concevoir. Mais de la part d'une personne probablement plus jeune (vous), je trouve cela dommage. Mais c'est votre problème.
Je vous concède volontiers que M. Petit est dans une situation effectivement compliquée, sans accès facile à certains articles, sans facilité à suivre l'état de l'art, avec globalement peu d'interlocuteurs – rappelons cependant que l'intéressé n'a de son côté jamais fait grand chose pour entretenir des rapports cordiaux avec les uns et les autres. Tout cela est sans doute frustrant. Mais le point essentiel n'est pas là. Le point, c'est que ce qu'il publie, quelque atypique que soit le canal par lequel il y parvient, est factuellement et trivialement faux. Il n'y a pas besoin de lire beaucoup de sa production pour réaliser qu'il ne maîtrise pas ce dont il parle. Hélas lui-même est convaincu du contraire et rien ne semble pouvoir le rendre lucide sur ce point. Je vous ai cité l'exemple des trous noirs, celui de son modèle à la loi d'expansion incohérente, mais il y en a quantité d'autres. Le problème n°1, ce n'est pas l'accès aux articles, c'est qu'il ne connaît franchement pas grand chose à la relativité générale. Quel(s) livre(s) sur le sujet possède-t-il ? Sans doute trop peu. Sont-ils récents ? Sans doute pas assez. Sont-ils de bonne qualité ? J'en doute. Pourquoi n'en a-t-il pas d'autres ? Je l'ignore.
Qu'un de ses articles soit refusé quasi immédiatement par une revue n'est à ce titre pas spécialement surprenant. C'est le boulot de l'éditeur d'une revue de scanner rapidement les soumissions et de refuser rapidement celles qui ne vont visiblement pas au niveau. Notez au passage que cela présente l'avantage pour le soumissionnaire de pouvoir tenter sa chance ailleurs le plus rapidement possible.
Ce problème de qualité existait dès les années 1990, soit avant son départ à la retraite. Ses articles de 1994 et 1995 sont particulièrement mauvais (= complètement faux). Donc on ne peut pas vraiment mettre cela sur le compte de ses faibles interactions post-retraite avec le monde extérieur. Trente ans plus tard, la situation ne s'est hélas pas améliorée. Disons que l'intéressé a progressé... mais bien moins vite que l'état de l'art. Or le B-A-BA du chercheur, c'est d'être capable de suivre l'état de l'art, ce qui présuppose de maîtriser a minima les bases. Vous semblez vouloir monter en épingle l'"échange" avec Thibault Damour, mais c'est à mon avis une erreur. Cela donne l'impression d'un débat de spécialistes de très haut vol alors qu'il y a quantité de problèmes bien plus
basques[edit] basiques absolument délétères qui rendent ce point technique sans objet.- 4
- 1
-
il y a une heure, Romlag a dit :En épilogue, j'ai bien compris que vous ne me prenez pas au sérieux, et que mes paroles n'ont aucune valeur à vos yeux du fait de mon amateurisme, sur ce forum d'astronomie, mais répondez-moi honnêtement : est-ce que vous tiendriez ce même discours suffisant, si c'était un astronome hautement qualifié et expérimenté qui venait soutenir JP Petit ?
Je ne pense pas qu'il y aura des spécialistes hautement qualifiés qui le défendront. Des marginaux oui, des gens en rupture avec le système certainement, mais pas des gens qui ont une bonne compréhension des choses. Encore une fois : un bon étudiant de master 2 n'aura aucune difficulté à voir qu'il y a quantité de choses qui clochent. Comme vous n'avez pas le niveau master 2 (ce n'est pas un reproche), vous ne vous en rendez pas compte et vous espérez qu'il en sera autrement.
il y a une heure, Romlag a dit :C'est comme pour Janus, vous persistez à vouloir le juger sans en connaitre TOUTES les subtilités de son contenu, ses tenants et aboutissants (ou comme Thibaut Damour qui décrète l'incohérence du modèle en se basant sur le principe que les masses négatives se repoussent entre elles, alors que selon le modèle Janus elles s'attirent...) donc forcément vous ne pouvez que trouver des erreurs en vous comportant ainsi, tout comme JP le conclut dans son intervention que j'ai postée dans mon 1er message : "Evidemment, si [les paramètres du modèle] ne sont pas assimilés et pris en compte, on risque des erreurs en extrapolant."
Peut-être ne vous en rendez-vous pas compte (bis), mais c'est là un grand classique chez les dilettantes enthousiastes qui prétendent révolutionner la physique. Ils disent un truc, on leur fait remarquer que ça ne tient pas la route, et ils sortent (plus ou moins consciemment) un argument passe-partout du genre "Vous ne m'avez pas compris" ou "C'est plus compliqué que cela" ou "Ce n'est pas ce que dit mon modèle". C'est très pratique parce que cela évite de répondre sur le fond. La réalité est plus basique. Dans plusieurs articles est écrite noir sur blanc la loi d'expansion du modèle, avec laquelle je suis plus ou moins d'accord (c'est super mal écrit, mais passons). Celle-ci ne comporte pas de Big Bang. On peut effectivement se demander comment il est possible que son auteur ne l'ait pas vu. J'ai mon idée là-dessus, mais je vous l'épargnerai puisque visiblement vous n'aimez pas les longues explications.
- 4
- 1
-
Il y a 1 heure, Superfulgur a dit :Lune
Vu que le satellite est au point L2, pointer la Lune n'est sans doute pas possible.
- 3
-
Il y a 20 heures, Romlag a dit :En effet, je confirme en toute modestie que mon niveau amateur ne me permet malheureusement pas de pouvoir débattre en profondeur sur le modèle
Rassurez-vous, personne n'est là pour vous demander de débattre. C'est vous qui semblez le vouloir, tout en vous dérobant à chaque fois, du coup on ne sait pas vraiment ce que vous venez faire ici. Perdre du temps ? En faire perdre aux autres ? Je l'ignore. Je vous ai expliqué, arguments à l'appui, que défendre le modèle de votre idole était peine perdue, de toute façon.
Il y a 20 heures, Romlag a dit :Je persiste simplement qu'il n'a jamais été formellement réfuté (contrairement à la croyance populaire) en apportant mon argumentaire.
Dans ce cas, disons pudiquement que vous persistez... dans l'erreur. Ce n'est pas grave, cela peut arriver à tout le monde. Vouloir sortir de l'erreur nécessite en revanche une dose d'effort et de volonté. À vous de prouver que vous en êtes doté. Mon pronostic à ce sujet est assez réservé.
Il y a 20 heures, Romlag a dit :Si ce satané modèle est aussi médiocre que vous le supposez, sa réfutation devrait alors être une simple formalité.
Pardonnez-moi, mais... n'est pas ce qui a été fait sur ce forum même ? Un modèle qui indique que rien ne peut avoir de décalage vers le rouge supérieur à 5,75 est de facto réfuté. Si je puis me permettre, votre attitude confine au caprice de diva : on prend le temps de vous expliquer ce qui ne va pas, et vous répondez diverses variations sur le thème "Tout ceci ne me convainc pas". Sachez que tout le monde se fiche complètement que vous soyez convaincu ou pas ! La science n'est pas une police de la pensée. La science sert à proposer une vision objectivable du monde. Si en lieu et place vous préférez imaginer que la Terre est plate, à votre guise. La vraie question que vous devez vous poser est de savoir si vous voulez vraiment comprendre le monde qui vous entoure ou si vous voulez défendre une vision fantasmée de ce que vous aimeriez qu'il soit. En temps normal, je serais tenté de dire que vous seul avez la réponse, mais en vérité je ne suis pas certain que vous ayez entamé une réflexion sur le sujet. Un jour peut-être ?
Maintenant, permettez-moi une analyse personnelle : vous dites que vous n'y connaissez rien, ce qui vous permet d'éviter à répondre à une quelconque objection. Vous dites ensuite que le modèle n'a pas été réfuté alors que, précisément, je vous ai donné un argument simple à ce sujet. Vous ne pouvez pas à la fois dire que vous n'y connaissez rien et affirmer ceci ou cela ! À la rigueur, vous pouvez dire que vous ne pouvez pas juger du bien fondé de mes remarques, mais vous ne pouvez pas dire que vous êtes ignorant ET affirmer que les critiques n'ont rien démontré. Mon impression est que vous faites preuve d'une ignorance feinte : vous dites que vous êtes ignorant pour ne pas avoir à répondre alors que vous avez des opinions très arrêtées sur le sujet. Sachez cependant que votre ignorance feinte (vous vous pensez sans doute plus malin que ce que vous affirmez hypocritement) cache une ignorance vraie : nous êtes largement moins savant que ce que vous pensez être. J'en veux pour preuve votre question ci-dessous que vous semblez brandir tel un talisman qui prouverait l'inanité de l'ensemble de la communauté scientifique.
Il y a 20 heures, Romlag a dit :
Et pour finir, vous ne m'avez pas répondu sur le second point, à savoir votre explication rationnelle d'une "singularité gravitationnelle" qui visiblement ne semble aucunement vous "troubler" au point de l'adopter sans gêne, tout en dénigrant les plugstars pour leur "exotisme". C'est un peu l'hôpital qui se moque de la charité...Donc je vais vous répondre, sans beaucoup d'espoir que vous ayez la maturité ou l'honnêteté de ne pas répéter une énième fois votre "Tout ceci ne me convainc pas"...
Pour vous répondre, je vais partir d'un truc plus simple que les trous noirs, à savoir l'électromagnétisme. En électromagnétisme, on fait l'hypothèse que les particules élémentaires sont ponctuelles. Problème, l'énergie associée au champ électrique d'un simple électron de taille nulle est infinie. Or d'après E = m c², la masse d'un électron doit avoir une contribution électromagnétique, nécessairement infinie ici. Autrement dit, l'hypothèse qu'une particule élémentaire soit ponctuelle est purement est simplement incompatible avec son existence puisque sa vraie masse est finie ! Du coup, vous êtes plus ou moins obligé d'envisager que l'électron possède en réalité une taille petite mais finie, ce qu'on appelle le rayon classique de l'électron, qui vaut un peu plus de 10^(-15) m. En conséquence, l'électron possède une structure et on se demande bien pourquoi il serait dans ce cas impossible de le couper en plusieurs morceaux... Bref, le concept même de particule élémentaire est assez incompatible avec les lois de l'électromagnétisme... C'est un peu gênant, non ?
Mais en fait, c'est encore pire que cela. Si vous déplacez une charge électrique, celle-ci va émettre un champ électromagnétique. Et comme la charge est sensibles aux champs électromagnétiques, elle va nécessairement interagir avec son propre champ. Vous pouvez donc calculer ce qu'on appelle la force de réaction au rayonnement, seule façon se rendre cohérent le déplacement d'une particule chargée avec le fait qu'elle génère un champ. Fort bien. Sauf que quand vous calculez cela, vous vous rendez compte qu'il se passe vraiment des choses bizarres à (très) petite échelle. Par exemple, si vous appliquez une force sur l'électron à un instant t précis, les calculs vous indiquent que celui-ci va commencer à accélérer avant que vous n'ayez appliqué la force. Oh bien sûr, pas très longtemps avant : dans les 10^(-23) seconde avant. Mais avant quand même. Par quel miracle l'électron acquiert-il une prescience du fait qu'on va lui appliquer une force ?
Il ne vous aura (peut-être) pas échappé que le temps pathologique ci-dessus n'est rien d'autre que la longueur pathologique divisée par la vitesse de la lumière. Donc, à nouveau, à des échelles de temps et de distance suffisamment petites, l'électromagnétisme... ne marche purement et simplement pas. Pourtant, une ligne à haute tension, ça fonctionne. L'arc-en-ciel, ça existe. MAIS les lois que l'on utilise dans un cas ou dans l'autre pour les décrire sont frappées d'une irréfragable incohérence mathématique.
On sait désormais pourquoi : l'électromagnétisme, il faut lui adjoindre les lois de la mécanique quantique. Celles-ci vous disent qu'en dessous de la longueur d'onde de Compton de l'électron, on ne peut plus utiliser les concepts classiques qui mènent aux incohérences précitées. Et bien sur, la longueur d'onde de Compton est supérieure d'un facteur 100 et quelque au rayon classique de l'électron.
J'ai bien conscience qu'à ce moment de l'histoire, je vous ai perdu depuis longtemps, aussi je vais conclure avec des mots plus simples : la plupart des théories physiques sont incomplètes. Elles ont en réalité un domaine d'application limité. Parfois cela se voit, comme avec l'électromagnétisme : il est inévitable qu'en-dessous d'une certaine échelle spatiale elles sont incohérentes et qu'il faut donc les amender. Parfois, cela ne se voit pas : il n'y a rien dans les lois de la gravitation de Newton qui laisse entrevoir qu'il faut les remplacer par autre chose. Mais rien qui assure que ça n'arrivera pas. Nous en venons maintenant aux trous noirs. La relativité générale prédit que les effondrements gravitationnels sont inéluctables sous certaines conditions, et donc que l'on va créer des singularités, et donc que quantités de grandeurs physiques vont diverger dans une infime région de l'espace. Cela ne vous rappelle rien ? C'est exactement comme le rayon classique de l'électron en électromagnétisme.
Bref, nos théories qui marchent doivent être à un moment ou à un autre être remplacées par d'autres théorie plus précises, au domaine d'application plus vaste. La relativité générale n'échappe pas à cette règle et oui, quand on veut décrire une singularité, il faut faire de la gravité quantique. On sait à quelle échelle de distance ou de densité il faut le faire. Ce n'est pas celle où se forme un horizon (ce qui signifie que les trous noirs existent réellement), mais au niveau de la singularité elle-même. Tout le monde sait ça. Enfin, presque tout le monde... chez les étudiants en physique de niveau master. Si vous ou votre mentor l'ignorez (cela semble être le cas), eh bien, cela met une limite supérieure à vos niveaux d'étude respectifs. On retombe donc dans le problème évoqué dans un de mes précédents messages : il y a quantités d'éléments objectifs qui disent que votre champion N'A PAS le niveau master 2. Il en est même assez loin, je le crains.
- 7
- 1
- 13
-
il y a 18 minutes, Alain_G a dit :Si je ne me trompe pas :
A la base, la matière noire a été introduite pour expliquer la vitesse de rotation des étoiles dans les galaxies spirales. Les étoiles vont trop vite quand on s'éloigne du centre de la galaxie et elles se comportent comme si la galaxie était beaucoup plus massive que ce que l'on voit.
Vraiment à l'origine, c'était la vitesse des galaxies dans les amas.
Ce n'est qu'ensuite la dynamique individuelle des étoiles dans les galaxies spirales a confirmé/accentué le problème. Cela dit, cela n'a pas d'importance pour répondre à votre question ci-dessous.
il y a 18 minutes, Alain_G a dit :Voici ma question : Les théories faisant intervenir la matière noire ont toujours été majoritaires alors que la théorie MOND et consorts sont jugées marginales. Existe-t-il donc des arguments qui permettent de privilégier de manière certaine l'existence de la matière noire aux alternatives de type MOND ?
C'est une question de formalisme. MOND ce n'est pas juste une modification des lois de la gravitation, c'est quasiment une modification du principe fondamental de la dynamique. Par ailleurs, MOND est une formulation ad hoc qui n'a pas de motivation théorique sous-jacente, même si elle a le mérite de proposer une explication empirique à un truc bizarre. À l'inverse le relativité générale avait une motivation théorique, à savoir réconcilier la gravitation newtonienne avec la relativité restreinte. Enfin (et surtout), MOND c'est une description non relativiste et non géométrique de la gravitation. Quand vous essayez de formuler MOND avec une modification de la RG, vous vous retrouvez avec une palanquée de termes supplémentaires qui semble conspirer pour n'avoir qu'une seule conséquence observable. Ce n'est pas franchement convainquant. Possible, mais pas convainquant.
À l'inverse, dire qu'on ne connaît pas toute la matière qui existe, ça n'a pas grand chose de surprenant puisque le modèle standard est incapable d'expliquer que les neutrinos aient une masse. Or ceux-ci en ont une, donc le modèle standard est de facto incomplet. Dans ce contexte, dès que vous réfléchissez à étendre le modèle standard (et vous êtes obligés de, à cause des neutrinos), il est à peu près impossible de ne pas avoir de particules supplémentaires. Donc la présence d'un ingrédient supplémentaire (... ou plus, bien sûr) n'a rien de bizarre. Reste à s'assurer que le(s)dit(s) ingrédient(s) supplémentaire(s) reprodui(sen)t correctement le comportement de la matière noire. Ca n'est effectivement pas toujours le cas et les observations peuvent servir de guide, quoique pas assez contraignant pour savoir quelle piste explorer. Pendant longtemps on a privilégié la supersymétrie, dans l'espoir que celle-ci soit observée au LHC. Mais cela reposait sur une vision qui , a posteriori, était assez optimiste des choses. Pour faire court, si la supersymétrie existe, il n'y a pas de raison qu'elle se manifeste à l'énergie atteinte par le LHC. Vu que le LHC a fait chou blanc, les gens cherchent autre chose qui soit éventuellement testable comme les axions. Il y a une telle diversité d'hypothèses envisageables qu'on cherche préférentiellement ce qu'on peut espérer tester à plus ou moins long terme. C'est certainement un biais mais les gens lucides en ont conscience.
La question qui en principe devrait aider à trancher, c'est celle des mérites respectifs des deux approches : y en-t-il une qui marche vraiment mieux ? Les tenant de l'une ou de l'autre vous diront toujours que la leur marche mieux (ils ne l'étudieraient pas sinon !), mais souvent c'est par choix (pas toujours conscient cette fois-ci) de privilégier les observations qui vont dans leur sens. C'est un cas classique du biais de confirmation. Donc ce n'est pas facile d'y voir clair à moins d'être un spécialiste d'à peu près tous les domaines. Si vous vous intéressez au fond diffus cosmologique vous préférerez la matière noire. Si vous vous intéressez aux galaxies, ce sera moins clair. Si vous vous intéressez à la Toile cosmique, vous espérerez que MOND n'est pas la bonne théorie car c'est beaucoup plus compliqué à implémenter. C'est un autre exemple de biais possible.
Mais globalement, la balance penche aujourd'hui nettement plus en faveur de la matière noire que pour MOND, sans pour autant que tout soit définitivement figé.
- 5
- 7
-
Le 02/03/2024 à 16:34, Romlag a dit :Donc nous en sommes là. JANUS ne se résume pas à de la matière de masse négative. C'est un modèle infiniment plus complexe, constitué de subtilités délicates à appréhender, à un tel point qu'il n'y a que le débat scientifique entre son auteur et le consensus scientifique qui serait en mesure de valider OU INVALIDER son contenu.
Cher @Romlag
Qu'en savez-vous ? Vous ne prétendez pas avoir de connaissances particulières dans le domaine, aussi, me semble-t-il, vous ne faites qu'ânonner ce qu'affirme votre maître. Hélas la réalité est bien plus triviale. La cuisine sous-jacente au modèle est peut-être un peu complexe (suffisamment en tout cas pour que son auteur n'en maîtrise pas tous les détails), mais une fois le cadre (mal) posé, le modèle, c'est un truc avec 0 constante cosmologique et de la matière non relativiste qui a une masse totale négative (mélange de + et de - mais plus de - que de +). Dans ce cas la loi d'expansion est assez triviale (JPP n'a même pas eu là la calculer, ce qui est dommage au passage car il aurait été intéressant de le voir essayer)... et prédit qu'il n'y a pas de Big Bang. C'est un modèle à rebond avec un Univers infiniment vieux au départ en contraction, puis donc la dynamique s'inverse pour repartir en expansion indéfinie. Il y a un redshift maximum (= l'époque du rebond) qui dépend de la quantité de matière totale, elle-même étant relativement contrainte dans le cadre du modèle de JPP par le fait qu'il faut qu'elle soit compatible avec les mesures de supernovae. Donc on a beau tourner et retourner le problème dans tous les sens, ça ne marche pas : si on veut un Big Bang il faut enlever de la matière négative (je ne sais pas comment il l'appelle, mais peu importe), et ce faisant on devient incompatible avec les supernovae.
J'ajoute que ce point-là est connu depuis... plus d'un quart de siècle : si on ajuste les données des supernovae dans l'hypothèse où il y a de la matière et pas de constante cosmologique, on va trouver que la quantité de matière est négative. C'est trivialissime. Je vous joins un schéma tiré d'un papier de 1998 :
Même avec des données vieilles de 25 ans, l'ellipse autorisée (les trucs en rouge) intersecte la ligne des abscisses (zéro constante cosmologique) pour des valeurs négatives de la quantité de matière (le Omega_M). Ok, le schéma ne va pas dans les Omega_M négatifs, mais on devine ce qu'il se passe. Le point important est maintenant celui-ci : il y a un truc en haut à gauche où est écrit "No Big Bang", une zone grisée qui plonge vers la ligne des abscisses dès que Omega_M est négatif. Donc pas de Big Bang dans cette zone. Voilà. On sait cela depuis 25 ans, et même bien plus longtemps puisque tout un chacun peut vérifier ce point depuis que Friedmann et Lemâitre ont écrit leurs équations il y a... un siècle. Malgré l'âge canonique de votre champion, son idée d'un univers à matière négative était connue comme étant incompatible avec l'hypothèse d'un Big Bang avant même sa naissance.
Vous comprendrez qu'en pareilles circonstances, il est compliqué d'envisager organiser quoi que ce soit pour discuter ses idées. Ça ne marche pas, fin de l'histoire.
- 6
-
Il y a 2 heures, bon ciel a dit :Mais oui....
Ça tombe bien j étais justement entrain de lire un article sur qui de la poule ou de l œuf est arrivé en premier.
https://trustmyscience.com/trou-noir-role-formation-stellaire-galaxie-primitive/
"Publiée dans la revue The Astrophysical Journal Letters par une équipe de l’Université du Colorado à Boulder et de l’Université Johns Hopkins, l’étude présente des résultats indiquant que les trous noirs pourraient avoir existé bien avant ce que les théories actuelles suggèrent (sic), jouant un rôle crucial non seulement dans le « quenching » au sein des galaxies, mais aussi dans la stimulation de la formation stellaire dans les galaxies primitives. Le « quenching » est le processus par lequel la formation de nouvelles étoiles dans une galaxie est ralentie ou complètement arrêtée. Ces découvertes vont jusqu’à secouer les paradigmes établis sur la séquence des événements cosmiques majeurs suivant le Big Bang."
Heureusement que le jwst est la pour prouver que les prédictions annoncées ne sont pas celles que l on voit
Je ne suis pas certain que le ton de votre message invite à ce que je vous livre une explication un peu détaillée de l'article, mais je vais quand même le faire. Pas sûr qu'il y aura une prochaine fois cependant.
Le contexte : il existe des trous noirs supermassifs de grande masse très tôt dans l'histoire de l'Univers. Se pose naturellement la question de leur origine, leur masse initiale et leur taux de croissance.
Des éléments relativement consensuels :
- Un trou noir ne peut doubler sa masse qu'en 40 millions d'années minimum. Il multiplie sa masse par 1000 (= 2 puissance 10) en 10 fois 40 millions d'années minimum, soit 400 Ma
- Quand un trou noir engloutit de la masse, celle-ci s'échauffe et génère une pression qui ralentit le flot de masse. C'est cela qui est à l'origine de la limite à 40 Ma dans le taux de croissance des trous noirs
- Conséquence de cela, la matière autour d'un trou noir ne peut émettre du rayonnement au-delà d'un certain taux, appelé luminosité d'Eddington. Celle-ci est proportionnelle à la masse, raison pour laquelle la croissance est exponentielle, cf. ci-dessus
- Résultat des courses, plus le disque d'accrétion est brillant, plus le trou noir est massif. Un trou noir de petite masse ne peut être doté d'un disque anormalement brillant : il serait en train de faire une indigestion.
- Il existe des trous noirs vraiment très massifs très tôt dans l'histoire de l'Univers., genre un milliard de masses solaires minimum (déduit de la luminosité du disque) à 800 Ma après le Big Bang (pas sûr des chiffres, mais vous voyez l'idée). Même si le trou noir s'est formé immédiatement après le Big Bang (a priori impossible), il doit faire au départ 1000 masses solaires (devenues un millions après 400 Ma et un milliard à nouveau après 400 autres Ma).
Si on veut résoudre ce problème de gros trous noirs précoces, on a deux possibilités : (i) on crée au départ et si possible le plus tôt possible un trou noir vraiment très massif, ou alors (ii) le mode de croissance des trous noirs est plus rapide que ce qu'on estime.
Le second cas est peut-être le plus simple : le flot de matière est purement radial (zéro rotation), donc pas de disque et croissance très rapide. Problème, c'est difficile d'enlever tout mouvement de rotation, mais pas d'impossibilité de principe. Autre possibilité : un régime dit "super-Eddington" ou, au moins temporairement la limite est levée pour diverses raisons un peu subtiles. Dans ce cas, si le temps de doublement de la masse est 20 Ma et non 40 Ma, il y a absolument zéro problème, et ce d'autant plus que en régime super-Eddington, on biaise vers le haut l'estimation de la masse du trou noir, donc un a un machin moins massif que ce que l'on croit et qui croît (désolé du jeu de mot) bien plus rapidement. Cela règle trivialement le problème.
OU ALORS, on suppose qu'un processus mal connu permet de créer un gros trou noir très vite (10^4 voire 10^6 masses solaires). Là aussi, zéro problème parce que la graine initiale est fort massive. Quels processus seraient envisageables ? Un amas dense d'étoiles de population III (> 100 masses solaires chacune) qui en un ou deux millions d'années s'effondrent en trous noirs sans expulser beaucoup de masse et qui fusionnent très vite. Ou alors effondrement direct d'un gros nuage de gaz en trou noir via une "quasi-étoile" (c'est le terme) qui, en l'absence d'éléments chimiques lourds a une opacité qui pourrait (marginalement) rendre possible le processus. On n'a jamais vu pareil machin (et zéro chance de le voir dans l'Univers local), donc difficile de savoir à quel point c'est plausible. Idem pour les étoiles de population II, cela dit. Dernière possibilité, façon deux ex machina, des trous noirs primordiaux de masses un peu arbitraires (enfin non, pas arbitraires, mais pas le temps de développer) sont là dès le début. C'est assez moche comme hypothèse mais difficile à exclure avec certitude.
Cela étant dit, si vous lisez la littérature, cela fait 10 ans facile que Begelmann est un grand fan de l'option (i) et Joe Silk le champion de l'option (ii). C'est un autre élément de contexte, peut-être le plus important, qui vous aurait aidé à mieux appréhender la situation. Les deux ont discuté le bout de gras, et si j'en juge au résumé de l'article, c'est plutôt le fan de l'option (ii) qui a rallié l'option (i) que le contraire. Voilà, c'est tout. C'est juste la science qui avance, avec des gens posés, savants et instruits qui échangent sur les forces et faiblesses de leur hypothèses respectives. Avec des données observationnelles nouvelles, il est assez logique que l'on réexamine les mérites de chaque scénario.
Et bien sûr plus un trou noir massif se forme tôt, plus il est susceptible d'affecter l'évolution future de sa galaxie hôte et d'y réguler le taux de formation d'étoiles. Dans l'Univers actuel, il y a une corrélation mal comprise mais empiriquement indiscutable entre masse du trou noir supermassif d'une galaxie et masse de sa région centrale. Donc oui, il y a co-évolution et mécanismes de régulation et non d'emballement. Cela n'a rien d'extraordinaire, c'est juste une question de bon sens. Si vous imaginez qu'un article pareil va provoquer un changement de paradigme, vous êtes un peu dans l'erreur, je pense.
- 6
- 12
-
Il y a 5 heures, bon ciel a dit :en attendant le JWST observe des phénomènes qui ne devaient pas exister à cette période de l'univers .
... mais l'Univers de JPP ne peut pas exister non plus à cette époque, donc il ne nous sera d'aucune aide !
- 2
-
Il y a 14 heures, Romlag a dit :Et s'il est bien un seul domaine où TOUTE théorie a sa légitimité, même la plus farfelue, c'est bien celui-là.
Je ne crois pas que ce soit ainsi que fonctionne la science. Des hypothèses à propos du problème de la matière noire, il y en a plein, qui sont confrontées aux observations. Certaines s'en sortent, d'autres pas. Quand on dit que ne connaît pas la réponse à une question, cela ne signifie pas que toute les réponses sont possibles : certaines ont été exclues depuis longtemps. Dire qu'on ne sait pas la nature de quelque chose n'est pas incompatible avec le fait qu'on sait déjà ce qu'elle n'est pas...
Pour revenir avec le cas de votre idole, transposez vos propos avec tel ou tel épisode douloureux de l'Histoire. Doit-on organiser un débat entre un négationniste et des historiens ? Croyez-vous que le négationniste, confronté à l'inanité de son propos, se mettra d'un coup de baguette magique à cesser de nier l'évidence ? Ne croyez-vous pas, au contraire, que le débat (dont il se fichera de s'être fait ratatiner) sera au contraire perçu par des gens naïfs comme une preuve qu'il a peut-être raison, via le raisonnement fallacieux du "Si on fait un débat, c'est qu'il y a matière à débat". Autre exemple, trivial. Supposez que vous me disiez que 2 et 2 font 5. Croyez-vous qu'organiser un débat à l'académie des sciences va changer quelque chose au fait que l'affirmation que 2 et 2 font 5 est trivialement fausse ?
Le fait est que cela fait 30 ans que votre champion annonce qu'il fait des choses extraordinaires. Soyez assuré qu'il est connu comme le loup blanc dans le milieu astrophysique français. Si personne ne reprend ses travaux, c'est qu'il y a de nombreux problèmes qui ont été identifiés, depuis de très nombreuses années, et par de très nombreuses personnes. Je n'ai, à titre personnel, pas besoin de le voir devant un tableau pour discuter le bout de gras. La lecture de ses articles, livres, papiers de blog, me renseignent bien assez sur le fait que, en substance, il dit que 2 et 2 font 5 (ou, disons, une erreur un peu plus subtile mais de niveau M1, pas plus). Lui dire de vive voix que 2 et 2 ne font pas 5 ne changera rien, je pense, à sa conviction que, pour lui, 2 et 2 font 5. Vous connaissez le proverbe "Il n'y a pire sourd que qui ne veut entendre"...
Une dernière analogie, peut-être plus parlante. Imaginez un homme (jeune ou vieux, beau ou moche, attentionné ou violent, peu importe), qui aborde une femme dans la rue. Celle-ci l'envoie paître. Croyez-vous que l'homme éconduit a une quelconque légitimité à exiger que la femme accepte une invitation au restaurant afin qu'il lui "prouve" qu'il est l'homme de sa vie, voire, si on essaie d'être au plus près de la situation présente, qu'il accepte de ne plus revoir la femme uniquement après que celle-ci l'ait convaincu qu'il est pas son genre ? Ne pensez-vous pas que, au contraire, s'engager dans cette voie ne fera que renforcer la conviction de l'homme que sa perception des choses est pertinente alors qu'elle est en réalité complètement erronée ?
Pour revenir au cas qui nous intéresse, dans ce papier, au risque de me répéter, l'auteur explore des conséquences observationnelles de son modèle. Sans discuter du blabla des premières pages, nous serons d'accord vous et moi qu'il écrit la loi d'expansion dans son modèle (équation (2)), équation dans laquelle il n'y a pas de Big Bang car la quantité a ne passe jamais par 0 (ce a représente l'évolution de la distance entre deux objets ; quand elle double, c'est que l'expansion a doublé la distance séparant les objets quelle que soit la valeur initiale de celle-ci). Je pense que vous (et lui, espérons-le) savez qu'un cosinus hyperbolique n'est jamais nul (c'était niveau première ou terminale à son époque). Si on se fie à ce résultat, quelle est donc la valeur minimale du a en question, et donc la valeur maximale du redshift dont un objet peut être doté ? C'est assez simple, et déterminé par le paramètre q_0 du papier, quantité qui est négative. Si on se fie à l'équation (5), il est clair que le terme dans une racine carrée ne peut être nul (niveau troisième ou seconde, je suis certain que vous serez d'accord), aussi un terme du type sqrt(1 + 2 q_0 z) n'est défini que si 1 + 2 q_0 z est positif ou, au pire, nul. Et comme q_0 est négatif (le papier évoque plusieurs fois la valeur -0,087), z ne peut excéder la valeur de - 1 / 2 q_0 (je suis certain que vous et moi serons d'accord), soit, en faisant l'application numérique (vous en êtes capable), 5,75. Si vous aimez l'astronomie (je suis certain qu'il ne saurait en être autrement), vous devriez savoir que des objets d'un redshift supérieur à 5,75 sont connus depuis... pas mal d'années désormais. Donc, dans l'hypothèse où vous seriez en contact avec votre champion, n'hésitez pas - sauf si la réponse vous effraie - à lui demander pourquoi diable son modèle nous affirme que rien n'est observable à plus grand redshift que 5,75 alors que TOUT LE MONDE sait qu'il ne peut en être ainsi. C'est je crois une question/remarques des plus simples, exemple parmi une quasi infinité d'autres qu'il ne comprend pas vraiment de quoi il parle.
- 10
- 3
-
Il y a 2 heures, Romlag a dit :En réaction à votre intervention ci-dessus, je me permets de retranscrire la réponse de la personne concernée, afin de recontextualiser le sujet évoqué.
Je précise avant tout que je n'ai personnellement pas vos compétences pour poursuivre la discussion sur le sujet, et je ne pense pas que Jean-Pierre Petit aura le temps de venir papoter sur un forum (il aspire surtout à pouvoir débattre entre spécialistes en séminaires), mais je tenais malgré tout à apporter ces précisions :
Je vais essayer de traduire le plus simplement possible le propos de ce monsieur, façon thread Twitter, histoire de ne pas être trop verbeux.
Il dit qu'il n'y a pas de matière noire mais un autre truc (son Janus). Donc il remplace un truc qu'il n'aime pas par un autre truc qu'il aime bien. Fondamentalement, cela ne simplifie rien.
Ensuite, avec son truc à lui, il déduit que la loi d'expansion est en contradiction totale avec tout ce qu'on peut observer (la nucléosynthèse notamment).
Donc il est coincé, SAUF à invoquer que en fait, il "suffit" de changer les lois de la physique pour que son modèle marche. Facile, non ?
Il dit même qu'il "prédit" que les lois physiques (ou les constantes fondamentales) ont varié au cours du temps.
Il ne prédit rien du tout ! Il est juste en train d'inventer un nouveau truc qu'il est obligé de rajouter à son modèle pour qu'il ne soit pas trivialement exclu.
Et à ce jeu, il augmente considérablement le nombre de paramètres libre : pour chaque constante, il faut une variation ad hoc pour sauver son scénario.
Maintenant, tout ceci n'est pas vraiment très grave : au lieu d'un modèle à x paramètres, il propose un modèle à y paramètres, où y > x. D'après le principe du rasoir d'Ockham, ça pourrait n'être qu'inutile, mais pas "grave" en soi.
Ce qui est grave c'est que de A à Z son truc ne tient pas la route, non pas pour une raison pour des dizaines de raisons. Il n'y a rigoureusement rien qui va. Rien du tout.
Par exemple, il dit qu'il y a un problème avec la modèle de trou noir parce que quand on regarde un effondrement d'un fluide "incompressible" (en fait de densité uniforme), la pression diverge quelque part.
C'est vrai, mais... un fluide incompressible ça ne peut pas exister car incompressibilité implique propagation instantanée du son, en contradiction flagrante avec la relativité restreinte (rien ne va plus vite que la lumière).
Trouver une incohérence résultant d'une hypothèse de facto incohérente n'apporte rien de nouveau, juste que l'incohérence de départ est délétère pour le problème considéré.
Je vous passe les détails technique sur son Janus, avec deux métriques différentes qu'on relie l'une à l'autre point par point sans préciser comment (sa méthode dépend d'un choix arbitraire du système de coordonnées).
Je vous passe ses délires que l'article de 1916 de Schwarzschild que "personne" n'aurait lu. Genre les germanophones ne l'auraient jamais fait. Pas plus que les historiens de la relativité. Vous y croyez ?
Si JPP trouve qu'il y a un loup, c'est juste qu'il ne comprend pas le contexte, et le fait que certains points de la RG n'étaient pas bien compris début 1916. On s'en doutait un peu, non ?
Je vous passe les incohérences sur ce que veut dire une variation des constantes fondamentales (déjà évoquées sur ce forum).
Je vous passe son incapacité à faire des calculs sur le fond diffus cosmologique.
Je vous passe ses références à des articles passés qui sont en contradiction avec ses articles d'aujourd'hui (celui de astro & space science de 1995 fait référence à une courbure positive).
Je vous passe ses "simulations numériques" faites dans un univers à courbure nulle alors que son modèle est de courbure négative.
Je vous passe ses erreurs niveau M1 sur les ondes gravitationnelles.
Je mentionne simplement que dans son modèle, la densité moyenne de matière est quasi nulle, donc on est dans un univers vide en expansion, qui a nécessairement une courbure négative.
Les conséquences de ce truc se voient comme le nez au milieu de la figure à grand redshift : avec son modèle il devrait être impossible de voir la moindre galaxie à grand redshift car la géométrie de l'univers la rendrait trop faible pour être observable.
Or on observe des trucs à grand z, ergo, son modèle est out. (Lui ne teste son truc qu'avec des supernovae, qui vont moins loin en redshift, donc forcément, il ne voit pas le problème.)
Donc le JPP qui veut un séminaire, je lui proposerais plutôt de s'inscrire en master 2 de physique théorique et de voir s'il dépasse les 2/20 à un partiel de relativité générale. Si vous voulez mon avis, il ne se prêtera jamais à l'exercice.
Mais si par extraordinaire il est partant, je peux vous envoyer un exemple de partiel que vous vous chargerez, si le cœur vous en dit, de lui transmettre.
- 4
- 4
- 3
-
il y a 49 minutes, jackbauer 2 a dit :!!!????
Incompréhensible les orbites des lunes "externes
L’explication est , je crois, dans la légende : rétrogradation.
- 1
-
J'ajoute aussi deux petites choses :
- La notion de diamètre angulaire de Bételgeuse n'est pas franchement bien définie : le diamètre dépend de la longueur d'onde d'observation. En radio, Bételgeuse a un disque plus gros qu'en visible. Ce n'est donc pas une cible idéale pour l'astrométrie.
- Bételgeuse s'approche du plan galactique, ce qui est assez curieux car les zones de formation d'étoile sont majoritairement situées dans le plus galactique... la nébuleuse d'Orion étant une exception notable. En fait, comme c'est une étoile massive, Bételgeuse est très jeune et donc devrait avoir un mouvement qui s'éloigne de la zone de formation d'étoiles dont elle est issue... mais ce n'est pas le cas (à supposer, à nouveau, que le mouvement propre soit bien reconstitué, ce qui n'est pas certain pour la même raison que la parallaxe). C'est dommage car en identifiant la zone de formation d'étoile on pourrait reconstituer son déplacement 3D dans la galaxie et en déduire sa distance. Mais ni la nébuleuse d'Orion (bien trop loin en distance) ni les autres vestiges de zone de formation d'étoiles du coin ne font l'affaire. Donc impossible de déterminer l'âge ou la distance de l'étoile pas ce biais, pourtant utilisé avec succès pour certains pulsars.
- 2
-
il y a une heure, JPP 78 a dit :Des explications à propos de cette difficulté que je souligne, à dessein, ici ?...
Des explications partielles sont données dans l'article que vous citez :
- Bételgeuse est loin et donc la parallaxe est très faible
- Les données sont bruitées, probablement parce que Bételgeuse est une étoile dont la surface a un éclat spatialement variable. En mesurant le photocentre par astrométrie, on ne mesure pas la vraie position de l'étoile. Or la taille angulaire de l'étoile est, fait rare, supérieure d'un facteur 4 à sa parallaxe.
- 2
- 3
-
Le 23/11/2023 à 16:23, Bretoc a dit :l'illustration la plus claire sur la relativité générale
Ce n'est pas évident que c'est plus clair. La gravitation newtonienne, on peut la décrire via une unique quantité définie dans tout l'espace (le potentiel gravitationnel), dont découle le champ gravitationnel (vectoriel, à 3 composantes en chaque point). La RG, ce n'est pas un nombre par point, mais 6, donc de toute façon c'est très compliqué de représenter cela en toute généralité. Cependant, la limite newtonienne de la RG reste... newtonienne, donc toute analogie avec un unique nombre suffit. Ce n'est que pour des effets uniquement relativistes qu'il faut faire attention. Or dans l'exemple (le champ newtonien de la Terre), on n'est pas en pareille circonstance. Donc sortir, pour cette configuration simplifié, une grosse artillerie telle que celle qu'il utilise, cela laisse à mon avis peu d'espoir que cela soit gérable quand on met des effets relativistes où il faudra rajouter des trucs nouveaux.
Il est vrai qu'on peut décrire la limite newtonienne de la RG par une histoire de différences d'écoulement du temps, et en ce sens la vidéo insiste sur un point méconnu. Mais comprend-on mieux la relativité quand on sait cela sans faire de calculs ? Je ne suis pas sûr. En outre, ça n'est plus vrai pour la précession du périhélie de Mercure, explicitement liée à la courbure de l'espace (= le fait que le rapport entre le périmètre d'un cercle centré sur le Soleil et son rayon n'est pas exactement égal à 2 π, qui est un des six autres paramètres à définir en tout point). Idem pour les ondes gravitationnelles (2 des six autres paramètres) et des effets d'entraînement des référentiels (effet Lense-Thirring, 2 aussi).
Un autre élément me chagrine un peu. L'histoire du système de coordonnées qui "s'écoule" vers la Terre est trompeur, comme le reconnaît à raison l'auteur. L'espace autour de la Terre est statique, ce que l'écoulement ne traduit pas. Il aurait plus de pertinence à l'intérieur d'un trou noir ou pour l'expansion de l'Univers où une vision d'un univers statique (donc plutôt newtonien) ne marche pas. L'auteur est d'ailleurs sûrement conscient de cela vu comment il formule son propos.
Cela dit, c'est en multipliant les approches qu'on finit par mieux faire comprendre les choses, donc son approche a certainement ce mérite.
- 3
- 1
-
il y a 11 minutes, a s p 0 6 a dit :L'article évoque un gisement de 45 millions de tonnes d'hydrogène. Je vous laisse comparer cela à la production (= la consommation) journalière d'hydrocarbures. Je crains que l'économie d'hydrocarbures permise par ce gisement ne fasse pas plus que quelques semaines de notre consommation actuelle... et encore.
- 1
-
Il y a 2 heures, George Black a dit :Cf l'échec du SSC (Superconducting Super Collider) américain vs. le succès du LHC.
Ces deux accélérateurs ont en commun de cumuler un nombre d'intervenants énorme, mais nécessaire. Faire émerger de nouveaux concepts, théoriques ou technologiques, nécessite de croiser des compétences diverses.
Dans le cas du SSC, l'échec vient d'un fonctionnement trop démocratique et axé sur le consensus. Le SSC n'est allé nul part et n'a jamais vu le jour.
Êtes-vous certain ? L'échec du SSC, c'est d'abord et avant tout le fait que la taille des tubes à vide avait été sous-estimée, et que leur augmentation nécessaire de 20 à 25% a complètement fait exploser le budget puisque cela affectait toute la chaîne d'aimants. Que l'on ait retenu le budget de fausses plantes (élevé mais une goutte d'eau par rapport au budget final) est à mon avis non représentatif de ce qu'il s'est réellement passé.
- 1
-
Il y a 23 heures, Superfulgur a dit :Alors je viens de vérifier avec un calculateur cosmologique. La taille apparente des galaxies décroît, forcément, avec leur distance, ce qui est tout à la fois normal et intuitif.
C'est vrai jusqu'à z : 2.0, à peu près, soit un peu plus de 10 milliards d'années-lumière (sur 13.7).
Ensuite, et c'est là où je voulais en venir, la taille apparente des galaxies croît, ce qui est tout à fait contre intuitif, mais semble confirmer ce que j'essaie maladroitement d'exprimer depuis ce matin : qu'à très grande distance, le "volume d'Univers" visible par unité de surface apparente de ciel diminue.
Et donc forcément le nombre de galaxies.
Je ne pense pas. Supposons que les galaxies n'évoluent pas au cours du temps et que toute la matière soit contenue dans les galaxies. Pour simplifier disons qu'on a une galaxie par cube de un million d'années-lumière de côté. Remontons à un redshift de z = 1. La même galaxie est dans le même cube, mais le cube est deux fois plus petit. Donc on a une galaxie par cube de 500 000 al de côté. Mais il y a toujours une galaxie dedans. Comme la galaxie n'est pas diluée par l'expansion, elle a toujours la même taille dans le passé que aujourd'hui (100 000 al, disons), et sa plus proche voisine est dans le cube voisin, donc à 500 000 al en moyenne. Donc ce que fait l'expansion, c'est modifier le rapport entre la taille de la galaxie (inchangée) et la distance à ses voisines (qui augmente). Autrement dit, il y avait dans le passé moins de vide entre les galaxies, car c'est ce vide là qui grossit au cours du temps, pas les galaxies.
Que se passe-t-il d'un point de vue visuel ? Dire que la taille des galaxies ne change pas alors que leurs distances entre elles augmente, c'est, formellement comme si on prend comme unité de longueur la taille d'une galaxie et qu'on mesure la distance qui les sépare via cette unité : l'expansion nous dit que la distance augmente. Mais rien n'empêche de prendre comme unité de longueur la distance moyenne entre deux galaxies voisines. Ce n'est pas forcément malin, mais on a le droit. Dans cette approche, c'est la taille des galaxies qui diminue avec le temps. Autrement dit, on peut "décider" qu'il n'y a pas d'expansion mais que les galaxies diminuent en taille. En conséquence, "tout se passe comme si" les galaxies par le passé étaient plus grosses qu'elles ne sont actuellement, et donc, fatalement, que leur taille angulaire à une distance donnée est plus grande qu'attendu. Evidemment, c'est une interprétation très discutable : la physique nous dit que c'est plutôt l'univers qui grossit et non les objets eux-mêmes qui rapetissent. Mais on peut toujours, via un choix discutable d'étalon de longueur, présenter les choses ainsi. C'est physiquement inapproprié mais cela a, je crois, l'avantage de rendre l'histoire du diamètre angulaire qui grandit avec la distance moins mystérieux.
Bien sûr il faut ensuite quantifier tout cela. Avec cette interprétation, la taille angulaire d'une galaxie diminue à mesure qu'elle est plus loin mais augmente parce que dans le passé elle était plus grosse. Le fait que l'un ou l'autre de ces effets s'accentue le plus avec la distance dépend de la dynamique spécifique de l'expansion, et les calculs nous disent qu'à faible distance ça diminue et à grande distance ça augmente. Cela n'est pas forcément très intuitif même si on peut un peu s'en douter.
- 4
- 2
-
il y a 21 minutes, Kirth a dit :L'univers visible au un rayon de 13.7 milliards d'années, ce qui à la louche fait 10^31 années-lumière cubes.
Avec l'accélération de l'expansion les régions dont on reçoit la lumière émise il y a 13,8 Ga sont aujourd'hui situées à 45 Gal, soit dans les 3,2 fois plus loin. En matière de volume, cela fait donc 30 à 35 fois plus. Ajoutez à cela que les galaxies fusionnent au cours du temps (les données pré-Gaia en recensent au minimum 6, de mémoire, pour la Voie lactée), de sorte qu'il y avait plus de galaxies par le passé.
- 1
-
Il y a 2 heures, Kaptain a dit :pour les photons, le temps n'existe donc pas ?
Disons que ce n'est pas une coordonnée pertinente. Pour un photon, plutôt qu'utiliser une coordonnée de genre temps t que définirait un observateur immobile par rapport à un certain référentiel (héliocentrique, disons), et plutôt qu'utiliser la coordonnée de genre espace z le long de laquelle le photon se déplace, on utilisera des coordonnées de genre lumière, genre z - c t et z + c t. La première est nulle si le photon se déplace vers les z positifs (car alors z = c t). La seconde croît comme 2 c t et peut être utiliser pour paramétrer la trajectoire du photon. Il n'est pas complètement trivial d'avoir une intuition de ce que signifient ces coordonnées, mais elles ont l'avantage de pouvoir être utilisées dans toutes les situations.
Il y a 3 heures, Kaptain a dit :à la fin de la vidéo, il est dit que la lumière n'arrive pas à nous rattraper. Or, je croyais que quelle que soit la direction et la vitesse propre que nous avons, nous mesurerions toujours la même vitesse à la lumière…
La vidéo n'est pas claire donc difficile de savoir ce qu'il veut dire. Mais dans le cas (irréaliste) d'un mouvement éternellement uniformément accéléré, alors une source de lumière initialement derrière vous et envoyant pendant infiniment longtemps des photons à un rythme régulier n pourra vous transmettre qu'un nombre fini de photons à partir du moment où vous commencerez à accélérer. C'est assez facile à montrer sur un diagramme d'espace-temps et il est même curieux que l'auteur de la vidéo de l'ait pas fait.
- 2
- 1
-
Il y a 4 heures, Superfulgur a dit :Non, Jean-Charles Cuillandre, avec qui je discute de ces images (qu'il a produites) depuis quelques semaines (dur de pas en parler ici ! ) m'a donné 26.7 à 27 pour l'amas de Persée.
Je parlais de la région de calibration, qui vérification faite, n'est effectivement pas celle montrée hier. Elle sera (et a déjà été) observée plusieurs heures tous les mois.
- 3
-
Il y a 16 heures, Superfulgur a dit :Pour la petite histoire, l'image de l'amas de Persée approche la magnitude 27.
Il me semble qu'une région du ciel (pas forcément celle-là) sera très régulièrement observée au cours des 6 ans ou plus de la mission à des fins de calibration, genre plusieurs heures par mois. De ce que j'ai compris, cette région atteint déjà la magnitude 28, et ce sera donc beaucoup, beaucoup, plus à terme.
- 2
-
Elles sont déjà en ligne, avant même la conférence de presse.
- 3
- 3
-
Il y a 12 heures, astrocomets a dit :L'hommage de ce jour était à l'image du personnage dont la gentillesse, la simplicité, le sens de la famille et du partage des connaissances transparaissait de chaque prise de parole.
Hubert Reeves, en plus de son engagement pour le partage des connaissances et la protection de la planète, était aussi un mélomane devant l'éternel et les choix de l'Adagio du Quintette à cordes en ut majeur, D 956 de Schubert puis de l'Adagio du quintette pour clarinette K581 de Mozart ne pouvaient qu'accentuer la sérénité du moment.
En fin de cérémonie notre cher Hubert s'en est allé au son de la sarabande de la suite pour orchestre n°3 de Bach ... une œuvre magistrale que, désormais, comme les deux autres œuvres j'apprécierai autrement tant elles étaient exécutées avec brio.
Je suis tout à fait d'accord. Autant la volumineuse chorale a très bien chanté mais a, mécaniquement, empêché une partie du public de rentrer, autant le petit orchestre était aussi irréprochable que le choix des œuvres était bien pensé. Cela n'a rien de surprenant car c'étaient des gens qui avaient déjà travaillé avec Hubert Reeves (cf. http://ensemblecalliopee.com/mozart-et-les-etoiles-en-quatuor/). Les morceaux n'avaient pas ce côté larmoyant qu'on entend parfois en pareilles circonstances (genre l'adagio d'Albinoni).
- 3
- 2
-
Ambiance tranquille et apaisée cet après-midi au Père Lachaise. Pas mal de chercheurs, éditeurs, journalistes, au point que le crématorium et ses 200 places était trop petit pour les nombreux anonymes qui étaient également là. C'est dommage, mais difficile de faire autrement. Il y a eu pas mal de témoignages de sa famille, ses amis, ses collègues (Jean-Pierre Bibring, Michel Cassé), son éditeur historique (Jean-Marc Lévy-Leblond) et du co-fondateur du festival de Fleurance (Bruno Monflier). La pluie s'est invitée en début de cérémonie, mais à l'issue ce fut un grand soleil, ce qui était finalement une belle façon de faire un dernier salut au bonhomme.
Je n'ai pas réussi à savoir qui était la personne qui brandissait la pancarte (pendant plus de deux heures !), mais il était dans le ton de ce moment, recueilli et respectueux, mais pas triste pour autant.
- 10
- 2
- 2
la fin de la matière noire .....
dans Astronomie générale
Posté(e) · Modifié par dg2
C'est parce que vous confondez science et technique. La technique, c'est l'utilisation d'une science que l'on maîtrise (souvent depuis longtemps). La recherche, c'est la quête de la compréhension de ce qu'on ne sait pas encore. Et donc ici, on ne fabrique pas d'avion, mais on cherche à savoir ce qu'il manque dans l'Univers. Notez qu'on sait déjà qu'il nous manque quelque chose, on est absolument certain que ce n'est pas de la matière ordinaire et on a de bonnes raisons de penser qu'on connaît à peut près quelques propriétés du truc. C'est plutôt un joli résultat pour une entité notablement élusive.