bon ciel

la fin de la matière noire .....

Messages recommandés

Une autre étude similaire publiée plus récemment à partir des données de GAIA dit à peu près le contraire et invalide une partie des théories dérivées de MOND :

https://www.futura-sciences.com/sciences/actualites/astronomie-satellite-gaia-t-il-refute-theorie-mond-tant-qualternative-matiere-noire-106862/

Bref, attendons la publication d'autres études pour y voir plus clair. 

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Le James-Webb a observé une galaxie ancienne que n'explique pas la matière noire .

Les articles et les découvertes se multiplient concernant des galaxies anciennes que peut maintenant bien observer le James-Webb en succédant à Hubble et qui ne semblent pas vraiment compatibles avec les prédictions du modèle cosmologique standard, bien que le débat soit encore loin d'être clos. La dernière découverte en date porte sur une galaxie déjà quatre fois plus massive que la Voie lactée seulement un peu plus de 2 milliards d'années après le Big Bang.

https://www.futura-sciences.com/sciences/actualites/astronomie-james-webb-observe-galaxie-ancienne-nexplique-pas-matiere-noire-111517/

 

Une galaxie massive qui a formé ses étoiles à z∼11
Karl Glazebrook, Themiya Nanayakkara, Corentin Schreiber, Claudia Lagos, Lalitwadee Kawinwanichakij, Colin Jacobs, Harry Chittenden, Gabriel Brammer, Glenn G. Kacprzak, Ivo Labbe, Danilo Marchesini, Z. Cemile Marsan, Pascal A. Oesch, Casey Papovich, Rhea- Silvia Remus, Kim-Vy H. Tran, James Esdaile, Angel Chandro Gomez

La formation de galaxies par co-assemblage hiérarchique progressif de baryons et de halos froids de matière noire est un paradigme fondamental qui sous-tend l'astrophysique moderne et prédit un fort déclin du nombre de galaxies massives aux premiers temps cosmiques. Des galaxies au repos extrêmement massives (masse stellaire 1011 M⊙) ont été observées 1 à 2 milliards d'années après le Big Bang ; ceux-ci sont extrêmement contraignants pour les modèles théoriques car ils se forment 300 à 500 Myr plus tôt et seuls certains modèles peuvent former des galaxies massives aussi tôt. Nous rapportons ici les observations spectroscopiques avec le télescope spatial James Webb d'une galaxie massive et calme ZF-UDS-7329 à redshift 3,205 ± 0,005 qui a échappé à la spectroscopie profonde au sol, est nettement plus rouge que d'habitude et dont le spectre révèle des caractéristiques typiques d'une galaxie beaucoup plus ancienne. populations stellaires. Une modélisation détaillée montre la population stellaire formée environ 1,5 milliard d'années plus tôt (z ~ 11), à une époque où les halos de matière noire d'une masse d'hébergement suffisante ne se sont pas encore assemblés dans le scénario standard. Cette observation pourrait indiquer la présence de populations non détectées de galaxies primitives et la possibilité de lacunes importantes dans notre compréhension des premières populations stellaires, de la formation des galaxies et/ou de la nature de la matière noire.

https://arxiv.org/abs/2308.05606

  • J'aime 4
  • Merci 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Il y a quelque chose d'étrange avec la matière noire de notre propre Voie Lactée

 

Dans une étude récente, des chercheurs ont révélé que les étoiles aux confins de notre Voie Lactée se déplacent plus lentement que prévu, suggérant une nouvelle compréhension de la matière noire dans notre galaxie. Cette découverte remet en question les modèles actuels de la répartition de la matière noire et pourrait ouvrir la voie à de nouvelles théories sur la formation des galaxies.

 

https://www.techno-science.net/actualite/il-quelque-chose-etrange-avec-matiere-noire-notre-propre-voie-lactee-N24404.html

  • J'aime 2
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonsoir,


Une nouvelle mesure des distances cosmiques dans le cadre du Dark Energy Survey donne des indices sur la nature de l'énergie noire.


Je laisse les commentaires à ceux qui maîtrisent le sujet. 


Une définition pour les autres qui, comme moi, sont quelques peu largués :


BAO : https://irfu.cea.fr/Phocea/Vie_des_labos/Ast/ast_technique.php?id_ast=2677


Sur le site du FERMILAB :


https://news.fnal.gov/2024/02/new-measurement-of-cosmic-distances-in-the-dark-energy-survey-gives-clues-about-the-nature-of-dark-energy/


Traduction automatique :


Note de l'éditeur : Ce communiqué de presse de la collaboration Dark Energy Survey a été initialement publié par l' Institut de Física d'Altes Energies sur les  contraintes sur l'énergie noire fixées par la mesure des oscillations acoustiques baryoniques.
DES est une  collaboration internationale  comprenant plus de 400 astrophysiciens, astronomes et cosmologistes provenant de plus de 25 institutions dirigées par des membres du  Fermi National Accelerator Laboratory du ministère américain de l'Énergie . DES a cartographié une zone représentant près d'un huitième du ciel entier à l'aide de la  Dark Energy Camera , un appareil photo numérique de 570 mégapixels financé par le Bureau scientifique du DOE. Le résultat met en évidence la recherche rendue possible grâce aux capacités d’observation uniques de la caméra Dark Energy, qui a été construite et testée au Fermilab pour le Dark Energy Survey.


« Grâce au Dark Energy Survey, nous pouvons remonter le temps et mesurer la croissance de l'univers avec une précision sans précédent. Nous remontons plus loin dans le passé que d'autres études de galaxies », a déclaré Rich Kron, directeur et porte-parole du DES, qui a travaillé sur l'enquête en tant que scientifique du Fermilab et de l'Université de Chicago pendant plus de 10 ans. « Cette dernière mesure nous a permis d’exploiter des ondes sonores créées environ 400 000 ans après le Big Bang. Notre résultat a une précision impressionnante de deux pour cent et soutient le modèle standard de l’expansion accélérée de l’univers.


La mesure obtenue fixe l'échelle de l'univers lorsqu'il avait la moitié de son âge actuel avec une précision de 2 %, la plus précise jamais obtenue à cette époque. Les résultats ont été publiés hier.


Chercheurs du Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), de l'Institut de Ciències de l'Espai (ICE-CSIC,IEEC), de l'Institut de Física d'Altes Energies (IFAE) et de l'Instituto de Física Teórica (UAM -CSIC) ont dirigé l’analyse scientifique des données.


Nous disposons désormais d’un modèle standard de cosmologie, la version actuelle de la théorie du Big Bang. Même si cette initiative s’est avérée très efficace, ses conséquences sont stupéfiantes. Nous ne connaissons que 5 % du contenu de l’univers, qui est de la matière normale. Les 95 % restants sont constitués de deux entités exotiques qui n’ont jamais été produites en laboratoire et dont la nature physique est encore inconnue. Il s’agit de la matière noire, qui représente 25 % du contenu du cosmos, et de l’énergie noire, qui en contribue à 70 %. Dans le modèle standard de la cosmologie, l’énergie sombre est l’énergie de l’espace vide et sa densité reste constante tout au long de l’évolution de l’univers.


decam-12-0328-23D.hr_-1536x986.jpg


L'Observatoire interaméricain de Cerro Tololo (CTIO) dans les Andes chiliennes. Crédit image : DOE/FNAL/DECam/R. Hahn/CTIO/NOIRLab/NSF/AURA


Selon cette théorie, les ondes sonores se sont propagées dès le tout début de l’univers. À ces premiers stades, l’univers avait une température et une densité énormes. La pression dans ce gaz initial tentait de séparer les particules qui le formaient, tandis que la gravité tentait de les rapprocher, et la compétition entre les deux forces créait des ondes sonores qui se propageaient depuis le début de l'univers jusqu'à environ 400 000 ans après le Big Bang. . À ce moment-là, le rayonnement et la matière ont cessé d’interagir et les ondes se sont figées, laissant une empreinte sur la répartition spatiale de la matière. Cette empreinte s'observe comme une petite accumulation préférentielle de galaxies séparées par une distance caractéristique, appelée échelle d' oscillation acoustique baryonique (BAO) par les cosmologistes, et correspond à la distance parcourue par les ondes sonores au cours de ces 400 000 années.


Une nouvelle mesure de la distance cosmique


Le Dark Energy Survey (DES) vient de mesurer l'échelle BAO alors que l'univers avait la moitié de son âge actuel avec une précision de 2 %, la détermination la plus précise à ce jour à une époque aussi précoce, et c'est la première fois qu'une mesure basée uniquement sur l'imagerie est compétitive. avec de grandes campagnes de spectroscopie spécifiquement conçues pour détecter ce signal.


Picture1-267x300.png


Signal provenant des oscillations acoustiques baryoniques (BAO) dans les données du Dark Energy Survey (DES). En traçant le nombre de paires de galaxies en fonction de leur séparation angulaire dans le ciel, on retrouve un excès de paires à 2,90 degrés. Cela est dû aux ondes BAO qui ont parcouru des centaines de millions d’années-lumière depuis le Big Bang. Ces ondes ont une taille dans le ciel légèrement plus grande que celle prédite par le modèle standard de cosmologie et les données de Planck. Crédit image : Dark Energy Survey Collaboration.


La distance parcourue par l'onde sonore dans l'univers primitif dépend de processus physiques bien connus, elle peut donc être déterminée avec une grande précision, établissant ainsi une référence pour l'univers. C'est ce que les cosmologistes appellent une règle standard. Dans ce cas, sa longueur est d’environ 500 millions d’années-lumière. En observant l'angle que sous-tend cette règle standard dans le ciel à différentes distances (ou, en d'autres termes, à différentes époques de l'univers), on peut déterminer l'histoire de l'expansion cosmique et, avec elle, les propriétés physiques de l'énergie noire. . Elle peut notamment être déterminée en analysant le fond diffus cosmologique, le rayonnement libéré lors de la formation des atomes, 400 000 ans après le Big Bang qui nous donne un instantané du tout premier univers, tel que publié par la collaboration Planck en 2018. Il peut également être déterminé dans l'univers tardif en étudiant l'échelle BAO dans les cartographies galactiques comme l'a fait DES. L'analyse de la cohérence des deux déterminations est l'un des tests les plus exigeants du modèle standard de cosmologie.


«C'est une fierté de voir comment, après presque vingt ans d'efforts continus, DES produit des résultats scientifiques de la plus haute importance en cosmologie», déclare Eusebio Sánchez, chef du groupe de cosmologie du CIEMAT. «C'est une excellente récompense pour les efforts investis dans le projet.»


"Ce que nous avons observé, c'est que les galaxies ont plus tendance à être séparées les unes des autres par un angle de 2,90 degrés sur le ciel par rapport à d'autres distances", commente Santiago Ávila, chercheur postdoctoral à l'IFAE et l'un des coordinateurs de l'analyse. « C'est le signal ! La vague est clairement visible dans les données », ajoute-t-il en faisant référence au premier chiffre. « C'est une préférence subtile, mais statistiquement pertinente », dit-il, « et nous pouvons déterminer la configuration des vagues avec une précision de 2 %. Pour référence, la pleine lune occupe un demi-degré de diamètre dans le ciel. Donc si nous pouvions voir les galaxies à l’œil nu, la distance BAO ressemblerait à 6 pleines lunes.


16 millions de galaxies pour mesurer l'univers il y a 7 milliards d'années


Pour mesurer l'échelle BAO, DES a utilisé 16 millions de galaxies, réparties sur un huitième du ciel, spécialement sélectionnées pour déterminer leur distance avec suffisamment de précision.


"Il est important de sélectionner un échantillon de galaxies qui nous permette de mesurer l'échelle BAO aussi précisément que possible", explique Juan Mena, qui a fait son doctorat. au CIEMAT sur cette étude et est maintenant chercheur postdoctoral au Laboratoire de Physique Subatomique et Cosmologie de Grenoble (France). "Notre échantillon est optimisé pour avoir un bon compromis entre un plus grand nombre de galaxies et la certitude avec laquelle nous pouvons déterminer leur distance."


Picture2-300x217.png


En or, on voit la mesure de l'échelle Dark Energy Survey BAO, qui s'écarte du modèle standard (ligne horizontale à 1 sur ce tracé) de 4%, alors que les incertitudes associées à l'analyse sont de 2% (indiquées par la barre verticale dorée). . Cet écart pourrait être un indice sur l’énergie noire ou une simple fluctuation statistique, avec une probabilité de 5 %. Cette mesure a été réalisée en observant des galaxies qui émettaient leur lumière alors que l'Univers, âgé de 14 milliards d'années, avait environ la moitié de son âge actuel. En bleu sont représentées les mesures du Baryonic Oscillations Spectroscopique Survey (BOSS) et de son extension (eBOSS). Le DES nous donne la mesure la plus précise de l’époque où l’Univers avait environ 7 milliards d’années. Crédit image : Dark Energy Survey Collaboration.


Les distances cosmologiques sont si grandes que la lumière met des milliards d’années pour nous parvenir, nous permettant ainsi d’observer le passé cosmique. L’échantillon de galaxies utilisé dans cette étude ouvre une fenêtre sur l’univers d’il y a sept milliards d’années, soit un peu moins de la moitié de son âge actuel.


"L'une des tâches les plus compliquées du processus consiste à nettoyer l'échantillon de galaxie des contaminants d'observation : distinguer les galaxies des étoiles ou atténuer les effets de l'atmosphère sur les images", explique Martín Rodríguez Monroy, chercheur postdoctoral à l'IFT de Madrid. 


Des indices sur la mystérieuse énergie noire


Une découverte intéressante de cette étude est que la taille que ces ondes occupent dans le ciel est 4 % plus grande que celle prévue à partir des mesures effectuées par le satellite Planck de l'ESA dans l'univers primitif en utilisant le rayonnement de fond cosmique des micro-ondes. Compte tenu de l’échantillon de galaxies et des incertitudes de l’analyse, cet écart a 5 % de chances d’être une simple fluctuation statistique. Si ce n’était pas le cas, nous pourrions être confrontés à l’un des premiers indices indiquant que la théorie actuelle de la cosmologie n’est pas tout à fait complète et que la nature physique des composants sombres est encore plus exotique qu’on ne le pensait auparavant. « Par exemple, l’énergie sombre n’est peut-être pas l’énergie du vide. Sa densité peut changer avec l'expansion de l'univers, voire même l'espace peut être légèrement courbé », explique Anna Porredon, chercheuse espagnole à l'université de la Ruhr à Bochum (RUB) en Allemagne. Ce chercheur, membre du programme Actions Marie Skłodowska-Curie de l'Union européenne, a été l'un des coordinateurs de cette analyse.


L'échelle BAO a été mesurée par d'autres projets cosmologiques avant DES à différents âges de l'univers, principalement le Baryonic Oscillation Spectroscopique Survey (BOSS) et son extension (eBOSS), qui ont été conçus à cet effet (voir deuxième figure). Cependant, la mesure DES est la plus précise à un âge aussi précoce de l’univers, avec la moitié de l’incertitude de l’eBOSS à cette époque. L'augmentation significative de la précision a permis de révéler l'éventuelle divergence de l'échelle BAO par rapport au modèle standard de la cosmologie.


"Pour suivre cette voie, la prochaine étape cruciale consiste à combiner ces informations avec d'autres techniques explorées par le DES pour comprendre la nature de l'énergie noire", commente Hugo Camacho, chercheur postdoctoral au Brookhaven National Laboratory (États-Unis), anciennement à l'Institut de Physique théorique à l'Université d'État de São Paulo au Brésil (IFT-UNESP) et membre du Laboratorio Interinstitucional de e-Astronomia (LIneA), et ajoute : « De plus, le DES ouvre également la voie à une nouvelle ère de découvertes en cosmologie, qui sera suivi de futures expériences avec des mesures encore plus précises.


L'enquête sur l'énergie noire


Comme son nom l'indique, DES est un grand projet cosmologique spécialement conçu pour étudier les propriétés de l'énergie noire. Il s'agit d'une collaboration internationale de plus de 400 scientifiques de sept pays dont le siège se trouve au Fermi National Accelerator Laboratory du ministère américain de l'Énergie, près de Chicago. Le projet est conçu pour utiliser quatre méthodes mutuellement complémentaires : les distances cosmologiques avec les supernovae, le nombre d'amas de galaxies, la répartition spatiale des galaxies et le faible effet de lentille gravitationnelle (plus de détails sur https://www.darkenergysurvey.org/the- des-project/science/ ).


De plus, ces méthodes peuvent être combinées pour obtenir une puissance statistique plus élevée et un meilleur contrôle des observations, qui devraient être cohérentes. La combinaison de l’effet de lentille gravitationnelle avec la répartition spatiale des galaxies est particulièrement pertinente. Ces analyses testent le modèle cosmologique de manière très exigeante. Les résultats utilisant la moitié des données DES ont déjà été publiés avec un grand succès, et les mesures finales, utilisant l'ensemble complet de données de plus de 150 millions de galaxies, devraient être publiées plus tard cette année. "DES nous permet de comprendre pour la première fois si l'expansion accélérée de l'Univers, qui a commencé il y a 6 milliards d'années, est cohérente avec notre modèle actuel sur l'origine de l'Univers", commente Martin Crocce, qui coordonne cette dernière analyse de la GLACE.


Picture4-199x300.jpg


Plan focal de DECam (Dark Energy Camera). Il contient 62 capteurs CCD ultra-sensibles spécialement conçus pour le projet DES, et permet d'imager l'univers avec une profondeur sans précédent. Crédit image : DOE/FNAL/DECam/R. Hahn/CTIO/NOIRLab/NSF/AURA


Pour utiliser toutes ces techniques, le DES a construit la caméra à énergie noire de 570 mégapixels (DECam), l'une des caméras les plus grandes et les plus sensibles au monde. Il est installé sur le télescope Víctor M. Blanco, doté d'un miroir de 4 m de diamètre, à l'Observatoire interaméricain de Cerro Tololo au Chili, exploité par le NOIRLab de la NSF américaine. DES a cartographié un huitième de la voûte céleste à une profondeur sans précédent. Il a fallu des images en 4 couleurs entre 2013 et 2019 et est actuellement en phase finale d’analyse scientifique de ces images. Les institutions espagnoles font partie du projet depuis sa création en 2005 et, en plus d'avoir collaboré de manière importante à la conception, à la fabrication, aux tests et à l'installation de DECam et à l'acquisition de données, elles ont jusqu'à présent d'importantes responsabilités dans la gestion scientifique du DES.


Plus d'informations sont disponibles sur www.darkenergysurvey.org/collaboration.


Merci à Yves95210 qui avait posté le lien dans le forum Astrophysique de Futura. Après lecture, Laurent Sacco indique qu'à 2,1σ, tout cela semble assez fragile... 
 

  • J'aime 1
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 08/03/2023 à 12:32, dg2 a dit :

Ce n'est pas une question d'être d'accord ou pas d'accord, c'est juste une question de savoir si le gars comprend un tantinet ce qu'il dit ou si c'est au-delà du n'importe quoi...

 

Petit exemple, je prends son papier Constraints on Janus Cosmological model from recent observations of supernovae type Ia, sur lequel il se penche sur l'accord éventuel entre son modèle et les supernovae. Ce n'est pas en soi une mauvaise idée... si ce n'est que cela fait facile 25 ans qu'on l'a fait (et bien fait). Qu'apprend-on dans le papier ? Qu'il y a dans son modèle plus de matière de masse négative que de matière de masse positive. Combien ? On le sait via le paramètre q0 qu'il essaie d'évaluer (spoiler : il se plante en le faisant, mais peu importe). Le q0 en question vaut, nous dit-il, -0,087 plus ou moins un truc sans importance. On en déduit immédiatement que le paramètre de densité du truc vaut 2 q0, soit -0,174 (ce n'est pas dit dans le papier, mais c'est la définition standard). Il est bien négatif, donc il y a plus de masse négative que de masse positive. C'est grâce à cela que l'expansion est accélérée, je présume. Fort bien. Là où on a quand même un gros problème, c'est que quand la densité totale est négative, eh bien, on n'a jamais de singularité initiale : avec ici une seule force répulsive, on passe d'un univers en contraction à un univers en expansion. Ce n'est pas dit explicitement dans le papier, mais c'est implicitement dans l'équation (13), dans laquelle le facteur d'échelle (= le machin qui décrit l'expansion) ne passe jamais pas 0. On peut même déterminer quelle est la valeur minimale dudit facteur d'échelle et par suite du décalage vers le rouge : on trouve (calcul trivial)...

zmax = - 1 / 2 q0, soit, en prenant la valeur centrale trouvée, un truc  du genre 5,75. Résultat des courses... on ne peut pas observer le moindre objet à un redshift supérieur à 5,75.

 

Or il n'a échappé aux amoureux de la cosmologie qui fréquentent ce forum que cela fait belle lurette qu'on observe des objets d'un décalage vers le rouge supérieur. Donc le modèle ne marche pas, et pour une raison assez triviale que n'importe quel étudiant de master 2 saura vérifier.

 

Ce n'est qu'un exemple parmi une foultitude d'autres : le modèle est totalement incohérent et il n'y a pas besoin d'être un grand expert pour s'en rendre compte : niveau master certes, mais pas plus. Donc si le gars dit que son modèle marche, il est soit malhonnête, soit aveugle, soit complètement à l'ouest. Je vous laisser déterminer laquelle de cette hypothèse vous paraît la plus plausible, mais en tout état de cause, ne pariez pas un kopeck sur la reconnaissance posthume de son insondable génie.

 

Si quelqu'un veut une analyse plus détaillée du truc je veux bien le faire, mais si vous êtes fan de JPP, sachez que cela risque d'être une vérité assez désagréable. Il n'y a aucune arrogance dans la phrase qui précède, juste une constatation que je trouve presque embarrassante à faire tant le hiatus entre ce que JPP dit/croit être et ce qu'il est vraiment est démesuré.

 

Bonjour dg2, 

 

En réaction à votre intervention ci-dessus, je me permets de retranscrire la réponse de la personne concernée, afin de recontextualiser le sujet évoqué.

Je précise avant tout que je n'ai personnellement pas vos compétences pour poursuivre la discussion sur le sujet, et je ne pense pas que Jean-Pierre Petit aura le temps de venir papoter sur un forum (il aspire surtout à pouvoir débattre entre spécialistes en séminaires), mais je tenais malgré tout à apporter ces précisions :

 

"Il manque une pièce à ce puzzle, qui est à construire.
La solution des papiers de 2014-2018 n'a pour but que de se confronter aux éléments observables. En terme de redshifts et de magnitudes.
Dans ce cadre la masse négative domine, à 95 % certes
Mais cela ne veut pas dire que le monde serait dissymétrique dès l'origine.
Nous envisageons le scénario comme suit :
Antérieurement à cette phase matière, la seule qui donne des données exploitables, se situe une phase "à constantes variables". Sa dynamique est dès lors différente.
En fait, ce que nous conjecturons c'est "qu'à l'instant zéro" les deux entités seraient totalement symétriques, sur tous les points. Mêmes facteurs de jauge, égaux, tendant vers zéro, même jeux de "constantes variables".
Dans cette phase la dissymétrie se créerait spontanément, du fait de l'instabilité du système. Même divergence (exponentielle) des deux "jeux de constates variables". Puis cette phase cesse et les deux entités se retrouvent avec les jeux de constantes que l'on a aujourd'hui.
Cette phase de divergence exponentielle est à modéliser. Et a publier, bien sûr. Nos travaux sont assez avancés dans ce domaine.
Au stade où nous en sommes je dirais : ce qui est possible, nous le faisons de suite. Pour le reste, nous demandons un délai.
Ces détracteurs extrapolent le modèle vers ses origines,  ce que nous ne faisons pas. Il leur manque cette description de cette phase à constantes variables, exponentiellement instable. Elle fait partie du modèle et permet, au passage, de s'affranchir de l'inflation. Voir mes papiers de 1988 dans Modern Physics Letters A et dans Astrophysics and Space Science 1995.
Mais, évidemment, si cette affaire de constantes variables impliquées dans un processus de jauge généralisé n'est pas assimilé et pris en compte, on risque des erreurs en extrapolant.
Jean-Pierre Petit"

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 21 heures, dg2 a dit :

 

Je vais essayer de traduire le plus simplement possible le propos de ce monsieur, façon thread Twitter, histoire de ne pas être trop verbeux.

 

Il dit qu'il n'y a pas de matière noire mais un autre truc (son Janus). Donc il remplace un truc qu'il n'aime pas par un autre truc qu'il aime bien. Fondamentalement, cela ne simplifie rien.

Ensuite, avec son truc à lui, il déduit que la loi d'expansion est en contradiction totale avec tout ce qu'on peut observer (la nucléosynthèse notamment).

Donc il est coincé, SAUF à invoquer que en fait, il "suffit" de changer les lois de la physique pour que son modèle marche. Facile, non ?

Il dit même qu'il "prédit" que les lois physiques (ou les constantes fondamentales) ont varié au cours du temps.

Il ne prédit rien du tout ! Il est juste en train d'inventer un nouveau truc qu'il est obligé de rajouter à son modèle pour qu'il ne soit pas trivialement exclu.

Et à ce jeu, il augmente considérablement le nombre de paramètres libre : pour chaque constante, il faut une variation ad hoc pour sauver son scénario.

Maintenant, tout ceci n'est pas vraiment très grave : au lieu d'un modèle à x paramètres, il propose un modèle à y paramètres, où y > x. D'après le principe du rasoir d'Ockham, ça pourrait n'être qu'inutile, mais pas "grave" en soi.

Ce qui est grave c'est que de A à Z son truc ne tient pas la route, non pas pour une raison pour des dizaines de raisons. Il n'y a rigoureusement rien qui va. Rien du tout.

Par exemple, il dit qu'il y a un problème avec la modèle de trou noir parce que quand on regarde un effondrement d'un fluide "incompressible" (en fait de densité uniforme), la pression diverge quelque part.

C'est vrai, mais... un fluide incompressible ça ne peut pas exister car incompressibilité implique propagation instantanée du son, en contradiction flagrante avec la relativité restreinte (rien ne va plus vite que la lumière).

Trouver une incohérence résultant d'une hypothèse de facto incohérente n'apporte rien de nouveau, juste que l'incohérence de départ est délétère pour le problème considéré.

Je vous passe les détails technique sur son Janus, avec deux métriques différentes qu'on relie l'une à l'autre point par point sans préciser comment (sa méthode dépend d'un choix arbitraire du système de coordonnées).

Je vous passe ses délires que l'article de 1916 de Schwarzschild que "personne" n'aurait lu. Genre les germanophones ne l'auraient jamais fait. Pas plus que les historiens de la relativité. Vous y croyez ?

Si JPP trouve qu'il y a un loup, c'est juste qu'il ne comprend pas le contexte, et le fait que certains points de la RG n'étaient pas bien compris début 1916. On s'en doutait un peu, non ?

Je vous passe les incohérences sur ce que veut dire une variation des constantes fondamentales (déjà évoquées sur ce forum).

Je vous passe son incapacité à faire des calculs sur le fond diffus cosmologique.

Je vous passe ses références à des articles passés qui sont en contradiction avec ses articles d'aujourd'hui (celui de astro & space science de 1995 fait référence à une courbure positive).

Je vous passe ses "simulations numériques" faites dans un univers à courbure nulle alors que son modèle est de courbure négative.

Je vous passe ses erreurs niveau M1 sur les ondes gravitationnelles.

Je mentionne simplement que dans son modèle, la densité moyenne de matière est quasi nulle, donc on est dans un univers vide en expansion, qui a nécessairement une courbure négative.

Les conséquences de ce truc se voient comme le nez au milieu de la figure à grand redshift : avec son modèle il devrait être impossible de voir la moindre galaxie à grand redshift car la géométrie de l'univers la rendrait trop faible pour être observable.
Or on observe des trucs à grand z, ergo, son modèle est out. (Lui ne teste son truc qu'avec des supernovae, qui vont moins loin en redshift, donc forcément, il ne voit pas le problème.)

Donc le JPP qui veut un séminaire, je lui proposerais plutôt de s'inscrire en master 2 de physique théorique et de voir s'il dépasse les 2/20 à un partiel de relativité générale. Si vous voulez mon avis, il ne se prêtera jamais à l'exercice.

Mais si par extraordinaire il est partant, je peux vous envoyer un exemple de partiel que vous vous chargerez, si le cœur vous en dit, de lui transmettre.

 

Tout d'abord merci beaucoup dg2 de vous être prêté au dialogue (même si cela devait s'arrêter ici), je suis plutôt agréablement surpris par votre réponse circonstanciée, bien qu'accablante.

 

Pour vous répéter un propos déjà adressé à un autre grand scientifique : "Lorsque vous affirmez que son modèle ne tient pas la route, vous avez probablement raison. Ou tout du moins avec les détails tels qu'ils vous sont exposés en l'état, et en l'absence d'étayages complémentaires qui s'avèreraient éclairants... Raison pour laquelle le débat est indispensable, et on ne peut pas dire que JPP y soit hermétique : il se bat pour parvenir à confronter son modèle en séminaire officiellement, au risque ouvertement assumé d'être mis en échec tout aussi officiellement." Mais rien n'y fait, ni dans un sens, ni dans l'autre...

 

Vous admettrez volontiers que ce domaine en question est tout sauf une "science exacte", que je qualifie de "science obscure" avec ces matière, énergie et trous obscurs, qui restent encore à l'heure actuelle littéralement "hypothétiques", n'en déplaisent aux auto-convaincus, ceci est factuel (oui, les trous noirs y-compris, avec leur singularité centrale que même le plus grand spécialiste ne peut admettre). Et s'il est bien un seul domaine où TOUTE théorie a sa légitimité, même la plus farfelue, c'est bien celui-là. Jusqu'à ce qu'elle soit enterrée officiellement et dignement. Et quand bien même JANUS serait effectivement incorrect, le chemin vers son invalidation définitive pourrait tout aussi bien laisser émerger de nouvelles pistes vers la bonne théorie.

 

Bref, à défaut d'accepter votre proposition de faire l'affront à Jean-Pierre de lui transmettre votre exemple de partiel :) c 'est avec un grand intérêt que je vais lui relayer votre réponse, encore merci.

Partager ce message


Lien à poster
Partager sur d’autres sites

en attendant  le JWST observe des phénomènes qui ne devaient pas exister à cette période de l'univers .

 

"James Webb repère un trou noir colossal dans l’univers primitif"

Des astronomes ont fait une découverte fascinante en identifiant un trou noir supermassif d’une ampleur exceptionnelle dans les débuts de l’univers. Émettant une lumière provenant d’une période où notre cosmos n’avait que 764 millions d’années, ce trou noir massif est estimé à 40 millions de fois la masse de notre Soleil, défiant les attentes pour cette époque précoce.

https://sciencepost.fr/james-webb-repere-trou-noir-colossal-univers-primitif/

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, bon ciel a dit :

en attendant  le JWST observe des phénomènes qui ne devaient pas exister à cette période de l'univers .

... mais l'Univers de JPP ne peut pas exister non plus à cette époque, donc il ne nous sera d'aucune aide !

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)
il y a 26 minutes, dg2 a dit :

il ne nous sera d'aucune aide

Les modèles c est comme les promesses,  elles ne valent qu à ceux qui les tiennent.

Moi je ne crois que ce que je vois.

Modifié par bon ciel
  • Confus 1
  • Triste 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, bon ciel a dit :

Les modèles c est comme les promesses,  elles ne valent qu à ceux qui les tiennent.

Moi je ne crois que ce que je vois.

 

C'est sur qu'avec ce genre de raisonnement on va aller loin. L'ordinateur (ou téléphone, même chose) sur lequel tu tapes ce message c'est de la magie vu que tu ne peux pas voir les électrons... L'électricité , une vaste fumisterie, on ne la voit pas !

Pour reprendre l'image des promesses, il se trouve justement que le modèle standard a tenu énormément de "promesses" faites (plein de prédictions confirmées par l'observation). Quand il y a une observation étrange, pas sur que de vouloir jeter le modèle à la poubelle soit la meilleure idée...

 

JF

  • J'aime 4
  • Merci 1
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jfleouf a dit :

se trouve justement que le modèle standard a tenu énormément de "promesses" faites (plein de prédictions confirmées par l'observation).

Mais oui....

Ça tombe bien j étais justement entrain de lire un article sur qui de la poule ou de l œuf est arrivé en premier.

 

https://trustmyscience.com/trou-noir-role-formation-stellaire-galaxie-primitive/

 

"Publiée dans la revue The Astrophysical Journal Letters par une équipe de l’Université du Colorado à Boulder et de l’Université Johns Hopkins, l’étude présente des résultats indiquant que les trous noirs pourraient avoir existé bien avant ce que les théories actuelles suggèrent (sic), jouant un rôle crucial non seulement dans le « quenching » au sein des galaxies, mais aussi dans la stimulation de la formation stellaire dans les galaxies primitives. Le « quenching » est le processus par lequel la formation de nouvelles étoiles dans une galaxie est ralentie ou complètement arrêtée. Ces découvertes vont jusqu’à secouer les paradigmes établis sur la séquence des événements cosmiques majeurs suivant le Big Bang."

 

Heureusement que le jwst est la pour prouver que les prédictions annoncées ne sont pas celles que l on voit

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 10 minutes, bon ciel a dit :

arrivé en premier

C'est l’œuf bien évidemment

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

Très modestement il y a eu cette info grace à Diziet Sma qui apporte une hypothèse qui mérite d'être considérée sur le taux d'accrétion des trous noirs, qui pourrait être significativement supérieur aux considérations actuelles:

 

Modifié par Mercure
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Cx

Il y a 18 heures, dg2 a dit :

Pas sûr qu'il y aura une prochaine fois cependant

Merci pour l explication que j ai lu attentivement. 

 

Le passe a toujours montré que rien n est ecrit d avance et rien n est figé...même Einstein qui est pourtant l un des meilleurs l a appris à ces dépends

La science se vérifie et se valide sur des faits ou observations et non sur des théories ou des modèles.

 

https://www.bbc.com/afrique/monde-57281845

Une équipe internationale de chercheurs a créé la carte la plus grande et la plus détaillée de la distribution de la matière dite noire dans l'Univers.  Les résultats sont surprenants car ils montrent qu'elle est légèrement plus lisse et plus étendue que ce que les meilleures théories actuelles prédisent.

L'observation semble s'écarter de la théorie de la relativité générale d'Einstein, ce qui pose une énigme aux chercheurs.

Les résultats ont été publiés par la Dark Energy Survey Collaboration"

Partager ce message


Lien à poster
Partager sur d’autres sites

L'existence de la matière noire est pour l'heure uniquement postulée. Selon l'un des modèles expliquant certaines observations astrophysiques, elle constituerait une grande partie de l'Univers, mais il est difficile de connaître sa vraie nature. Une équipe dirigée par l'Université de Berne vient d'exclure une particule théorique.  L'axion ne semble pas être un ingrédient de la matière noire: c'est en résumé la conclusion à laquelle parvient l'étude publiée dans la revue Physical Review Letters par une équipe scientifique internationale dirigée par l'Université de Berne et son Centre Albert Einstein pour la physique fondamentale

 

https://www.rts.ch/info/sciences-tech/13542873-nouveau-revers-dans-la-quete-a-la-composition-de-la-matiere-noire.html

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 11 minutes, bon ciel a dit :

La science se vérifie et se valide sur des faits ou observations et non sur des théories ou des modèles.

 

Je pense qu'en disant cela, vous ne savez pas à qui vous adressez votre réponse. En l'occurrence à un physicien spécialiste des questions évoquées.

 

Nous sommes un certain nombre de chercheurs sur le forum. Et j'avoue qu'il faut avoir une sacrée patience pour se voir expliquer notre travail par des gens qui ne sont pas du domaine !

 

il y a 13 minutes, bon ciel a dit :

Une équipe internationale de chercheurs a créé la carte la plus grande et la plus détaillée de la distribution de la matière dite noire dans l'Univers.  Les résultats sont surprenants car ils montrent qu'elle est légèrement plus lisse et plus étendue que ce que les meilleures théories actuelles prédisent.

L'observation semble s'écarter de la théorie de la relativité générale d'Einstein, ce qui pose une énigme aux chercheurs.

 

Méfiez-vous des titres "putaclic" des médias qui aiment le sensationnel et qui déforment le contenu des annonces scientifiques pour vendre leurs torchons.

 

Mars-1.jpg.f758be2208e26371a5accd4c7b87eb7d.jpg

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Ben déjà, considérer "trust my science" comme un journal sérieux en science, c'est plutot risible, voir a mourrir de rire jaune....

  • J'aime 2
  • Haha 3

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)
il y a 48 minutes, bon ciel a dit :

L'existence de la matière noire est pour l'heure uniquement postulée. Selon l'un des modèles expliquant certaines observations astrophysiques, elle constituerait une grande partie de l'Univers, mais il est difficile de connaître sa vraie nature. Une équipe dirigée par l'Université de Berne vient d'exclure une particule théorique.  L'axion ne semble pas être un ingrédient de la matière noire: c'est en résumé la conclusion à laquelle parvient l'étude publiée dans la revue Physical Review Letters par une équipe scientifique internationale dirigée par l'Université de Berne et son Centre Albert Einstein pour la physique fondamentale

 

Si on postule (comme vous le dites) la matière noire (on ferait mieux de parler de matière transparente, en physique, on parle de secteur caché), c'est parce que l'on observe que tout, sur de nombreux secteurs d'échelle, se comporte comme tel. Même les théories de gravitation modifiée montrent qu'on ne peut que difficilement se passer de matière noire.

La seule chose sur laquelle nous ne sommes pas au clair, c'est sur la nature de la matière noire, et on ne peut pas dire que les physiciens manquent d'idées à tester expérimentalement : particules scalaires (dont l'axion fait partie), matière miroir, matière localisée dans une autre brane, etc...

 

L'article évoqué sur les axions est New Limit on Axionlike Dark Matter Using Cold Neutrons, Phys. Rev. Lett. 129, 191801 (2022), et comme l'article l'indique, il n'exclu pas l'axion, mais certaines gammes de masse possibles pour l'axion, et encore, pour certaines gammes de couplage avec la matière usuelle.

 

Donc, quand l'article de vulgarisation évoque je cite :  "Nouveau revers dans la quête à la composition de la matière noire", on est juste dans le journalisme de merde ! Conclure que "l'axion ne semble pas être un ingrédient de la matière noire", c'est une affirmation fausse scientifiquement ou tout au plus qui manque de rigueur et de contextualisation.

 

Et pour les esprits chagrins, si on n'a toujours pas la solution de l'énigme, c'est pas parce que les physiciens sont mauvais ou passent leurs journées à glander, mais parce que construire une description compatible avec la physique connue et capable de rendre compte des nouvelles données expérimentales est un jeu extrêmement complexe. 

C'est pas juste faire un calcul à la con que l'on aurait appris quand on était étudiant pour trouver la solution !

Ensuite, il faut voir que les expériences permettant de mieux comprendre notre environnement sont de plus en plus fines et délicates, et en contre partie, coûteuses ! Feynman prophétisait une fin de la physique non pas parce que nous aurions tout trouvé, mais parce que les moyens de l'explorer finirait par dépasser nos capacités économiques et nos ressources.

 

De même, si on n'a toujours pas trouvé, cela n'est pas signe qu'il n'y a rien à trouver. Il y a de nombreuses histoires en Histoire des sciences de découvertes dont le succès doit plus à l'opiniâtreté de leurs découvreurs qu'à autre chose.

En physique des particules, le Fermilab et le LEP avaient tellement bien contraint expérimentalement la masse du boson de Higgs, en plus de contraintes théoriques, que la fenêtre restante d'exploration était si étroite qu'il y a eu des théoriciens (et pas des moindres) pour dire que le boson de Higgs n'existait pas. Ce qui a contribué à alimenter pléthore de publications théoriques pour lui trouver une alternative.

A l'inverse, au démarrage du LHC, nombreux étaient ceux qui étaient confiants que l'on allait le trouver là où l'on n'avait pas encore cherché ! 

Modifié par George Black
  • J'aime 6
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 21 heures, dg2 a dit :

Je ne suis pas certain que le ton de votre message invite à ce que je vous livre une explication un peu détaillée de l'article, mais je vais quand même le faire. Pas sûr qu'il y aura une prochaine fois cependant

 

Compréhensible agacement, cependant Bon Ciel n’est pas le seul à vous lire avec intérêt.

  • J'aime 6
  • J'adore 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, bon ciel a dit :

La science se vérifie et se valide sur des faits ou observations et non sur des théories ou des modèles.

 

 Justement, non, les théories et modèles sont essentiels au fonctionnement de la science. Sans théories, les observations restent un tas d'observation, sans forcément avoir d'explication sur leur cause.

 

Je vais prendre un exemple très simple, qui devrais, je l'espère, faire consensus. Tu observes l'étoile Algol et tu es stupéfait, au cours d'une nuit, de voir sa magnitude chuter brusquement, puis rebondir. Tu peux observer ça autant que tu veux, amasser les observations, tout ce que tu sauras c'est que la magnitude de l'étoile varie. Tu pourras trouver la période de variation, l'amplitude, tout ça, mais sans la théorie et les modèles, tu es marron pour comprendre ce qui se passe. Ce sont les théories et modèles qui te permettent de comprendre que cette observation est très probablement expliquée par le fait que Algol est une étoile double. Tu ne verras jamais les deux étoiles (tu pourras peut-être accumuler plus d'observations, de la spectro pour mesurer du décalage de longueurs d'ondes, ...) et pourtant, il n'y a aujourd'hui aucun doute sur l'explication : c'est une étoile double.

Maintenant, un jour tu observes une chute de magnitude à un moment pas prédit !!! Qu'est-ce que tu fais ? Tu jettes tout à la poubelle et décrète que c'est pas possible, Algol ne peut être une étoile double ? Ou bien tu te demandes : est-ce qu'il n'y aurait pas eu un problème avec mon observation (petit nuage qui décide de rester devant Algol pendant 3 heures...) ? Ou peut-être qu'il y a un troisième compagnon avec une période beaucoup plus longue... Si c'est le cas, ça n'invalide pas l'hypothèse de départ "étoile double", ça la complète.

 

Pour la matière noire, c'est pareil, sauf que c'est plus difficile de se représenter le truc et de comprendre vraiment les arguments et observations qui supportent le modèle. Du coup, c'est naturel d'être plus sceptique et d'être tenté de rejeter le truc en vrac dès qu'une observation ne colle pas.

 

L'autre problème c'est que le terme "théorie" est utilisé à toutes les sauces. En langage courant on dit : "J'ai une théorie sur ceci ou celà." En science, une théorie c'est un ensemble d'hypothèse qui font des prédictions vérifiables (et donc falsifiable si les observations ne collent pas). Seules les théories qui ont été validées par de nombreuses observations peuvent être considérées comme vraiment solides.

Et là, tu vas me dire : HAHA ! Il y a des observations qui ne collent pas avec le modèle Lambda-CDM. Et donc, il faut jeter toute la théorie à la poubelle. Sauf, que : (1) certaines de ces observations ont besoin d'être vérifiées et (2) la plupart nécessitent simplement des petits ajustements sur certains paramètres du modèle pour coller avec la théorie. En fait, c'est l'arbre qui cache la forêt. Mais les médias (et parfois les chercheurs eux-même) aiment bien sur-vendre ces nouvelles découvertes. J'avais déjà mentionné ça (dans ce fil d'ailleurs il me semble), je vois ça souvent dans mon domaine (évolution moléculaire). Certains trouvent plus intéressant de vendre leurs travaux comme "la preuve que Darwin avait tord" plutôt que "la découverte qu'un mécanisme moléculaire dont on pensait qu'il joue un rôle ultra mega mineur joue en fait un rôle mineur dans l'évolution ..."

 

Bref, les théories, quand on a compris ce que c'est, ben c'est quand même vachement utile pour comprendre le monde qui nous entoure. Et balancer à la poubelle une théorie qui explique un million d'observations, mais cale un peu sur 2 observations quand il n'y a pas de théorie alternative qui explique mieux les observations, c'est un drôle de choix.

 

JF

  • J'aime 5
  • J'adore 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)
Le 28/02/2024 à 16:15, dg2 a dit :

Je ne crois pas que ce soit ainsi que fonctionne la science. Des hypothèses à propos du problème de la matière noire, il y en a plein, qui sont confrontées aux observations. Certaines s'en sortent, d'autres pas. Quand on dit que ne connaît pas la réponse à une question, cela ne signifie pas que toute les réponses sont possibles : certaines ont été exclues depuis longtemps. Dire qu'on ne sait pas la nature de quelque chose n'est pas incompatible avec le fait qu'on sait déjà ce qu'elle n'est pas...

 

Pour revenir avec le cas de votre idole, transposez vos propos avec tel ou tel épisode douloureux de l'Histoire. Doit-on organiser un débat entre un négationniste et des historiens ? Croyez-vous que le négationniste, confronté à l'inanité de son propos, se mettra d'un coup de baguette magique à cesser de nier l'évidence ? Ne croyez-vous pas, au contraire, que le débat (dont il se fichera de s'être fait ratatiner) sera au contraire perçu par des gens naïfs comme une preuve qu'il a peut-être raison, via le raisonnement fallacieux du "Si on fait un débat, c'est qu'il y a matière à débat". Autre exemple, trivial. Supposez que vous me disiez que 2 et 2 font 5. Croyez-vous qu'organiser un débat à l'académie des sciences va changer quelque chose au fait que l'affirmation que 2 et 2 font 5 est trivialement fausse ?

 

Le fait est que cela fait 30 ans que votre champion annonce qu'il fait des choses extraordinaires. Soyez assuré qu'il est connu comme le loup blanc dans le milieu astrophysique français. Si personne ne reprend ses travaux, c'est qu'il y a de nombreux problèmes qui ont été identifiés, depuis de très nombreuses années, et par de très nombreuses personnes. Je n'ai, à titre personnel, pas besoin de le voir devant un tableau pour discuter le bout de gras. La lecture de ses articles, livres, papiers de blog, me renseignent bien assez sur le fait que, en substance, il dit que 2 et 2 font 5 (ou, disons, une erreur un peu plus subtile mais de niveau M1, pas plus). Lui dire de vive voix que 2 et 2 ne font pas 5 ne changera rien, je pense, à sa conviction que, pour lui, 2 et 2 font 5. Vous connaissez le proverbe "Il n'y a pire sourd que qui ne veut entendre"...

 

Une dernière analogie, peut-être plus parlante. Imaginez un homme (jeune ou vieux, beau ou moche, attentionné ou violent, peu importe), qui aborde une femme dans la rue. Celle-ci l'envoie paître. Croyez-vous que l'homme éconduit a une quelconque légitimité à exiger que la femme accepte une invitation au restaurant afin qu'il lui "prouve" qu'il est l'homme de sa vie, voire, si on essaie d'être au plus près de la situation présente, qu'il accepte de ne plus revoir la femme uniquement après que celle-ci l'ait convaincu qu'il est pas son genre ? Ne pensez-vous pas que, au contraire, s'engager dans cette voie ne fera que renforcer la conviction de l'homme que sa perception des choses est pertinente alors qu'elle est en réalité complètement erronée ?

 

Pour revenir au cas qui nous intéresse, dans ce papier, au risque de me répéter, l'auteur explore des conséquences observationnelles de son modèle. Sans discuter du blabla des premières pages, nous serons d'accord vous et moi qu'il écrit la loi d'expansion dans son modèle (équation (2)), équation dans laquelle il n'y a pas de Big Bang car la quantité a ne passe jamais par 0 (ce a représente l'évolution de la distance entre deux objets ; quand elle double, c'est que l'expansion a doublé la distance séparant les objets quelle que soit la valeur initiale de celle-ci). Je pense que vous (et lui, espérons-le) savez qu'un cosinus hyperbolique n'est jamais nul (c'était niveau première ou terminale à son époque). Si on se fie à ce résultat, quelle est donc la valeur minimale du a en question, et donc la valeur maximale du redshift dont un objet peut être doté ? C'est assez simple, et déterminé par le paramètre q_0 du papier, quantité qui est négative. Si on se fie à l'équation (5), il est clair que le terme dans une racine carrée ne peut être nul (niveau troisième ou seconde, je suis certain que vous serez d'accord), aussi un terme du type sqrt(1 + 2 q_0 z) n'est défini que si 1 + 2 q_0 z est positif ou, au pire, nul. Et comme q_0 est négatif (le papier évoque plusieurs fois la valeur -0,087), z ne peut excéder la valeur de  - 1 / 2 q_0 (je suis certain que vous et moi serons d'accord), soit, en faisant l'application numérique (vous en êtes capable), 5,75. Si vous aimez l'astronomie (je suis certain qu'il ne saurait en être autrement), vous devriez savoir que des objets d'un redshift supérieur à 5,75 sont connus depuis... pas mal d'années désormais. Donc, dans l'hypothèse où vous seriez en contact avec votre champion, n'hésitez pas - sauf si la réponse vous effraie - à lui demander pourquoi diable son modèle nous affirme que rien n'est observable à plus grand redshift que 5,75 alors que TOUT LE MONDE sait qu'il ne peut en être ainsi. C'est je crois une question/remarques des plus simples, exemple parmi une quasi infinité d'autres qu'il ne comprend pas vraiment de quoi il parle.

 

 

Merci pour votre réponse dg2, mais je tiens tout d'abord à souligner que JP Petit a déjà réagi plus haut à votre critique sur son papier, certes en quelques lignes il ne peut répondre exhaustivement à votre contestation (le sujet étant bien trop complexe), mais son intervention était avant tout dans le but de repositionner ses prémisses, sans lesquelles votre critique conserve toute sa cohérence, mais pas sa légitimité.

 

J'entends votre diatribe et je n'ai aucun doute sur votre sincérité et votre profonde conviction que JPP serait un imposteur, à ne pas prendre au sérieux, et à discréditer.
De plus je n'ai rien à redire sur chacune de vos comparaisons qui sont indéniables dans leur contenu intrinsèque, mais c'est plutôt en leur qualité d'analogie où je ne serai pas d'accord.
Il a été "formellement" démontré, il y a un petit moment maintenant, que 2 et 2 font 4 (ou alors 2 et 2 font 22, et ça c'est beau ! #JCVD), pareil pour le négationniste, qui a "formellement" tort, point barre. Donc quand vous faites dire à JPP que 2 et 2 font 5, vous sous-entendez in fine que son modèle est "formellement" faux, ce qui est… formellement faux. Je n'affirme pas qu'il n'est pas faux : il l'est "peut-être" (et lui-même l'admet, c'est d'ailleurs son meilleur argument pour réclamer le débat). Mais j'affirme par contre qu'il n'a encore jamais été "formellement" démontré qu'il l'était (non, pas même par Thibaud Damour, contrairement à la pensée de l'inconscient collectif…) Et je vous défie de me PROUVER le contraire (au-delà de votre profonde conviction, et des critiques gratuites de certains scientifiques pro-ΛCDM refusant étrangement tout droit de réponse, se sentant certainement mis en défaut dans leur propre dogme).

 

Lorsque vous lui imputez des erreurs grossières, ce n'est vraisemblablement qu'une question de contexte, c'est comme buter longuement sur une incohérence en physique, avant de réaliser que l'on se situait dans un mauvais référentiel, et soudain tout s'éclaire.
Pour argumenter en utilisant à mon tour une analogie (#Thinkingoutsidethebox), c'est comme si je vous disais que j'ai fait un gâteau dont la recette stipulait de mettre 5 œufs. Je vous précise que je n'ai utilisé que 4 œufs, mais que j'ai bien respecté la recette. Vous allez donc me dire "faux, la recette disait 5 œufs", là je vous précise que parmi les 4 œufs, 2 étaient de calibre "extra-gros" (équivalents à 3 œufs normaux), mais que vous mainteniez malgré tout, en invoquant le principe d'identité, que "un œuf c'est un œuf", et que donc ma recette est incorrecte car "2 et 2 ne font pas 5", en me discréditant partout sur internet en affirmant que j'ai dit avoir respecté une recette en mettant pourtant 1 œuf de moins, et tout en me refusant la possibilité de démontrer l'exactitude de ma démarche via ma "théorie d'œufs à taille variable".

 

Tous ceux qui érigent le modèle standard (et la RG) en vérité absolue, pourtant de plus en plus bancal à chaque nouvelle observation du JWST, sont quelque-part victime du "biais des coûts irrécupérables", à savoir que ce modèle a tellement apporté en explications et prédictions depuis tant de décennies qu'il ne peut qu'être correct, et que cela leur apparaitrait surréaliste d'en arriver à démontrer qu'en réalité il ne l'est pas vraiment (c'est pourtant bien ce qu'il s'est passé avec la loi de la gravitation de Newton, incontestable pendant plusieurs siècles, avant d'être finalement supplantée par la relativité générale).

 

Donc nous en sommes là. JANUS ne se résume pas à de la matière de masse négative. C'est un modèle infiniment plus complexe, constitué de subtilités délicates à appréhender, à un tel point qu'il n'y a que le débat scientifique entre son auteur et le consensus scientifique qui serait en mesure de valider OU INVALIDER son contenu. JPP ne peut pas se permettre un interminable débat scientifique avec chaque internaute le contestant (car en terme d'ergonomie pure, convaincre 1 internaute, puis 2, puis même X, ne fera pas plus avancer le schmilblick de la reconnaissance officielle de son modèle dans le milieu scientifique).

 

Donc si, par un heureux hasard, vous étiez (ou même connaissiez) un scientifique renommé (ce que je n'exclue pas) avec suffisamment d'influence pour lui ouvrir les portes d'un séminaire important susceptible de pouvoir statuer définitivement sur ce fameux modèle bi-métrique, alors, là, vous feriez concrètement avancer la science, quand bien même vous le feriez dans le dessein de le mettre à bas une bonne fois pour toute, la réfutation officielle d'une théorie demeurant littéralement une évolution scientifique en soi. Mais en attendant ce dénouement inespéré, je laisse tous les anti-JANUS (et autres anti-JPP) continuer à exposer leurs critiques "subjectivement" correctes.

Modifié par Romlag
  • Haha 1
  • Confus 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Posté(e) (modifié)

Moi je veux bien que JPP soit un génie incompris. Mais alors ou bien il s'exprime mal, ou bien il affirme tranquillement et sans rigoler (cf les "plugstars") qu'aucun objet compact ne peut avoir une masse de plus de 2,5 masses solaires, ce qui semble être en contradiction flagrante avec un paquet d'observations...

Le moins qu'on puisse dire, c'est que  son modèle destiné à remplacer les trous noirs est troublant.

Disons que ça ne va pas aider à l'organisation d'une conférence, à mon avis.

 

Modifié par PascalD
  • J'aime 1
  • Haha 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant