Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Les 20 questions ouvertes de la cosmologie

4. Le problème de la hiérarchie des particules (II)

De nombreuses approches ont été proposées pour calculer théoriquement le spectre réel des particules massives, mais en vain jusqu'à présent. Le résultat habituel issu des théories unifiées (voir sous 5.) présente une série d'états qui ont peu de ressemblances avec les masses observées dans la nature ou dans les accélérateurs de particules. Ce problème de hiérarchie est particulièrement évident dans les théories de type Kaluza-Klein. Dans ces théories, la masse d'une particule est mal définie aux échelles les plus petites. Une voie de recherches consiste à utiliser un espace 5D dont les particules massives ne sont pas rattachées à un nouveau champ de potentiel scalaire (boson de Higgs par exemple) mais à la dimension d'une coordonnée supplémentaire.

Toutefois, si ce principe est bien intégré dans le cadre de la théorie canonique 5D, il s'applique mal en 4D où il n'est généralement pas invariant lors des changements de coordonnées 5D. Le même commentaire s'applique à la dernière version de la théorie des branes qui, bien qu'étant élégante, introduit des forces supplémentaires dans l'univers 4D qui n'ont jamais été observées.

5. Les théories unifiées

Il existe de très nombreuses théories unifiées. L'exemple le plus connu est la théorie de Kaluza-Klein, une théorie classique de la gravité, de l'électromagnétisme et du champ scalaire dont les modes quantiques (les particules) sont de spin 2 pour le graviton, de spin 1 pour le photon et de spin 0 pour le scalaron. Si on étend cette approche à tous les champs, elle offre la possibilité d'unifier les quatre interactions fondamentales de la physique dans un seul formalisme, la supersymétrie (voir sous 1.).

Toutefois, les "constantes" de couplage de ces théories dépendent de l'énergie ou de la portée des interactions (voir sous 11.). L'énergie à laquelle l'unification se produit est d'une importance cruciale mais fait l'objet d'une controverse. La valeur naturelle devrait être donnée par la masse de Planck, √(hc/G) = 2.17 x 10-5 g. Toutefois, c'est une masse gigantesque comparée à l'équivalent-énergie des autres interactions. Par ailleurs, le fait que notre monde ne soit pas dominé par les trous noirs de cette masse (dont la taille vaut la longueur de Planck) pourrait signifier que la combinaison des paramètres de cette formule est une coïncidence liée à la structure de notre monde à quatre dimensions. D'autres valeurs d'énergie d'unification ont été proposées. Si on ne tient pas compte de la supersymétrie, les données actuelles excluent une valeur unique. Avec la supersymétrie, cette énergie est de l'ordre de 1015 GeV pour la GUT et de 1019 GeV pour la Théorie de Tout. Le fait d'ignorer l'échelle de grande unification est un obstacle majeur à la fois pour l'étude des particules élémentaires et de l'univers primordial. Il va bien falloir que nous nous décidions à changer de paradigme et de moyens si nous voulons voir plus loin.

6. La gravité quantique

Il n'existe pas à proprement parlé de théorie représentative de la supersymétrie mais plutôt une multitude de théories en compétition. Depuis 1990 environ, beaucoup de zones sombres ont été élaguées pour mettre en lumière les effets de la gravité quantique dans le cadre de sa solution la plus simple, l'univers plat d'Euclide, dans lequel la signature de la métrique passe du signe négatif à positif et la somme des classes d'histoires est utilisée pour déterminer l'action. C'est par exemple l'approche de Gibbons et Hawking. Toutefois, depuis quelques années des physiciens théoriciens essayent de quantifier le champ gravitationnel dans le cadre de la théorie M qui est libérée de la plupart des contraintes classiques (voir sous 1.).

Actuellement, on ignore s'il existe une théorie de la gravité quantique et suivant ce qui a été dit dans la section précédente, il est impossible de dire si la masse de Planck joue ou non un rôle dans les situations astrophysiques extrêmes

7. Les neutrinos

Depuis que nous savons qu'ils existent, paradoxalement nous ignorons combien il existe de familles de neutrinos et quel est leur masse respective. On a beaucoup discuté du problème des neutrinos solaires manquants (une énigme aujourd'hui résolue) ainsi que des neutrinos atmosphériques et conclu que leur masse était différente de zéro. Toutefois, le manque d'information précise sur la masse des neutrinos a des répercussions sur le modèle astrophysique solaire mais également en cosmologie, sur leur contribution à la densité de l'univers.

Si les neutrinos sont nombreux et massifs, ils peuvent contribuer à la cohésion de la Voie Lactée, apporter la masse manquante au halo des autres galaxies et peut-être même apporter la densité critique nécessaire pour aplanir l'univers en accord avec le modèle Standard FRW. Le problème de la nature de la matière sombre est discuté sous 8. mais mentionnons déjà ici que la plupart des travaux ont été fait dans le cadre du modèle de Sciama. Dans cette théorie, les neutrinos massifs ont la densité critique et au cours de leur décroissance produisent la source d'énergie à différents processus astrophysiques. Malheureusement, les photons produits dans ce modèle sont trop nombreux pour correspondre aux mesures du rayonnement intergalactique aux longueurs d'ondes ultraviolettes. Ce problème se retrouve dans tous les modèles tenant compte de neutrinos massifs, au sujet desquels nous avons clairement besoin de plus d'informations.

Actuellement on tend à considérer la masse des neutrinos comme extrêmement légère, environ 0.1 eV. La contribution de tous les neutrinos à la densité critique serait tout au plus égale à la contribution des étoiles.

8. L'identité de la matière sombre

Le fait que la dynamique des galaxies individuelles et des amas de galaxies n'applique pas la théorie gravitationnelle standard (loi en carré inverse par exemple dans les bras des galaxies) s'explique en général de deux manières :soit nous n'utilisons pas la bonne théorie de la gravitation soit nous ne voyons pas toute la matière. Cette seconde explication fait consensus bien que l'idée gravitationnelle ne soit pas entièrement rejetée (voir sous 18.)

Toutefois, on ignore sous quelle forme se trouvent la matière sombre qui, selon les dernières estimations, contribuent à près de 27 % de la matière de l'univers visible, l'énergie sombre contribuant à plus de 68 %.

La matière sombre peut être de nature astrophysique (MACHO), constituée par exemple d'objets massifs et compacts ou d'étoiles naines brunes. On parle également de mini trous noirs survivant depuis l'époque du Big Bang. Ou il peut s'agir de particules, "chaudes" ou "froides", relativistes ou lentes selon leur énergie cinétique.

Depuis 1998, le nombre de candidats est limité l'observation du rayonnement fossile à 2.7 K à certaines longueurs d'ondes. La méthode déjà entr'aperçue dans la section précédente à propos des neutrinos, consiste à observer la décroissance des photons issus de la matière sombre invisible et en comparant ces résultats à des sources connues comme les étoiles et les galaxies.

Cette méthode est efficace et aboutit à la conclusion que les neutrinos, les axions et éventuellement l'énergie du vide peuvent avoir une densité d'énergie finie mais sont instables (voir sous 3.). Ce faisant toutefois, ces explications laissent la porte ouverte à une matière sombre d'origine supersymétrique (WIMPs) telle que les gravitinos ou les neutralinos.

Une autre méthode permettant d'investiguer les particules supersymétriques est d'utiliser des détecteurs cryogéniques profondément enterrés afin de réduire les autres interférences. Des expériences de ce type ont déjà eu lieu mais les résultats sont actuellement ambigus. De nouveaux projets ont toutefois été planifiés, la combinaison des données souterraines avec celles du rayonnement cosmologique à 2.7 K devant apporter un peu d'éclairage sur l'identité de la matière sombre.

9. Le problème de l'horizon cosmologique à 2.7 K

Les cosmologistes pensent que le rayonnement micro-onde cosmologique à 2.7 K est la signature thermique dégénérée qui suivit le phénomène du Big Bang; elle prouve que l'univers eut un début chaud et s'étendit de manière isotrope. Sa température fut déterminée indépendamment de la nature de la matière et du rayonnement existant à cette époque.

Malgré les fluctuations, la photographie instantanée prise par Planck en 2014 est trop uniforme pour être compatible avec le modèle Standard du Big Bang basé sur la relativité générale. Autrement dit, une relation de causalité est définie en relativité générale par le concept d'horizon; les photons situés en des endroits opposés dans le fond de rayonnement micro-onde présentent la même température alors qu'ils sont aujourd'hui au-delà de leur horizon respectif, hors de tout contact à la vitesse de la lumière.

La solution la plus évoquée aujourd'hui fait appel est une modification du modèle des premiers instants de l'Univers. En assumant l'existence d'une phase d'expansion rapide, peut-être exponentielle, durant la fraction de seconde qui suivit le Big Bang, on peut homogénéiser l'univers et écarter toute anisotropie dans d'immenses volumes.

Cette idée du Big Bang inflationnaire est aujourd'hui la théorie cosmologique "Standard", souvent associée à un modèle de matière sombre et froide ΛCDM et une caractéristique chaotique pour expliquer les manifestations qui se seraient déroulées à l'échelle de Planck.

Mais la source d'énergie de cette inflation soudaine n'a pas encore été identifiée. Une hypothèse soutenue par de nombreux chercheurs fait jouer un rôle majeur à la constante cosmologique, qui bien qu'ayant faiblit au cours du temps, aurait été la source d'une énergie du vide très instable par le passé (voir sous 3. et sous 8.). Une autre possibilité est que l'inflation a été alimentée par l'effondrement des autres dimensions de l'espace qui ont aujourd'hui une taille microscopique (voir sous 1. et sous 14.). Toutefois, bien qu'on ait écrit beaucoup de choses sur le problème de l'horizon des photons du rayonnement fossile, ce problème ne représente que la partie émergée de la grande question de la causalité, où relativité et physique quantique n'ont pas les mêmes points de vues.

10. Les propriétés des particules et la causalité

La causalité définie en relativité générale concerne les photons se déplaçant sur les géodésiques nulles dans une région de l'espace définie par la taille de l'horizon des particules. Dans cet espace fini, les photons situés sous cet horizon peuvent présenter la même énergie et la même température comme nous l'avons expliqué dans la section précédente. Mais comment les particules "savent" qu'elles doivent présenter les mêmes propriétés, comme la masse, la charge ou le spin ? Idem pour la structure fine dans le spectre des objets distants. Comment les électrons "savent-ils" qu'ils sont proches ou éloignés ?  Et s'il y eut une rupture de causalité dans le passé, pourquoi observe-t-on aujourd'hui dans les QSOs des particules a priori séparées de tout lien de causalité conserver les mêmes propriétés ?

Une manière détournée de répondre à ces questions est d'invoquer un Principe d'Equivalence Fort stipulant que les propriétés des particules sont identiques dans tout l'univers (non lié), même s'il existe des régions qui étaient déjà en-dehors de tout lien de causalité par le passé.

Toutefois, la plupart des chercheurs préféreraient un mécanisme plus concret et testable pour expliquer cette forme de communication, tout spécialement depuis que les observations ont montré la remarquable uniformité des propriétés de l'univers. Un mécanisme, souvent attribué à John Wheeler avec le support de Richard Feynman, est de considérer qu'au lieu d'y avoir de l'ordre de 1080 électrons dans l'univers visible, il n'en existerait qu'un seul. Nous avons déjà évoqué cet argument à propos de l'utilité des constantes de la nature. A force de se déplacer apparemment à des vitesses supraluminiques dans des univers multi-connectés, cette particule unique pourrait apparaître comme autant de particules distinctes. Un autre mécanisme, moins spéculatif, invoqué par Davidson, Owen et Wesson, implique des modifications des lois de la causalité à quatre dimensions par l'influence des dimensions excédentaire d'univers de type Kaluza-Klein. Cette idée est plausible du fait que la taille de l'horizon dépend de la dimensionnalité, mais il faut approfondir la question

11. Les constantes fondamentales

Suivant les commentaires de la section précédente, il est utile de rappeler qu'il y eut de nombreuses tentatives pour expliquer l'universalité et la nature des constantes fondamentales qui apparaissent dans les équations de la physique, telles que c, G, h, etc. Il y eut également de nombreuses tentatives pour déterminer leur variabilité, surtout par rapport à l'âge de l'Univers. Ces dernières tentatives ont, dans un certain nombre de cas testables, échouées. En outre, il n'existe pas d'explication unanime sur la valeur des nombres sans dimension formés à partir de ces constantes, bien que la numérologie des grands nombres d'Arthur Eddington et le principe anthropique de Brandon Carter soient des explications envisageables.

Il est aussi vrai qu'on peut considéré les soi-disant constantes fondamentales comme de simples paramètres transposant les dimensions physiques d'autres quantités sous une forme accessible à la géométrie. Ainsi √(c2/Gρ) = [L] convertit la densité d'un fluide en longueur tandis que h/mc = [L] réalise la même opération pour la masse de repos d'une particule. Toutefois, si cela permet à des quantités physiques d'être associées aux quantités géométriques des théories du champ comme la relativité générale, la plupart des chercheurs seraient plus à l'aise s'il y avait une justification systématique aux constantes fondamentales. Ne soyons donc pas étonnés si d'ici quelques années, cela peut durer longtemps, les physiciens se débarrassent définitivement de toutes les constantes fondamentales et les remplacent par des valeurs et des dimensions significatives.

12. Où s'est produit le Big Bang ?

Cela ressemble un question quelque peu provocatrice, mais de plus en plus de chercheurs se la posent. Rappelons que dans la plupart des domaines de la physique, une singularité ou l'endroit non intégrable d'une équation est écarté du fait qu'il représente une rupture dans le modèle. Mais en relativité générale, la singularité du Big Bang a été quantifiée par des théorèmes que nous devons à Carter, Geroch, Ellis, Hawking et Penrose et ce phénomène a été considéré dès son invention comme un événement réel par lequel l'Univers a été créé. Cela place la théorie de la relativité générale dans une classe de concepts à part des autres théories physiques.

Mal à l'aise à cette idée de singularité ingérable, certains chercheurs comme Ellis, Cooperstock, Israelit et Rosen ont élaboré dans les années 1990 des modèles cosmologiques quadridimensionnels sans singularité initiale et qui sont plus ou moins en accord avec les observations.

Des modèles partant d'un espace vide de Minkowski et évoluant vers des cosmologies remplies de matière sont connus depuis les années 1960 et les travaux de W.Bonnor et ont été réanalysés par P.Wesson en 1985. Dans ce contexte, en 1982, A.Vilenkin suggéra que le Big Bang, si jamais il s'était produit, fut la signature d'un effet tunnel quantique. Le même argument peut s'appliquer aux dimensions excédentaires des cosmologies de Kaluza-Klein. En effet, en 5D, il existe des modèles d'univers plats et vide de matière, mais dans lesquels les sous-modèles 4D sont courbés et présentent une matière dont les propriétés sont en excellent accord avec les observations.

Ces considérations rendent la question de savoir où s'est produit le Big Bang tout à fait justifiée.

13. La topologie de l'espace

Les équation de champ d'Einstein, et beaucoup d'autres de cet ordre, constituent en équations différentielles partielles de second ordre qui par nature concerne des phénomènes locaux, par rapport aux phénomènes non locaux de la physique quantique. Une solution complète requiert en général l'hypothèse de conditions aux limites, qui en cosmologie sont inconnues dans la plupart des cas.

On peut envisager aux côtés d'Einstein et Wheeler, que dans ces conditions, l'univers n'aurait pas de limite. Par exemple, dans la cosmologie classique FRW où k = +1, l'espace prend la forme d'une sphère et la lumière peut en faire le tour. Ce cas peut être testé visuellement ou par radioastronomie en cherchant par exemple les images multiples d'une même galaxie.

Un argument similaire s'applique à la connectivité. Des parties d'un même espace peuvent en principe être connectées au même espace ou à d'autres à travers des trous de vers.

Il est également possible d'élaborer des modèles cosmologiques dans lesquels l'Univers consiste en cellules juxtaposées, dont la périodicité peut-être recherchée dans les données astronomiques tels que l'ont démontré G.Hayward et J.Twamley en 1990 ainsi que l'équipe de J.Bond en 2000.

Dans les univers multiconnexes en revanche, les images multiples des galaxies pourraient être différentes en éclat, forme et stade évolutif, en fonction de la projection résultante, rendant l'estimation de la topologie de cet univers pratiquement impossible. Ces cosmologies alternatives reçoivent le support de quelques astrophysiciens mais souvent isolés car les preuves sont souvent difficiles à rassembler et les modèles théories souvent adaptés pour l'occasion.

Les mesures du rayonnement cosmologique à 2.7 K impliquent que si l'Univers présente une structure topologique significative, l'échelle de cette dernière doit augmenter avec la taille de l'univers visible. Ceci est valable dans un espace-temps à quatre dimensions. En 5D, les possibilités sont plus nombreuses et ainsi que nous l'avons évoqué dans la section précédente, l'exemple d'un espace plat à 5D n'empêche nullement l'existence d'un espace courbe à 4D.

Malheureusement nous n'avons guère d'information sur la topologie de l'espace ou l'existence éventuelle d'univers multiconnexes. Que nous vivions sur un anneau de Moebius, dans un kaléidoscope ou un univers quantique, nous ne le saurons sans doute jamais. Nous avons en revanche les moyens d'estimer la courbure de notre univers et les propriétés des interactions fondamentales. Ensemble, ces deux paramètres permettent d'estimer la topologie de notre univers visible, une petite vague dans l'océan cosmique.

Dernière partie

La dimensionnalité du monde

Page 1 - 2 - 3 -


Back to:

HOME

Copyright & FAQ