Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

L'Univers inflationnaire

Comment les particules ont acquis leur masse (II)

Comment expliquer que certaines particules sont massives et que d'autres comme le photon n'ont pas de masse de repos ? La question étant d'importance mais complexe, elle requiert un moment d'attention.

Les bosons vecteurs des interactions permettent de décrire la création de particules lors de collisions à hautes énergies notamment. Ces bosons n'ont à l'origine pas de masse et leur portée est infinie. Si cela s'applique très bien au photon, vecteur de l'interaction électromagnétique, ce modèle ne s'applique pas aux 14 autres bosons connus dont la masse de repos dépasse 80 GeV (W°, Z°, H°, gravitons, ... cf. ce tableau) auxquels il faut ajouter 12 bosons X et Y, les fameux et hypothétiques leptoquarks qui présentent une masse de repos supérieure à 1015 GeV et dont la charge électrique est fractionnaire.

Dans une réaction entre particules, les lois régissant les interactions montrent que les énergies de la réaction sont conservées. Le boson Z° par exemple peut se transformer indifféremment en quarks et leptons, les deux familles de particules élémentaires qui forment la matière, chacune apparaissant par paire avec son antiparticule (quark u et antiquark u, électron et positron, etc). La création du boson Z° massif est donc une condition initiale sine qua non de la "matérialisation" de notre univers.

Les symétries de jauge

Les lois de symétrie qui sont discutées dans cet article sont des symétries non géométriques, abstraites, car on ne peut pas les visualiser contrairement à la géométrie de l'espace-temps par exemple. On dit que ces symétries ne sont pas géométrisables. Les physiciens parlent alors de symétrie de “jauge”, terme proposé en 1918 par le mathématicien allemand Hermann Weyl, car elles permettent de mesurer la symétrie des niveaux d'énergie en fonction d'un paramètre; l'énergie ou la masse de repos s'exprime en MeV/c² et le paramètre mesuré peut-être le nombre de spin par exemple.

Ces symétries sont fondamentales car dans le cadre de la physique quantique ces théories jouent un rôle central dans l’unification des forces de la nature.

Les exemples de symétrie non géométriques, dites de jauge, sont très nombreux, pour ne citer que les différentes formes d’énergie. Dans un circuit électrique par exemple, l’énergie dépend de la différence de potentiel (voltage) entre les bornes du circuit. Si la tension augmente d’une même quantité aux deux bornes, l’énergie potentielle du système n’est pas altérée; dans un système clos l’énergie potentielle dépend de la hauteur de l’objet au-dessus du niveau zéro de référence. Si la différence de hauteur est mesurée au niveau de la mer ou au-dessus d’une montagne, l’énergie potentielle du système n’est pas altérée non plus. Gardez bien ces principes à l'esprit car ils vous aideront à comprendre certains mécanismes discutés dans le texte.

Ainsi que l’ont démontré Yang et Mills, les équations prédisent que les bosons W et Z° de l'interaction faible sont très lourds. Comme l'on dit en physique quantique, ils n'obéissaient pas aux lois de symétrie. Comment dame Nature leur a-t-elle donné leur masse ? Les physiciens comprenaient bien que ni les gluons ni aucune autre particule sans masse ne peuvent pas d'eux-mêmes provoquer une brisure de symétrie et acquérir leur masse.

Il fallait donc amender la théorie des particules élémentaires et tenir compte d'un second mécanisme que les cosmologistes ont vite récupéré. L'idée était qu'un boson vecteur devait interagir avec le champ scalaire d'un boson de spin égal à 0, le boson de Goldstone Z°, afin de briser spontanément la symétrie et donner notamment leur masse aux particules. Mais cette explication devait surmonter plusieurs difficultés.

Point essentiel, cette théorie devait s'intégrer dans le modèle Standard des particules élémentaires et ses prédictions vérifiables sinon cette théorie perdait toute crédibilité et rejoindrait toutes les autres idées utopiques.

Autre problème important, le fait que la symétrie se brisa spontanément devrait logiquement impliquer que l'énergie du vide quantique n'était pas nulle. Si c'était le cas, aucun processus quantique ne pourrait en "émerger". En d'autres termes, le vide quantique devrait potentiellement avoir une énergie colossale. 

Un autre problème était qu'en partant d'une invariance de jauge globale, les modèles mathématiques prédisaient que la théorie électrofaible devait prévoir au moins un boson intermédiaire sans masse, Z°. Or l'interaction faible n'a qu'une portée finie, Z° présentant une énergie de masse voisine de 91 GeV, presque 100 fois supérieure à celle du proton.

Enfin, par définition un seul état d'énergie minimale ne permet pas de briser une symétrie. Heureusement cette particule est capable de provoquer un spectre d'états d'énergie minima. Mais le gros défaut de cette théorie est la portée infinie du boson Z°. Il fallait absolument la contraindre à l'échelle de Fermi sinon la théorie devait être abandonnée.

Les mécanismes de Higgs

Boson vecteur

sans masse

+   Boson scalaire

       sans masse

=   Boson vecteur

           massif

C'est l'interaction du champ scalaire du boson de Higgs sans masse avec les particules qui leur permet d'acquérir leur masse. Cette théorie est utilisée dans les modèles cosmologiques inflationnaires d'Alan Guth et ses collègues. La découverte du boson de Higgs au CERN en 2013 valide ce modèle.

Les physiciens se sont alors reportés sur une symétrie de jauge locale, recherchant une loi agissant en chaque point de l'espace-temps. Comme par enchantement, le boson de Goldstone se voit "absorbé" par un boson de Yang-Mills et celui-ci acquiert une grande masse, ce qui limite son influence à l'échelle atomique.

Forts enthousiastes, les physiciens tenaient là un début de solution. Cette théorie était séduisante mais loin d'être parfaite. Il restait d'autres difficultés.

La théorie de l'EDQ n'était renormalisable qu'à la condition que la masse du photon soit nulle. Or les bosons massifs W et Z vecteurs de l'interaction faible rendaient impossible toute renormalisation (technique permettant de nettoyer les valeurs infinies des équations par exemple sur base expérimentale).

Le modèle proposé par Glashow, Salam et Weinberg devait donc en tenir compte, ne fut-ce que dans un mécanisme secondaire qui briserait la symétrie entre l'électromagnétisme et l'interaction faible.

Enfin, les théories de symétrie calculaient avec des champs scalaires, des valeurs pures, bref des particules sans masse (le modèle de Bludman), ce qui n'était pas conforme à la réalité.

Le mécanisme secondaire invoqué était une symétrie interne de la dynamique quantique électrofaible (de saveur) dans laquelle agissait une nouvelle force capable de créer des particules de masse non nulles, les bosons, sans introduire de termes infinis, c’est-à-dire tout en étant renormalisable.

Les mécanismes de Higgs

A partir de 1964, le physicien écossais Peter Higgs de l'Université d'Edimbourg et ses collègues Robert Brout, François Englert et Edgard Gunzig mirent au point cette théorie qui sera baptisée les "mécanismes de Higgs".

En 1971, Gerhard ’t Hooft de l’Université d’Utrecht démontra que la théorie de Yang-Mills pouvait briser sa symétrie tout en étant renormalisable. Cette hypothèse suppose l'existence d'un champ de Higgs constitué de bosons de Higgs sensibles à la densité d'énergie. Explications.

Questionnés par les médias, de nombreux physiciens ont essayé d'expliquer au public ce qu'est le boson de Higgs et un champ de Higgs. Mises à part les explications de John Ellis du CERN et d'Etienne Klein (mais déjà plus élaborée), le public n'a rien compris car la plupart des physiciens ont dévié du sujet sans vraiment l'aborder !

A voir : C'est quoi le boson de Higgs et comment on le recherche, John Ellis, 2012

Le boson de Higgs, Etienne Klein, 2013

La découverte du boson de Higgs, Sandrine Laplace, 2014

Des signaux du boson de Higgs découverts, Jessica Leveque, 2011

John Ellis et Etienne Klein comparent le champ de Higg à un champ de neige dans lequel on s'enfonce plus ou moins. Cette interaction est à l'origine de la masse des particules. C'est effectivement l'analogie la plus facile à comprendre. Il en existe une deuxième que voici.

En 1993, William Waldegrave, ministre britannique de la Science, lança un concours mettant au défi les scientifiques de donner l'explication la plus simple du boson de Higgs. Le lauréat proposa l'analogie suivante. Une salle est remplie d'un grand nombre d'invités à l'occasion d'un cocktail. Un personnage important arrive (dans l'histoire originale, il s'agit de Mrs Margaret Thatcher) et essaie de se frayer un chemin dans la foule. Aussitôt qu'ils reconnaissent la célébrité, les invités s'agglutinent autour d'elle, ce qui ralentit sa progression. Si au contraire une personne normale se présente, elle peut traverser la pièce sans peine.

En fait, l'analogie est assez fidèle. La foule représente le champ de Higgs qui remplit tout l'espace tandis que la notoriété de la personne est l'équivalent de la masse de la particule. Une particule comme le boson W ou Z, interagit fortement avec le champ de Higgs et voit sa vitesse réduire, ce qui correspond à une masse d'autant plus élevée que l’interaction est forte. A l'inverse, les particules qui n'interagissent pas avec le champ de Higgs, comme le photon et les gluons, se déplacent à la vitesse maximum, c'est-à-dire la vitesse de la lumière.

Cette théorie à des conséquences importantes. D'abord, les mécanismes de Higgs étant quantifiés, cela implique que tout l'univers devrait contenir des quantas appelés les bosons de Higgs. La masse des particules dépendrait de la manière dont ces dernières interagiraient avec les bosons de Higgs du vide quantique. En effet, cette théorie implique qu'en réalité les particules n'ont pas de masse mais entreraient continuellement en collision avec des bosons de Higgs, leur conférant une inertie apparente matérialisée par une certaine masse.

Seul problème, jusqu'en 2012 les bosons de Higgs n'avaient jamais été observés. Cela posait un problème fondamental car toute la théorie repose sur leur existence. Et comme nous le savons tous, une théorie invérifiable perd toute crédibilité. Ceci dit, l'une des missions des accélérateurs du LHC du CERN et du Tevatron du Fermilab consiste justement à tracer ce fameux boson de Higgs sur lequel repose le modèle Standard.

Les premiers signaux suspects sont apparus en 2012. Finalement, en mars 2013 le CERN confirma qu'une particule découverte un an auparavant présentait toutes les caractéristiques du boson de Higgs, ce qui valut le prix Nobel de Physique à Peter Higgs et François Englert.

Avec la découverte du boson de Higgs, la théorie devient cohérente. Ainsi, si un boson de Higgs interagit avec un boson W-, W+ ou Z° par exemple, celui-ci acquiert une masse (~125 GeV/c2) tandis que sa durée de vie est écourtée, passant de l'éternité à... 10-24 sec. Les particules qui n'interagissent pas avec le champ scalaire restent lumière, comme c'est le cas du photon; il vit éternellement. Mais ce n'est pas pour autant que le photon est inactif. Contenant de l'énergie il peut interagir avec des particules en créant ou en décomposant la matière.

A lire sur le blog : Le Prix Nobel de Physique 2013 attribué à Higgs et Englert (2013)

Le boson de Higgs sans doute découvert au CERN (2012)

Boson de Higgs, la découverte, Etienne Klein, 2012

La création des particules de Higgs

Production de particules de Higgs entre hadrons et leptons. A gauche, la transformation d’un quark bottom (b) en quark étrange (s) avec production d’une paire de muons μ-μ+. Cette décroissance requiert un courant neutre véhiculé par une hypothétique particule de Higgs, H°. A droite, l'annihilation d’une paire de quarks u-anti u avec production d’un boson Z° qui produit un boson de Higgs H° tandis que l’énergie restante crée une paire de muons μ-μ+. Document T.Lombry.

Un univers en surfusion

Mais d'autres problèmes d'ordre cosmologique restaient en suspens. Le pas crucial dans le développement de la théorie inflationnaire fut réalisé en 1978 par le physicien Alan Guth spécialiste des monopôles au MIT. Il se demanda pourquoi l’Univers ne s’était pas effondré directement après le Big Bang ? Il calcula en effet que si les hypothétiques monopôles avaient été aussi nombreux que les protons, l’attraction gravitationnelle aurait entraîné l’effondrement de l’Univers au bout de 6000 ans !

Pour entraver la production des monopôles, Alan Guth imagina un mécanisme équivalent à celui de la "surfusion" de l'eau. Par analogie, l'eau gelée présente une structure cristalline bien précise et doit libérer une certaine énergie, la chaleur latente. Si l'eau est impure ou salée, elle peut rester liquide sous zéro degré et un choc suffit à la faire changer d'état, c'est l'état de surfusion.

Fin 1979, Guth discuta de son idée en compagnie de Henry Tye et Sidney Coleman et finit par découvrir que la surfusion avait dû se produire à une température de 1027 K, époque qui vit la première brisure de symétrie. La phénoménale énergie qui fut libérée pendant cette phase inflationnaire permit de créer des particules.

Ce scénario explique la platitude de l’Univers, l’isotropie du rayonnement fossile et l’éparpillement des monopôles. Alan Guth[5] écrivit à ce propos : "Quelles que soient pratiquement les conditions initiales, l'Univers inflationnaire évolue précisément vers l'état qu'il devait assumer initialement dans le modèle Standard".

Physiquement parlant, nous savons que le bilan énergétique de l'Univers est nul mais que les particules virtuelles, alliées du vide quantique peuvent avoir des effets dans le monde réel. Les relations d'incertitudes garantissent néanmoins ce bilan énergétique en limitant notre approche.

Processus virtuels dont les effets sont observables

en vertu des relations d’incertitudes de Heisenberg

ΔE

10-5 eV

106 eV

109 eV

Δt

10-15 s

10-21 s

10-24 s

Si nous essayons de créer des particules élémentaires dans les accélérateurs modernes, nous découvrons que la durée de vie de ce processus doit être extrêmement courte, de l’ordre de 10-32 sec pour respecter les relations d’incertitudes de Heisenberg. Les particules qui peuvent exister durant ce court laps de temps sont des objets virtuels, des particules de matière et d'antimatière qui effleurent à la surface du monde, ayant juste le temps de réaliser une réaction avant de disparaître dans les profondeurs du potentiel d'énergie quantique. Ce bref instant suffit à créer les quarks, les neutrinos et les électrons. Mais comment formaliser cette idée et surtout quelle théorie pouvons-nous inventer pour concevoir un tel scénario ?

Autour d'Alan Guth[6], les physiciens Andreas Albrecht du Fermilab et Paul Steinhardt alors à Stanford ont imaginé un scénario où l'Univers, qui présentait à cette époque une taille subatomique, était dans une phase de transition, dans état similaire à la "surfusion". L'Univers aurait connu un état semblable lorsqu'il atteignit un seuil critique de température, 10-43 sec à 10-32 sec après le Big Bang selon les modèles.

Guth propose que certaines régions de l'Univers qu'il appelle des "bulles" formées au temps de Planck étaient 10000 K plus froide que le milieu ambiant, dans un état de "faux vide", c’est-à-dire que si le vide a par définition une pression nulle, les bulles doivent avoir une pression, ou plus exactement une densité d'énergie (de masse) négative, ce qui représente une énergie potentielle phénoménale.

Prochain chapitre

La détente du faux vide

Page 1 - 2 - 3 - 4 - 5 -


[5] A.Guth, Physical Review, D, 23, 1981, p347 - A.Guth et P.Steinhardt, Scientific American, 250, 1984, p116.

[6] A.Albrecht et P.Steinhardt, Physical Review Letters, 48, 1982, p1220 - A.Linde, Physics Letters, B,108, 1982, p389.


Back to:

HOME

Copyright & FAQ