George Black

Member
  • Content count

    5400
  • Joined

  • Last visited

  • Days Won

    10
  • Last Connexion

    Soon available - 42676

George Black last won the day on April 20

George Black had the most liked content!

Community Reputation

5899 Excellent

3 Followers

About George Black

  • Rank
    Hyperactive member

Personal Information

  • Instruments
    114/900

Recent Profile Visitors

9324 profile views
  1. J'ai été surpris aussi de constater que l'on pouvait distinguer les piliers à l'oeil nu !
  2. Vu depuis Besançon à l'oeil nu. Evolution clairement visible au cours du temps, avec notamment des pics d'intensité parfois remarquables ! La pollution lumineuse limite le spectacle. Mais je suis content d'avoir pu montrer cela à mes enfants. Par contre les photos sont très nulles, donc je ne les montre pas.
  3. Forge à neutrons !?

    2. Comment produire des neutrons ? b. La spallation ! La spallation est l'autre manière de produire des neutrons. On utilise un accélérateur de particules qui va accélérer des protons obtenus à partir d'un gaz de dihydrogène que l'on ionise. Les protons frappent ensuite une cible de tungstène refroidie. La collision entre les protons et les noyaux de tungstène va produire des neutrons dans diverses gammes d'énergie, qui là encore, vont permettre grosso modo de faire les même choses qu'à l'ILL (l'Institut Laue-Langevin). L'avantage de l'ESS (European Spallation Source) est que l'accélérateur est totalement alimenté électriquement en énergies renouvelables. On n'utilise donc pas de combustible nucléaire pour produire les neutrons, et l'énergie utilisée est verte. Quel est l'intérêt de l'ESS par rapport à l'ILL ? En fait, l'intensité des neutrons produite est moindre qu'à l'ILL. L'ILL reste et restera une source compétitive. En revanche, l'ESS permet de diversifier et surtout d'élargir au niveau européen la disponibilité des sources de neutrons pour la recherche scientifique. Par ailleurs, l'approche est séduisante dans la mesure où elle repose sur du renouvelable. A noter enfin que d'autres sources de neutrons pour la recherche existent ailleurs dans le monde : https://www.ncnr.nist.gov/nsources.html Actuellement, l'ILL passe pour être la plus compétitive. Si vous avez des questions n'hésitez pas.
  4. Forge à neutrons !?

    2. Comment produire des neutrons ? a. Le réacteur ! Le moyen le plus efficace et le plus simple de produire des neutrons est au cours de réactions de fission nucléaires. En gros, un réacteur nucléaire est une source de neutrons ! Traditionnellement, dans un réacteur visant à produire de l'électricité, les neutrons sont essentiellement freinés et absorbés, par exemple grâce à de l'eau. En effet, contrairement aux autres radiations, telles que les rayonnements gamma (qui sont des ondes électromagnétiques), les béta (qui sont des électrons ou antiélectrons) ou les alpha (des noyaux d'hélium), les métaux ne sont pas des bonnes protections contre les neutrons. En revanche, des matériaux comme l'eau, la paraffine, le polyéthylène, les composés du bore, sont bons à cela ! L'astuce si on veut transformer un réacteur nucléaire en source de neutrons est de disposer dans la piscine du réacteur des conduites, des tubes, qui vont servir à capturer et canaliser les neutrons. On peut ensuite sélectionner les neutrons en fonction de leurs énergies, et créer des faisceaux qui vont alimenter différentes expériences. En France, nous avons un laboratoire de renommée internationale pour cela : l'Institut Laue-Langevin à Grenoble ! Je vous invite à lire la page Wikipédia à son sujet : https://fr.wikipedia.org/wiki/Institut_Laue-Langevin cela permet de se faire une idée de l'importance fondamentale de ce réacteur pour la recherche ! Sur la page Youtube de l'institut, vous pourrez réaliser la richesse et la diversité des recherches qui y sont conduites ! Je précise que l'institut est avant tout un consortium international principalement européen. https://www.youtube.com/@InstitutLaueLangevin/videos Et si vous ne voulez pas tout voir à voir tout de même les petites vidéos de présentation :
  5. Forge à neutrons !?

    Salut la compagnie ! Besoin de quelques infos sur l'ESS ? Alors on y va ! 1. On va commencer par une histoire de neutrons ! Comme vous le savez, les neutrons, avec les protons, constituent les noyaux des atomes. Le neutron a été découvert par James Chadwick en 1932. Le neutron a une durée de vie en dehors du noyau d'environ 15 minutes. Il se désintègre en un proton, un électron, et un antineutrino. De masse comparable à celle des protons, le neutron, bien que neutre, possède un moment magnétique, autrement dit, il se comporte comme un petit aimant, tout comme le proton ou l'électron qui eux sont chargés. Cette particularité provient du fait que le neutron, comme le proton, est constitué de particules plus fondamentales, les quarks, qui elles sont chargées. Le neutron est produit notamment au cours des réactions de fission nucléaires, par exemple lors de la fission d'un noyau d'uranium 235. Les neutrons produits sont susceptibles à leur tour d'entrainer la fission d'autres noyaux d'uranium 235. Le neutron, de par ses caractéristiques, est une formidable sonde pour les physiciens : - Par exemple, s'il se déplace suffisamment lentement, à moins de 2 km/s, le neutron peut interagir avec la matière pour sonder les modes de vibration des matériaux solides à l'échelle moléculaire (on parle de phonons). Son moment magnétique permet également de sonder les propriétés magnétiques de la matière. L'analyse des neutrons diffusés par la matière permet ainsi d'obtenir des renseignements précieux en physique des matériaux, notamment à visée technologique. On peut même étudier ainsi les propriétés des protéines, ce qui présente un intérêt en biologie. Le neutron est une sonde de première importance en physique du solide. - Les neutrons peuvent pénétrer profondément la matière selon leur énergie (leur vitesse). De ce fait, on peut les utiliser comme on le fait avec les rayons X pour analyser des objets, que cela soit en mécanique, ou encore en archéologie (y compris sur des momies par exemple). La différence avec les rayons X est que la manière qu'ont les neutrons d'interagir avec la matière permet d'avoir des informations sur la matière contenue dans l'objet analysé. - Bien entendu, le neutron est présent dans les réacteurs nucléaires, et entraîne un vieillissement des matériaux qui constituent la centrale au niveau du cœur du réacteur. De fait, disposer d'une source de neutrons contrôlée permet d'étudier le vieillissement de ces matériaux pour optimiser la conception des centrales. - Par ailleurs, lorsque l'on bombarde certains matériaux avec des neutrons, on obtient ce que l'on nomme des radio-isotopes. Autrement dit, des matériaux radioactifs, généralement n'existant pas dans la nature, et qui présentent de nombreux atouts technologiques et médicaux. Notamment pour la scintigraphie médicale ou encore la radiothérapie. D'où l'intérêt de disposer de sources de neutrons. - Enfin, le neutron est une cible de choix pour détecter de la nouvelle physique, i.e. des phénomènes physiques qui ne sont pas prévus par le modèle standard de la physique des particules. Dans le cadre de ce dernier, on connait très très bien les propriétés du neutron. De fait, on cherche par exemple à mesurer des anomalies qui trahiraient une nouvelle physique : anomalie sur la durée de vie du neutron, anomalie sur son moment magnétique ou sur l'existence d'un moment dipolaire électrique, interactions nouvelles (cinquième force), oscillation avec des états cachés, etc... Donc, on le voit, le neutron est le couteau suisse du physicien (et même du chimiste et du biologiste, voir de l'ingénieur ou de l'archéologue), il faut des sources de neutrons !
  6. Pour rebondir sur les derniers commentaires, on peut néanmoins s'interroger sur comment les physicien(e)s construisent leurs hypothèses et comment ils construisent des modèles de cela. On a montré que finalement, la science construisait des cartes, et que la validation de ces cartes se faisait par leur confrontation au réel. J'entends par là, confrontation en tant que méthode que l'on peut éprouver face à d'autres, ou confrontation à des mesures physiques. De la multiplicité des confrontations s'opérera une sélection. Il y a vraiment quelque chose de darwinien dans la science, dans le sens où ce qui marche le mieux sera sélectionné (ou non) de par son adaptation (ou non) à la pratique, au réel. Mais au-delà de ça, y a-t-il une méthode pour construire une carte ? En fait, cela dépend ! Mais si je m'appuie sur mon domaine, celui de la physique au-delà du modèle standard (de la physique des particules) et d'une manière générale celui de la physique théorique, le point de départ d'une idée a souvent une base philosophique, ou ludique, voir une croyance (plus ou moins convaincue) de ce que pourrait être le monde. Ce qui nourrit ces réflexions, c'est une certaine culture générale, qui dépasse celle de la physique ou des mathématiques seules. Tout ceci contribue à se forger une certaine représentation intuitive du monde. Ainsi, pour reprendre plus ou moins les propos de Henri Poincaré : c'est par l'intuition que nous découvrons, c'est par la logique que nous prouvons. A ce stade, la science devient un art créatif avec une part de subjectivité. Mais cette créativité n'est rien sans maîtrise technique (par exemple, des mathématiques). De mon point de vue, il ne peut y avoir de physique théorique sans philosophie. On ne peut pas avancer sans avoir une certaine vision de ce que pourrait être le monde. Et cette représentation passe par la maîtrise du langage. J'aime à dire que contrairement à l'idée reçue, la physique n'est pas qu'un truc de forts en maths ! Pour faire de la physique, il faut être bon en math et bon dans les matières littéraires. Le langage permet de s'approprier le monde, de l'intuiter, les mathématiques permettent de donner un squelette logique à l'ensemble.
  7. Il y plusieurs aspects qui s'articulent entre eux. En biologie par exemple, il est d'usage dans les articles de prendre le temps de définir le "matériel et méthode". L'idée est de permettre à une autre équipe de tenter de reproduire une expérience, et le cas échéant d'en explorer les limites pour proposer éventuellement un autre "mat et met". A force d'essais et d'erreurs, on progresse collectivement vers des procédures dont la pratique a prouvé leur efficacité. In fine, avec les années, certaines procédures deviennent des standards qui finissent dans les ouvrages de cours. Il en est de même pour la science dans son ensemble. On propose des approches pour aborder et traiter un problème, les protocoles évoluent au contact de la pratique et de la réalité, et une sorte de sélection darwinienne s'opère. Il n'y a pas de "bureau de contrôle", mais une sorte d'ouvrage collectif à l'œuvre ! Quand on soumet un article à une revue, il est renvoyé à des reviewers. Encore une fois, un reviewer n'est pas sensé juger s'il est d'accord ou pas avec le contenu de l'article, il est juste sensé vérifier s'il est raccord avec les standards scientifiques. Qu'est-ce que l'on entend par là ? Tout simplement que s'il s'agit d'une expérience, les conditions permettant à une autre équipe de la reproduire y sont clairement détaillées, qu'il n'y a pas de tentative flagrante d'induire en erreur, de manipuler des données, qu'il n'y a pas d'erreurs logiques évidentes dans la conception ou l'analyse des résultats. S'il s'agit de calculs, on attend des vérifications, ou des estimations comparables à l'expérience, pas de contradiction avec la physique connue. Enfin, on attend simplement que l'article soit bien écrit, clair, didactique, pédagogique. On vérifie que les travaux d'autres confrères ayant antériorité ne soient pas ignorés. On vérifie que les résultats proposés soient réellement nouveau et d'intérêt, ou en tout cas que les auteurs expliquent en quoi c'est nouveau et d'intérêt. Mais un article accepté et publié ne pose pas une vérité ! Il expose une étape dans la recherche. Ce qui lui donnera du corps, c'est ce que d'autres en feront. Le débat scientifique, l'évolution de nos représentations, se fait à travers la publication d'articles. Donc, personne n'a décrété un jour ce qui était bien ou mal en science. Les gens proposent des choses, des idées, des méthodes, se confrontent aux autres, et surtout à la réalité qui est l'ultime sélection : toute méthode (de raisonnement par exemple) qui échoue à un moment est éliminée (exemple : la méthode X introduite par une équipe termine dans l'oubli, parce qu'après plusieurs essais, d'autres équipes concluent qu'elle induit souvent en erreur faute de reproductibilité). Avec le temps, des consensus s'opèrent. Il y a ensuite des habitudes qui sont transmises, avec la consigne de toujours les considérer dans leurs limites d'application. Après, on peut toujours évoquer une sociologie des sciences. Se demander s'il n'y aurait pas moyen de faire autrement. Maintenant, la meilleure preuve que la méthode fonctionne, c'est que la science justement fonctionne pour rendre compte de ce que l'on mesure, et fonctionne pour créer des solutions technologiques.
  8. Oui. Mais ce n'est pas l'idée en sciences. Pour une bonne et simple raison : la science ne prétend pas définir des vérités. La science propose juste un moyen de cartographier le monde. Si j'utilise une carte IGN et un système GPS, je peux parfaitement me repérer dans une région inconnue. La carte prédit parfaitement ma position et me permet de me déplacer exactement là où je veux. Mais la carte n'est pas la réalité. Elle n'est même pas une représentation fidèle de la réalité. Elle en est une modélisation. La science est utilitaire. Elle n'est pas une vérité concernant ce qu'est le monde. Elle en est une description. On lui demande seulement d'être efficace ! Et cette cartographie du réel est régulièrement remise à jour, ce qu'une vérité révélée ou établie ne fait pas. Euh... non. Je vais me faire taper dessus par @vaufrègesI3, mais c'est exactement ce qui m'énerve parfois : quand les philosophes commencent à parler de menuiserie sans comprendre à quoi sert une défonceuse ! S'il s'agissait de faire de la cuisine calculatoire pour simplement retrouver les bons résultats quand ça ne marche pas, la physique quantique et la physique statistique ne seraient qu'un gros paquet de pseudo science bullshit ! Or, la renormalisation obéit à des procédures autour de la notion de groupe de renormalisation. S'il s'agissait simplement de bidouiller les calculs, il n'y aurait pas de procédure standard, et simplement de la magouille calculatoire sans aucune rigueur, au cas par cas, relevant de l'escroquerie pour que les résultats collent avec ce qui est attendu. Or la renormalisation est bien une méthode avec ses règles. Et jusqu'à présent, ça marche tout le temps ! Pas quand ça nous arrange ! De quoi il s'agit ? Sinon pour en revenir à Popper, il ne faut pas trop prendre le principe au pied de la lettre dans son application par les scientifiques ! L'idée n'est pas d'avoir une théorie vraie, mais d'avoir une cartographie du monde efficace pour y naviguer. L'efficacité ne pouvant être obtenue que par la confrontation avec l'expérience, car la physique (pour ne parler que d'elle) est une science naturelle. Elle parle du monde, et on lui demande de nous aider à nous y retrouver dans ce monde. Tout le reste n'est que bla bla ! Le problème, c'est quand les physiciens commencent à confondre le modèle avec la réalité.
  9. Il faut se méfier du relativisme ! Car cela conduit à confondre les variétés de Calabi-Yau avec les morues, qui elles sont une variété de cabillaud !
  10. J'apporte une précision à mon dernier post. Le seul frein à l'innovation scientifique, c'est la problématique des sujets mainstream, dont l'origine n'est pas le sectarisme de la communauté scientifique, mais le problème du financement de la recherche. Sabine Hossenfelder en parle très bien dans sa dernière vidéo.
  11. Sinon, pour rester dans le thème du fil, au risque d'être provocateur, je ne suis pas loin de penser que l'on a actuellement trop de modèles, de théories. J'ai moi-même écris un travail sur les branes et la baryogénèse. Je trouve ça amusant, et en même temps, on ne peut s'empêcher de se dire : "Et quoi ? Tu as pondu un Nième modèle de la baryogénèse, et alors !?". Pour ne considérer que le problème de la baryogénèse, je ne serais même pas surpris que dans l'abondante littérature scientifique sur le sujet on trouve la bonne solution à ce problème. C'est juste que l'expérience manque pour discerner laquelle c'est ! C'est pour ça que je ris jaune quand j'entends des gens prétendre que les physiciens sont sectaires et ancrés dans leurs dogmes. On peut facilement se perdre dans la diversité des modèles dont regorge la littérature scientifique. Alors prétendre que la communauté est ancrée dans ses dogmes ! Quelle (mauvaise) blague ! In fine, c'est comme la gravitation à boucles, ok elle n'a peut être pas le même succès que la théorie des cordes ! Mais elle existe ! Et comme je le disais, toute idée, in fine, trouve son chemin, modeste peut être, mais quand même... Un truc qui n'est pas publié du tout, au point même de ne pas passer la barrière de l'éditeur, et même d'être jeté d'arXiv, c'est que forcément il y a un problème, et c'est pas un problème d'idée qui ne passe pas !
  12. ... c'est ineffable ! Oui. Après, je sais qu'il y eu quelques travaux qui semblent montrer que l'on pourrait avoir une théorie supersymétrique dans le bulk, mais pas à l'échelle de la brane (donc de notre univers).
  13. Petit résumé très simplifié des (super)cordes 1. Les cordes On part d'une idée pas débile issue d'observations en physique des particules : les particules fondamentales ne seraient pas des objets ponctuels, mais des objets à 1 dimension (les cordes). Pour que cela ait du sens en physique des particules, il faut décrire quantiquement ces objets. Ce n'est pas très compliqué à faire. Là, on constate des anomalies qui obligent à dire que pour que la théorie ait du sens, il faut que ces objets vivent dans un espace-temps à plus de 4 dimensions, il en faut 26 ! On nomme cet hyperespace le bulk. Ce n'est pas très compliqué à faire non plus, et ce n'est pas débile non plus. On sait depuis les travaux de Kaluza et Klein que l'on peut unifier les forces en ajoutant des dimensions aux équations de la relativité générale par exemple. On sait aussi que l'on peut faire "disparaître" en apparence les dimensions supplémentaires par un processus que l'on nomme "compactification". Le hic, c'est que ces théories ne passent pas la quantification : il apparait alors des infinis dans les calculs que l'on ne sait pas éliminer, c'est ce que l'on nomme un problème de renormalisation. Dans le cas des cordes, surprise, on trouve des modes de ces cordes qui correspondent à des particules de spin 2 et dont les équations à basse énergie permettent de retrouver les équations de la relativité générale. On a donc potentiellement une théorie qui quantifie la gravitation, et effectivement, on arrive à gérer les problèmes d'infinis traditionnels quand on essaye de quantifier la RG. Comme la théorie incorpore des dimensions supplémentaires, cela donne l'espoir en plus d'unifier les 4 forces d'interactions fondamentales. C'est tellement beau et élégant que l'on a envie que cela soit vrai ! (c'est mon propre ressenti de théoricien). Au passage, on voit apparaître un nouveau concept : la brane. Pour la faire en raccourci, il y a deux types de cordes : les cordes ouvertes et les cordes fermées. Les cordes fermées sont libres de se propager dans le bulk. Les cordes ouvertes ont leurs extrémités piégées sur une hypersurface que l'on nomme une brane. Cela n'est pas un truc parachuté, l'existence des branes s'impose mathématiquement. Notre propre univers serait une brane à 3 dimensions d'espace évoluant dans le bulk. 2. Les supercordes Problème : la théorie des cordes ne contient que des bosons, pas de fermions, il n'y a pas les champs de matière. Or, dans les tentatives de quantifier la RG, est apparu un drôle de truc, la supersymétrie (SUSY pour les intimes). En imaginant que l'on puisse transformer un boson en un fermion et réciproquement (dans une idée d'unification), on constate que les opérations mathématiques associées aux processus physiques qui permettent ces transformations, ont une propriété remarquable : elles sont associées aux transformations du groupe de Poincaré. En essayant d'introduire de manière ad hoc SUSY dans la théorie des cordes, on obtient une nouvelle théorie, la théorie des supercordes, qui contient à la fois les bosons et les fermions. Cette fois-ci, la théorie est à 10 dimensions. Jusque là, mathématiquement, rien de bien méchant. Mais tout de même une première objection : Il y a un vœux pieux, celui de la validité de SUSY en tant qu'approche apte à décrire la réalité. Mais admettons... L'objectif à ce stade est donc à minima de retrouver dans la théorie des supercordes le modèle standard de la physique des particules comme théorie de basse énergie. Cela signifie que l'on doit retrouver les mêmes symétries. Cela tombe bien, quand on compactifie les 6 dimensions supplémentaires, et à l'aide des branes, il est possible de construire des théories avec tout un tas de groupes de symétries possibles, et donc littéralement de créer tout un monde avec des particules diverses et variées... On se dit qu'il doit bien y avoir moyen de retrouver le modèle standard là-dedans !? 3. Compactification et variétés de Calabi-Yau Une remarque sur la compactification. L'idée est que les dimensions supplémentaires sont enroulées sur elles-mêmes. Une feuille de papier a 2 dimensions : si je l'enroule, je vais obtenir un tube, qui est toujours une surface à deux dimensions. A l'extrême, mon tube pourra se réduire à une tige très fine, voir à une ligne à une dimension ! Seule une observation à petite échelle prouvera que ma ligne est en réalité un objet à deux dimensions. Ainsi, on a le bénéfice de l'existence de dimensions supplémentaires, sans en avoir la perception directe à notre échelle. On pourrait alors se demander : qu'est-ce qui est responsable de cet enroulement ? En fait, rien ! Une dimension enroulée est dite "compacte". On suppose que les dimensions de notre espace usuel sont non compactes, mais elles pourraient l'être. Si on reste dans le domaine de la RG, il y a des solutions des équations d'Einstein qui correspondent à un contenu vide de matière, mais où les dimensions sont compactes. On parle de solutions Ricci-flat. En théorie des (super)cordes, les dimensions sont enroulées d'une manière telle qu'elles forment ce que l'on nomme des variétés de Calabi-Yau, qui sont Ricci-flat. 4. Là où ça commencent à merder... Le problème est qu'il existe un nombre de variétés de Calabi-Yau potentiellement compatibles avec la physique connue absolument colossal ! C'est déjà un problème en soi. Mais pour couronner le tout, on voit apparaître tout un tas de configurations sur la manière dont les cordes peuvent s'enrouler et interagir. Cela a donné lieu à toute la question de l'usage de la théorie mathématique des nœuds en théorie des cordes ou encore ce que l'on nomme les théories conformes. Et là, la théorie des (super)cordes commence à devenir très très compliquée. Déjà sur certains aspects mathématiques pointus, ensuite en terme de lourdeur des calculs. Un calcul est lourd quand il ne présente pas forcément de difficultés techniques, mais qu'il est très pénible à dérouler. En somme, on enchaine un grand nombre de lignes de calculs faisant intervenir des expressions mathématiques longues, faisant intervenir de nombreux paramètres, indices, etc... Il n'y a pas de subtilité mathématique, rien que des opérations communes, mais agencées et répétées d'une manière qui rend le calcul pénible et fastidieux, et très long à entreprendre. Cela donne dans les publications des phrases du style "after a tedious but straightforward calculation, one gets", sous entendu : "après un calcul pénible mais sans subtilité, on obtient". Il s'en suit le résultat. Si les programmes d'aide à la démonstration et les logiciels de calculs symboliques ont grandement aidé, cela ne fait pas tout ! Et on en est là. La théorie des (super)cordes, dès que l'on essaye d'aller vers du concret en lien avec le réel connu, est un édifice dont la lourdeur et la difficulté des calculs échoue à aboutir à quelque chose de réellement testable. Pire, on n'a jamais réellement retrouvé le modèle standard ! Cela ne signifie pas que la théorie des cordes ne marche pas, mais elle est trop compliquée pour être utilisable en l'état ! 5. Il n'y a vraiment rien de testable ? La théorie des cordes, à l'origine, est une théorie valide jusqu'à l'échelle de Planck. Mais on s'est assez vite demandé ce qu'elle donnerait à basse énergie (avant même d'essayer de retrouver le modèle standard). De fait, on retrouve des équations de Yang-Mills qui sont susceptibles de décrire les interactions fortes ou électrofaibles. C'est des choses de ce genre qui ont fait dire que la théorie des cordes retrouvait le modèle standard, mais c'est aller vite en besogne. De même, on s'est aperçut de certaines équivalences (correspondance AdS/CFT) avec certaines théories visant à quantifier la RG en incluant SUSY. Par ailleurs, la théorie des (super)cordes fait apparaître des champs typiques (les champs de Ramond-Ramond et de Kalb-Ramond). Dès lors, on a commencé à chercher des modèles qui sont des sortes de versions à basse énergie de la théorie des cordes, mais qui ne sont pas la théorie des cordes. Il s'agit de théories du champ mais incorporant des concepts inspirés de la théorie des cordes. Et c'est ce genre de choses que l'on cherche à tester ! Au mieux, on aurait confirmation que certaines idées inclues dans la théorie des cordes sont recevables, mais cela ne serait pas une démonstration de la théorie des cordes. Ce dernier point mérite que je détaille à travers un exemple. En théorie des (super)cordes, on montre que toute brane (que j'ai évoqué plus haut) peut se décrire par un champ ou un ensemble de champs scalaires décrivant ce que l'on nomme un mur de domaine. Or, toute brane décrite par un mur de domaine en terme de théorie des champs n'a pas nécessairement de contrepartie en théorie des cordes ! En somme, les branes décrites en terme de théorie des champs, sont plus générales dans leur description que les branes des cordes. En tout cas à basse énergie. Donc, prouver l'existence des branes n'est pas nécessairement une preuve de la théorie des cordes. 5. Qu'en disent les théoriciens des cordes ? Certains, pas tous, on tendance à tout ramener aux cordes. Il n'est pas rare de discuter avec un physicien des cordes qui confond "dimensions supplémentaires" avec "théorie des cordes". Ou comme je l'ai évoqué "brane" avec "théorie des cordes". Le terme de brane vient bien des cordes, mais les branes vivent aujourd'hui leur propre vie en dehors de ce cadre. Idem avec les dimensions supplémentaires... Donc, il y a chez certains un côté mauvais joueur, en mode : "tout ce que l'on trouve ailleurs et qui est aussi présent en théorie des cordes, fait partie de la théorie des cordes". Il y a aussi ceux pour qui "la théorie est tellement belle qu'elle est forcément vraie", au point que certains n'ont pas hésité à défendre l'idée que le principe de Popper était dépassé et qu'il fallait lui substituer l'élégance mathématique. Enfin, d'autres justifient la justesse de la théorie des cordes par le volume de publications qu'elle a produit !!! Face à ce genre de discours, j'ai souvent entendu des physiciens dire que les théoriciens des cordes n'étaient pas des physiciens ! Il faut tout de même soulever que cela a eu le mérite de pousser au développement d'outils mathématiques (théorie des nœuds, théories conformes,...) qui ont des retombées dans des domaines qui n'ont rien à voir avec la théorie des cordes, notamment en physique de l'état condensé.
  14. DESI et l'univers en 3D

    Je n'irai pas jusque là. Certes, si c'est confirmé, c'est un résultat d'importance majeure pour notre compréhension de ce qu'est l'énergie sombre. Et notamment pour espérer mieux connaître l'avenir de notre univers (entre Big Rip, Big Crunch, etc...). Mais je n'aime pas la notion de "qui défie notre compréhension". Cela a l'air de dire que les scientifiques sont convaincus que l'énergie sombre doit être constante dans le temps, et que si ce n'est pas le cas, on ne comprend plus rien ! Or ce n'est pas ce qui se passe. Il y a pléthore d'articles qui entendent se passer de la constante cosmologique (ce qui sera le cas si la découverte est confirmée) et qui cherchent à interpréter l'énergie sombre par l'existence de nouveaux champs. Si l'énergie sombre est constante, et qu'elle correspond bel et bien à un scénario de constante cosmologique, cela pose de profondes questions sur la nature de l'espace-temps. Dans le cas contraire, cela ouvre la porte à de nombreux scénarios, et en fonction des mesures à venir, cela pourrait permettre de faire le tri dans les nombreux modèles publiés.
  15. Durée de vie minimale de l'électron

    Deux mots (enfin... un peu plus ) 1. Concernant la durée de vie du proton et sa mesure. Je vais illustrer par un exemple. Certaines théories prédisent que le proton peut se désintégrer en une particule que l'on nomme un pion (qui est connue) et un antiélectron. (Note : une certaine manière de se désintégrer se nomme un canal de désintégration) Cette désintégration pion + antiélectron, si elle existe, est possible par exemple dans le noyau du fer. Si je dispose d'une masse de 3,5 tonnes de fer (en gros un cube de 76 cm de côté), cela représente quelques 10^30 protons. Si je suis pendant 1 an ce cube et que je n'observe pas la désintégration attendue (i.e. je ne détecte pas de pion et d'antiélectron émis conjointement), je peux affirmer que la durée de vie du proton (dans ce canal de désintégration) est supérieure à 10^30 ans. Si la durée de vie du proton était de l'ordre de 10^29 ans par exemple, cela signifierait qu'il faudrait attendre cette durée pour espérer observer la désintégration de ce proton. Mais ici, on parle d'un phénomène qui est statistique. C'est une durée de vie moyenne, et donc, si je considère une population de protons, certains se désintégreront plus tôt, d'autres plus tard. Donc, si j'ai 10^30 protons, on peut espérer qu'en 1 an, une dizaine se seront désintégrés. Donc, si je n'observe rien pendant 1 an, cela signifie que la durée de vie dans le canal étudié est supérieure à 10^30 ans. Ce qu'il faut comprendre, c'est que les durées de vie sont en fait reliées à des probabilités de désintégration par unité de temps que l'on nomme "taux de désintégration". Il faut éviter de raisonner en terme de (par exemple) "le proton a une durée de vie 10^21 fois supérieure à l'âge de l'Univers". Il faut raisonner en terme de taux de désintégration, par exemple : 2*10^(-39) /s (en considérant ici le "10^21 fois l'âge de l'Univers"). Cela se lit en disant que la probabilité que le proton se désintègre en 1 s est de 2*10^(-39). Je rappelle qu'une probabilité égale à 1 correspond à un événement certain, et une probabilité de 0 correspond à un événement qui ne se produira pas. On peut aussi dire qu'il y a 2*10^(-39) désintégration par seconde pour un proton. On a donc ici un événement excessivement peu probable, mais observable néanmoins. Si on observe 10^31 protons (35 tonnes de fer) pendant 5 ans (1,6*10^8 s) on peut donc espérer observer (10^31)*(1,6*10^8)*(2*10^(-39)) ~ 3 désintégrations. Ces expériences sont rendues compliquées par le fait que de nombreux phénomènes peuvent conduire à des faux positifs. Il s'agit donc d'expériences remarquablement soignées pour éviter la radioactivité des éléments chimiques utilisés dans l'expérience, pour se protéger du rayonnement cosmique, et pour éliminer par traitement du signal les événements indésirables. 2. Concernant la durée de vie de l'électron étudiée dans l'article. Le mécanisme sondé ici est la désintégration d'un électron dans un atome de germanium, plus particulièrement les électrons les plus près du noyau. Les canaux sont assez généraux, il s'agit de canaux conduisant à des états peu ou pas détectables (par exemple des neutrinos). Donc la détection de la disparition de l'électron se fait indirectement. La disparition de l'électron va se traduire par un réarrangement des couches électroniques qui va entraîner un signal électromagnétique spécifique. Comme pour la durée de vie du proton, les auteurs suivent, ici, un bloc de germanium. Comme ils n'observent rien sur le temps d'étude, ils en déduisent leur contrainte sur la durée de vie de l'électron. Ces expériences sont cruciales, car elles fournissent des tests pour de nombreux modèles au-delà du modèle standard de la physique des particules et qui justement savent calculer les taux de désintégration évoqués.