Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Les modèles alternatifs d'Univers

Introduction

Si la communauté scientifique des mathématiciens, des astrophysiciens, des cosmologistes et des physiciens théoriciens parmi d'autres adeptes des sciences dures revendiquent travailler exclusivement dans le cadre de la méthode scientifique, cela ne les empêche pas de faire des hypothèses et d'explorer des modèles d'Univers différents du nôtre ou de ceux qu'on apprend sur les bancs d'école. Voici un éventail de quelques théories alternatives choisies face auxquelles il vaut parfois mieux être bien assis. Ce résumé pourra évoluer si d'aventure quelqu'un proposerait une nouvelle théorie intéressante, entendons qui soit vérifiable et prédise quelque chose.

L'espace-temps superfluide

Même si l'espace n'a que trois dimensions, il y a toujours une quatrième dimension temporelle. Nous pouvons donc visualiser mathématiquement parlant et ressentir par nos sens un univers dans un espace-temps à quatre dimensions.

Selon une théorie publiée par Stefano Liberati de l'International School for Advanced Studies et Luca Maccione de l'Université Ludwig Maximilian dans les "Physical Review Letters" en 2014 (en résumé dans "Nature"), ce n'est pas seulement un cadre de référence abstrait contenant des objets physiques comme les étoiles et les galaxies, mais une substance physique en soi, analogue à l'eau de l'océan. Tout comme l'eau est composée d'innombrables molécules, selon cette théorie l'espace-temps est constitué de particules microscopiques à un niveau de réalité plus profond que nos instruments ne peuvent atteindre.

Cette théorie visualise l'espace-temps comme un superfluide ayant une viscosité nulle. Une propriété étrange de ces fluides est qu'ils ne peuvent pas être mis en rotation de manière générale, comme le fait un liquide ordinaire lorsqu'on le remue. Ils se brisent en minuscules vortex - qui, dans le cas de l'espace-temps superfluide, peuvent être les germes à partir desquelles se forment les galaxies. Cela ressemble à une variante de la théorie de l'Ordre implicite de David Bohm. Espérons qu'elle ait plus de succès que sa consoeur.

L'univers holographique

Au début des années 1960, le physicien théoricien David Bohm (1917-1992) proposa la théorie de l'Ordre implicite qu'il adapta ensuite avec le neurophysiologue Karl Pribram (1919-2015) pour aboutir en 1971 au concept d'univers holographique. Selon les auteurs, l'univers serait un immense champ quantique dans lequel la conscience projette la perception des informations qu'elle reçoit d'une entropie, une potentialité abstraite qui contiendrait tous les possibles.

Document Freepik/TU Wien, maquette T.Lombry.

Leur théorie purement spéculative n'a jamais été confirmée par la moindre expérience ni validée et s'est éteinte à leur décès. Toutefois, des chercheurs ont repris l'idée et imaginé que l'Univers serait une projection holographique.

Un hologramme est un objet bidimensionnel codant une image tridimensionnelle complète. Contrairement aux premiers hologrammes monochromes, actuellement on peut créer des hologrammes en couleurs (cf. Hyper-HOL).

Selon la théorie de l'univers holographique, l'ensemble de l'Univers tridimensionnel peut être "codé" sur une surface. Ce principe fut également appliqué aux trous noirs. Cette théorie est scientifiquement testable.

Dans un article publié dans les "Physical Review Letters" en 2017 (cf. le résumé), des chercheurs de l'Université de Southampton, au Royaume-Uni, ont montré qu'un univers holographique correspondait au modèle des fluctuations du rayonnement cosmologique. Ils ont en effet découvert que certaines des théories quantiques des champs les plus simples pouvaient expliquer presque toutes les observations cosmologiques de l'univers primitif.

Selon Kostas Skenderis, coauteur de cet article, "l'holographie est un énorme pas en avant dans la façon dont nous pensons à la structure et à la création de l'Univers. La théorie de la relativité générale d'Einstein explique très bien presque tout à grande échelle dans l'Univers, mais commence à s'effilocher en examinant ses origines et mécanismes au niveau quantique. Les scientifiques travaillent depuis des décennies pour combiner la théorie de la gravité d'Einstein et la théorie quantique. Certains pensent que le concept d'nivers holographique a le potentiel de réconcilier les deux. J'espère que nos recherches nous feront franchir une nouvelle étape dans cette direction."

On reviendra sur ce modèle à propos du trou noir et le principe holographique (la correspondance AdS/CFT).

Pour plus d'information, consultez la "bible" de Michael Tablot, "The Holographic Universe" publié en 1996.

La théorie de la simulation

La sortie du film "Matrix" des réalisatrices Wachowski en 1999 où la vie des humains est une projection de leur esprit créée par une superintelligence artificielle, fut un choc à la fois esthétique, intellectuel et culturel pour tous les spectateurs. Il semblait en effet nous donner un avant-goût du futur dystopique de notre société et son attirance immodérée pour un monde informatique toujours plus connecté et plus technique au point que la quadrilogie est devenue un phénomène de société. Le mot "matrice" est entré dans le vocabulaire pour qualifier toutes les manipulations dont nous ferions l'objet et tous les amateurs de jeux vidéos et d'Internet savent ce qu'est un avatar. Les interprétations autour des thèmes abordés dans "Matrix" dont ceux de la simulation, des mondes virtuels, du transhumanisme, du traçage des individus, des hackers et indirectement de l'Internet global, des "fakes news" et autres théories complotistes, font l'objet de reportages et sont même instrumentalisées par des groupes de pression et des politiciens populistes.

On peut en effet se poser la question : vivons-nous dans une simulation informatique ? La question paraît absurde. Il y a pourtant des physiciens, des ingénieurs en informatique, des astrophysiciens, des professeurs de physique et des philosophes qui sont convaincus que cela est non seulement possible, mais sans doute probable.

Document 123RF.

Dans ses "Méditations sur la philosophie première" publiées en 1641, le philosophe et mathématicien français René Descartes écrivit : "je supposerai que mes certitudes les plus établies sont en fait un mauvais tour joué par un être tout puissant qui aurait décidé de me tromper." Autrement dit, même un grand penseur comme Descartes dont on dit qu'il n'avait d'égal que Newton, doutait de la réalité du monde et n'avait aucune objection à opposer à cet argument.

Depuis des millénaires, les philosophes se sont interrogés sur la nature de la réalité. En fait, certaines des idées de la théorie de la simulation sont similaires aux idées générales qu'on retrouve dans les leçons philosophiques de Platon.

Les philosophes contemporains ne pensent pas nécessairement à un concept de simulation aussi sophistiquée que dans "Matrix", mais de nombreuses personnes ont constaté que la théorie de la simulation est une version moderne de l'allégorie de la Caverne de Platon ou de l'hypothèse du démon diabolique de Descartes qui pose la question de savoir comment être certain que le monde dans lequel nous vivons n'est pas le produit d'une illusion imposée par un démon maléfique ?

Depuis longtemps, les scientifiques s'opposent aux philosophes adeptes de la phénoménologie (cf. Fitche, Hegel, Husserl, etc) qui affirment que toute connaissance y compris les données instrumentales objectives sont finalement interprétées par notre cerveau via nos sens. Pour les scientifiques, la Connaissance n'est pas un matière subjective et pour éviter ce piège, la méthode scientifique a justement été inventée pour écarter tous les préjugés et biais des expériences sensibles (cf. la philosophie des sciences).

Einstein avait beau dire "J'aime penser que la Lune est là même si je ne la regarde pas", certaines scientifiques se demandent si la réalité ne serait pas une illusion ?

Si certaines personnes prennent cette théorie au sérieux, elle n'a jamais franchi le crible de la théorie scientifique car il n'existe aucun moyen de prouver qu'elle est vrai ou fausse. En fait c'est l'une des rares théories inventées non par des scientifiques mais par des philosophes.

Nombre de bits d'information requis pour la simulation

Dans l'hypothèse où l'univers serait une gigantesque simulation, le physicien Melvin Vopson de l'Université de Portsmouth en Angleterre a fait le pari de calculer la quantité d'informations nécessaires pour la faire fonctionner.

En 1961, le physicien germano-américain Rolf Landauer qui travaillait chez IBM proposa une relation d'équivalence entre l'information et l'énergie, puisque l'effacement d'un bit numérique dans un ordinateur produit une infime quantité de chaleur, une forme d'énergie.

En 1948, le mathématicien et ingénieur américain Claude Shannon démontra dans un article intitulé "A Mathematical Theory of Communication" que l'efficacité maximale à laquelle l'information pourrait être transmise pouvait être mesurée par la quantité d'informations transmises. Pour ce faire, Shannon inventa le concept du bit d'information. Prenant la valeur 0 ou 1, le bit est utilisé pour mesurer des unités d'information, tout comme la distance est mesurée en mètres ou la température est mesurée en degrés.

Sur base de la célèbre équation d'Einstein E = mc2 qui établit une équivalence entre l'énergie et la masse, Vopson estima qu'il pourrait exister une relation similaire entre l'information, l'énergie et la masse. Selon Vopson, "En utilisant le principe d'équivalence masse-énergie-information, j'ai supposé que l'information pourrait être une forme dominante de matière dans l'Univers." L'information pourrait même expliquer la matière sombre, la substance mystérieuse qui constitue la plus grande partie de l'Univers.

Vopson entreprit de déterminer la quantité d'informations dans une seule particule subatomique, tel qu'un proton ou un neutron. Ces particules composites peuvent en effet être entièrement décrites par trois paramètres fondamentaux : leur masse, leur charge et leur spin ou taux de rotation, qu'on peut considérer comme des "informations".

En utilisant les équations de Shannon, Vopson calcula qu'un proton ou un neutron devrait contenir l'équivalent de 1509 bits d'information codées. Vopson calcula ensuite une estimation du nombre total de particules contenues dans l'Univers observable - environ 1080, ce qui concorde avec les estimations précédentes - pour déterminer le contenu total en informations de l'Univers. Vopson arrive au nombre hallucinant d'environ 6 x 1080 bits d'information (1 billion = 1000 milliards ou 1012, cela représente 600 millions de billions de billions de billions de billions de billions de billions de bits de mémoire). Ses résultats furent publiés dans la revue "AIP Advances" en 2021.

Selon Vopson, "même si le nombre résultant est astronomique, il n'est toujours pas assez grand pour tenir compte de la matière sombre contenue dans l'Univers." Dans ses travaux antérieurs, il avait estimé qu'environ 1093 bits d'information - un nombre 10 billions de fois plus grand que celui qu'il a calculé - seraient nécessaires pour en tenir compte.

Vopson avoue que "Le nombre est plus petit que ce à quoi je m'attendais", ajoutant qu'il ne savait pas pourquoi. Il se peut que des données importantes n'aient pas été prises en compte dans ses calculs, qui se concentraient sur des particules subatomiques mais ignoraient des particules élémentaires comme les électrons, les neutrinos et les quarks, encore plus nombreux car, selon Vopson, seuls les protons et les neutrons peuvent stocker des informations dans leurs états quantiques. Mais Vopson admet qu'il est possible que ce postulat soit faux et que d'autres particules puissent également stocker des informations.

Cette possibilité serait une raison plausible pour laquelle ses résultats sont si différents des calculs antérieurs du nombre d'informations totale de l'Univers, qui ont tendance à être beaucoup plus élevés. Cela revient à regarder l'arbre qui cache la forêt...

Bien que de tels calculs puissent ne pas avoir d'applications immédiates, ils pourraient être utiles aux spécialistes qui spéculent sur la réalité de l'Univers visible et estiment qu'il s'agirait d'une gigantesque simulation informatique.

La théorie de la simulation de Nick Bostrom (2003)

Dans un article publié dans "The Philosopher Quaterly" en 2003 (lire aussi cet article), le philosophe Nick Bostrom de l'Université d'Oxford a suggéré que les civilisations avancées dotées d'une puissance de calcul très massive pourraient élaborer des simulations de leurs ancêtres - nous - et, étant donné la sophistication de leur technologie, nous ne saurions pas que nous ne sommes rien de plus que les données de programmes informatiques. Pire, comme s'en inquiéta Descartes à sa façon, il semble impossible de prouver que nous vivons dans un univers réel car toute "preuve" pourrait faire partie du programme.

"I.A." de Steven Spielberg (2001) où quand un monde cybernétique bascule dans un lointain futur dans la simulation. Document DreamWorks Films/Warner Bros.

Dans un registre plus poétique, cela rappelle le film "I.A." de Steven Spielberg (2001) où finalement les descendants très évolués de l'humanité parviennent à reconstruire physiquement la journée d'un enfant androïde (un mécha) grâce à l'ADN d'une boucle de cheveux de la mère adoptive qui l'abandonna.

Pour appuyer sa théorie, Bostrom considère qu'au moins une des cinq possibilités suivantes est vraie :

1) Nous pouvons détruire notre civilisation avant de développer la capacité technologique de créer des réalités simulées.

2) Si une civilisation atteint cette phase de maturité technologique, des considérations éthiques pourraient l'empêcher de les créer.

3) Nous pourrions perdre tout intérêt pour le progrès scientifique et vaquer à d'autre tâches.

4) Des limitations technologiques rendent peut-être la simulation de mondes impossible.

5) Les civilisations avancées auraient la capacité de créer de très nombreuses simulations, ce qui signifie qu'il y a beaucoup plus de mondes simulés que de mondes non simulés.

Bostrom conclut que nous ne pouvons pas savoir avec certitude lequel de ces postulats est vrai, mais ils sont tous possibles, la cinquième possibilité pouvant même être le résultat le plus probable.

Malheureusement aucun de ces arguments n'est recevable pour un scientifique car ce sont des spéculations. Un scientifique accepte d'étudier un sujet à condition qu'il soit possible de le démontrer et qu'il existe des preuves de ce qu'il avance. De plus, il n'aime pas s'en remettre au "bon sens" qui est source d'erreurs grossières. Certes, il faut faire des hypothèses pour progresser mais un jour où l'autre il faut les prouver.

Bostrom rappelle qu'il existe deux types de probabilités : la probabilité subjective et la probabilité objective. La probabilité objective que nous soyons dans une simulation de la réalité est de 100% ou de 0%, parce qu'il n'y a pas d'alternative. En revanche, la probabilité subjective dépend de ce que nous savons et apprenons. Plus nous accumulons d'informations sur une situation à un instant donné, plus la probabilité est élevée de connaitre le résultat (cf. le jeu de dé ou la loterie). Hier on ne connaissait rien de l'Univers et tout était possible, demain nous en saurons plus qu'aujourd'hui et pourrons éliminer certaines hypothèses.

Au cours d'une émission avec Larry King diffusée le 5 avril 2016 dans le cadre du 17e débat commémoratif à Isaac Asimov (cf. aussi le podcast publié par l'AMNH et "Scientific American"), l'astrophysicien et vulgarisateur américain Neil deGrasse Tyson, directeur du planétarium Hayden au musée américain d'Histoire Naturelle de New York (AMNH) s'est demandé si nous étions des êtres virtuels vivant dans une simulation informatique ? Si tel est le cas, la simulation créerait très probablement des perceptions de la réalité à la demande plutôt que de simuler toute la réalité en permanence, un peu comme un jeu vidéo optimisé rendrait visible que les parties d'une scène utiles au joueur. L'humoriste Chuck Nice, co-animateur de StarTalk répondit : "C'est peut-être pour cela que nous ne pouvons pas voyager plus vite que la vitesse de la lumière, car si nous le pouvions, nous pourrions nous rendre dans une autre galaxie." Mais Tyson l'interrompit joyeusement disant : "Avant qu'ils ne puissent le programmer. Donc, le programmeur a mis cette limite."

De telles conversations peuvent sembler futiles. Mais depuis que Nick Bostrom a écrit son article fondateur sur l'argument de la simulation en 2003, les philosophes, les physiciens, les ingénieurs et finalement beaucoup de personnes se sont prises au jeu et estiment qu'il est possible que notre réalité soit un simulacre. Encore faut-il le prouver.

On peut essayer de déterminer si nous sommes des êtres simulés. Selon Bostrom, la probabilité subjective qui nous vivions dans une simulation informatique devrait être directement proportionnelle à la probabilité que l'humanité crée un jour des mondes simulés. Cette probabilité est d'environ 20%. Comment Bostrom obtient-il ce résultat ?

Etant donné que nous ne savons rien, chaque postulat est également probable. Nous devons donc attribuer à chacun une probabilité égale. Bostrom propose 5 possibilités. Donc 100 divisé par 5 font 20. Il y a donc 20% de chances que nous perdions tout intérêt, 20% de chances que ce soit technologiquement impossible, mais il est aussi 20% de chances que nous créions un jour des mondes simulés. Si nous le faisons, logiquement il est pour ainsi dire programmé que nous sommes dans un monde simulé. Mais il y a des raisons pour que cette éventualité ne se concrétise jamais. Ainsi, en émettant toujours plus de dioxyde de carbone dans l'atmosphère, un réchauffement planétaire incontrôlable est inévitable et la planète pourrait devenir inhabitable. Cela réduirait considérablement la probabilité subjective que nous développions des mondes simulés, et donc la probabilité subjective que nous vivions dans l'un d'entre eux.

Peut-on augmenter cette probabilité ? Oui, puisqu'il s'agit d'une probabilité subjective; elle augmente quand on recueille de nouvelles informations (sur l'avenir proche). Comme le rappela Neil deGrasse Tyson en 2016, les chances que notre univers soit une réalité simulée sont de 50-50. Il souligna le grand écart d'intelligence entre les chimpanzés et les humains malgré notre ADN identique à 98%, arguant qu'une créature beaucoup plus intelligente que nous pourrait à la fois exister et potentiellement exécuter des simulations.

Mais 20 ou 50% de chances de vivre dans une simulation, cela signifie surtout qu'il y a plus de chances que nous vivions dans la réalité concrète, c'est-à-dire que nous menions une existence réelle qui n'est pas simulée. Ouf !

L'étude de Bostrom démontre également que si les humains développaient un jour la capacité de simuler des êtres conscients, les chances pencheraient massivement en notre faveur également, étant des résidents virtuels évoluant à l'intérieur de l'ordinateur de quelqu'un d'autre. Il y a cependant un bémol en forme de mise en garde à cette conclusion car personne n'est d'accord sur le sens exact du terme "conscience", sans parler de la façon dont on pourrait s'y prendre pour créer cette simulation.

En 2019, Rizwan Virk, informaticien et concepteur de jeux vidéo publia un livre intitulé "The Simulation Hypothesis" dans lequel il explore l'argument de Bostrom de manière beaucoup plus détaillée et trace le chemin de la technologie actuelle jusqu'à ce qu'il appelle le "Point de simulation", le moment où nous pourrons construire de manière réaliste une simulation à la "Matrix".

Certains se sont opposés à l'argument de Bostrom disant que la puissance de calcul nécessaire pour simuler la totalité de l'Univers, jusqu'à chaque atome et en deçà, est tout simplement irréalisable. Mais un monde simulé n'aurait pas à se soucier de tout simuler. En effet, il n'aurait pas à simuler chaque atome de la Lune quand on la regarde; il suffirait simplement d'envoyer au cerveau un signal "je vois la Lune" pour l'imaginer. Ce n'est que si nous commencions à examiner les choses au niveau atomique que cela vaudrait la peine de rendre l'environnement concret à cette échelle, et uniquement quand et où cela doit être observé.

L'ordinateur n'aurait pas besoin d'attribuer un emplacement ou une impulsion spécifique aux particules; une équation représentant la trace de l'endroit où elles seraient probablement lorsqu'elles ont été mesurées suffirait largement. Elle sera appliquée pour visualier l'objet le temps de faire la mesure à un endroit donné.

De plus, les particules individuelles n'ont pas d'emplacement ou de quantité de mouvement. Ce sont des fonctions d'ondes - des équations d'états - jusqu'à ce qu'elles soient mesurées. Et le fait que nous soyons dans un monde simulé pourrait parfaitement expliquer pourquoi elles ne s'effondrent pas tant qu'elles ne sont pas mesurées ! (cf. les articles L'interprétation de la physique quantique et Comprendrons-nous jamais la physique quantique ?). La simulation sait que nous effectuons une mesure et sait donc qu'elle doit réduire la fonction d'onde à l'instant de la mesure.

Pour soutenir l'idée de Bostrom, en 2013 le professeur d'ingénierie Christopher Rose de l'Université Rutgers et le physicien théoricien James Gates de l'Université du Maryland ont publié un article décrivant la découverte au plus profond des équations de la théorie des supercordes d'étranges "codes de correction d'erreurs" similaires à ceux qu'on a inventé pour s'assurer de l'intégrité des données informatiques. Selon Gates, trouver ce type de code dans un univers qui n'est pas calculé est "extrêmement improbable". Il rappelle que "les codes de correction d'erreurs permettent aux navigateurs Internet de fonctionner, alors pourquoi figuraient-ils dans les équations que j'étudiais sur les quarks, les leptons et la supersymétrie ? C'est ce qui m'a amené à réaliser que je ne pouvais plus dire que des gens comme Max [Tegmark] sont fous. Ou, dit d'une autre manière, si vous étudiez la physique assez longtemps, vous aussi pouvez devenir fou."

Et de fait, dans "The Guardian", Max Tegmark, professeur de physique au MIT déclara : "Est-il logiquement possible que nous soyons dans une simulation ? Oui. Sommes-nous probablement dans une simulation ? Je dirais non."

A voir : 2016 Isaac Asimov Memorial Debate: Is the Universe a Simulation?

Même Elon Musk de SpaceX qui tente sa chance dans le secteur de la robotique a sa petite idée. Lors de la Conférence Code en 2016, il déclara : "Il y a quarante ans, nous avions Pong – deux rectangles et un point. C'est là que nous en étions. Aujourd'hui, 40 ans plus tard, nous avons des simulations photoréalistes en 3D avec des millions de points et c'est de mieux en mieux chaque année. Et bientôt nous aurons la réalité virtuelle, nous aurons la réalité augmentée. Si vous supposez qu'un taux d'amélioration s'applique à tout, alors les jeux deviendront indiscernables de la réalité."

Que penser de cette théorie alternative ? La physique quantique ne prouve pas que nous sommes dans une simulation informatique. Mais puisque l'hypothèse de la simulation expliquerait si bien la mécanique quantique - elle explique ce qu'est une fonction d'onde, elle explique le problème de la mesure - peut-être faut-il considérer sérieusement que cette hypothèse est une interprétation possible de la physique quantique. Mais nous sommes encore loin de passer de l'idée folle au paradigme.

La théorie de l'univers neuronal de Vitaly Vanchurin

Parmi les rares autres études abordant la théorie de la simulation mais qui, comme nous allons le découvrir, s'en démarque assez bien, il y a la théorie de l'univers constitué de réseaux de neurones ou univers neuronal de Vitaly Vanchurin, professeur de physique à l'Université Duluth du Minnesota.

En 2008, Vanchurin publia un article sur "arXiv" (non validé) qui fut finalement publié dans la revue "Entropy" en 2020 soit 12 ans plus tard. Ce délai inhabituellement long (un article académique est généralement validé en quelques mois) s'explique par la réticence de ses confrères à valider la théorie qu'il propose. 

Dans cet article, Vanchurin suggère que nous vivons dans un immense réseau neuronal qui régit tout ce qui nous entoure : il y a une "possibilité que l'univers entier à son niveau le plus fondamental soit un réseau neuronal." L'auteur soutient que les réseaux neuronaux artificiels peuvent "afficher des comportements approximatifs" des deux théories cadres, la physique quantique et la relativité générale. Étant donné que la physique quantique "est un paradigme remarquablement efficace pour modéliser des phénomènes physiques sur une large gamme d'échelles, il est largement admis qu'au niveau le plus fondamental, l'univers entier est régi par les règles de la mécanique quantique et même la gravité devrait en quelque sorte en sortir. Nous ne disons pas seulement que les réseaux de neurones artificiels peuvent être utiles pour analyser des systèmes physiques ou pour découvrir des lois physiques, nous disons que c'est ainsi que le monde qui nous entoure fonctionne réellement. A cet égard, il pourrait être considéré comme une proposition de Théorie de Tout, et en tant que tel, il devrait être facile de prouver qu'il est faux."

Document whiteMocca/iStock.

Cet article unique en son genre fut évidemment publié pour faire réagir la communauté scientifique. Mais il est si débridé et audacieux que dix ans plus tard les physiciens et des experts en apprentissage automatique (Machine Learning) n'y avaient toujours pas répondu. Pourquoi ? Parce que les chercheurs sont conservateurs et doutent des conclusions de Vanchurin. Voyons plus en détails sa théorie.

D'abord comment Vanchurin définit-il un univers neuronal ? Il y a deux définitions possibles : soit d'un point de vue biologique et thermodynamique soit d'un point de vue physique.

Nous savons que le cerveau fonctionne grâce aux interactions entre quelque 100 milliards de neurones. Comme le font les informaticiens et les cybernéticiens, on peut donc partir d'un modèle précis de réseaux neuronaux pour décrire le comportement d'un système. Allié à l'apprentissage automatique cela fonctionne plutôt bien dans les systèmes experts et chez les robots de dernière génération même s'ils commettent encore des erreurs ou si les robots chutent encore sur des obstacles, révélant les faiblesses de ces systèmes dotés d'intelligence artificielle mais qui restent avant tout des machines.

Pour comprendre comment Vanchurin eut cette idée, il faut consulter son article sur l'apprentissage profond (Deep Learning) publié en 2020 sous le titre "Towards a theory of machine learning" (Vers une théorie de l'apprentissage automatique). L'idée initiale était d'appliquer les méthodes de la mécanique statistique au comportement des réseaux de neurones. Mais cette approche présente certaines limites liées à la dynamique d'apprentissage (d'entraînement) des réseaux neuronaux qui est très similaire à la dynamique quantique. Vanchurin a donc exploré l'idée que le monde physique serait en fait un réseau neuronal.

C'est ainsi qu'à partir des équations de la physique quantique Vauchurin est parvenu à décrire le comportement d'un système près de l'équilibre tandis que les équations de la mécanique classique permettent de décrire un système éloigné de l'équilibre (cf. la thermodynamique). Selon Vanchurin, ce n'est peut-être pas une coïncidence car "pour autant que nous le sachions, la mécanique quantique et classique est exactement la façon dont fonctionne le monde physique."

Du point de vue physique, depuis plus d'un siècle nous n'avons pas été en mesure de réconcilier les deux théories cadres dans un modèle unifié. C'est ce qu'on appelle le problème de la gravité quantique. Il se focalise autour du problème de la mesure dans les contextes de la mécanique quantique et de la cosmologie, auxquels certains veulent ajouter l'effet de l'observateur.

A ce jour, beaucoup de théories unifiées ou "Théorie de Tout" (ToE ou Theory of Everything) ont été proposées et autant ont échoué à décrire la réalité. Pour la grande majorité des physiciens, une théorie unifiée doit émerger de la physique quantique mais personne ne sait exactement comment s'y prendre. Ne voyant que des voies sans issue dans le cadre actuel, Vanchurin envisage une autre possibilité : un réseau neuronal microscopique serait la structure fondamentale et tout le reste, c'est-à-dire la physique quantique, la relativité générale et les observateurs macroscopiques, en émerge. Selon Vanchurin, c'est une voie prometteuse. Malheureusement, il est le seul à le penser.

Selon Vanchurin, pour prouver que sa théorie est fausse, "il suffit de trouver un phénomène physique qui ne peut pas être décrit par des réseaux neuronaux." Peut-on y parvenir ?

Selon la théorie de Vanchurin, tout ce qui existe est un réseau neuronal et donc pour prouver que la réalité est différente, il suffit de trouver un phénomène qui ne peut pas être modélisé par un réseau neuronal. Mais en pratique, Vanchurin reconnait que c'est une tâche très difficile car on connait encore très peu de choses sur le comportement des réseaux neuronaux et sur le fonctionnement réel de l'apprentissage automatique. D'où son intérêt de développer en priorité une théorie de l'apprentissage automatique.

Quant au problème de la mesure - l'effet lié à l'observateur - nous connaissons l'interprétation classique mais que détestent les physiciens qui renvoient les intéressés vers les philosophes, celle des univers multiples selon Hugh Everett qui a toujours de nombreux supporters, et celle de l'Ordre implicite de David Bohm mais qui disparut des radars au décès de Bohm ou n'est reprise que par des pseudoscientifiques voire quelques psychanalystes qui voient dans la théorie panpsychique de Bohm qui relie la matière à l'esprit, une explication des phénomènes paranormaux. Comme on le constate toutes ces tentatives d'explications restent très délicates car s'il y a bien parfois un début de formalisme mathématique, aucune expérience ne les valide. En effet, on peut spéculer sur tout mais un jour il faut bien prouver ce qu'on dit ! Et à ce jeu, les théories alternatives sont souvent abattues dès la première salve de questions de leurs détracteurs.

Vanchurin estime que sa théorie peut apporter quelque chose aux théories à variables cachées (cf. le paradoxe EPR). Selon Vanchurin, "Dans la mécanique quantique émergente que j'ai considérée, les variables cachées sont les états des neurones individuels et les variables pouvant être entraînées (telles que le vecteur de biais et la matrice de poids) sont des variables quantiques. Notez que les variables cachées peuvent être non locales et donc les inégalités de Bell sont violées. Une localité spatio-temporelle approximative devrait émerger, mais à proprement parler, chaque neurone peut être connecté à tous les autres neurones et le système n'a donc pas besoin d'être local."

Comme David Bohm avant lui, Vanchurin estime que sa théorie à variables cachées peut expliquer la sélection naturelle au coeur de la théorie de l'Évolution. Selon Vanchurin, "Il existe des structures ou sous-réseaux du réseau neuronal microscopique qui sont plus stables que d'autres. Les structures les plus stables survivraient à l'évolution tandis que les structures les moins stables seraient éliminées. Aux plus petites échelles, je m'attends à ce que la sélection naturelle produise des structures de très faible complexité telles que des chaînes de neurones, mais à plus grandes échelles, les structures seraient plus compliquées. Je ne vois aucune raison pour laquelle ce processus devrait être limité à une échelle de longueur particulière et donc l'affirmation est que tout ce que nous voyons autour de nous (par exemple, les particules, les atomes, les cellules, les observateurs, etc.) est le résultat de la sélection naturelle."

Plus étonnant, Vanchurin déclara qu'il ne comprenait peut-être pas tout lui-même à propos de la complexité des réseaux neuronaux. En fait, il voulait dire qu'il n'a pas encore réfléchi aux éventuelles implications philosophiques de ses résultats. Cela ne veut pas dire qu'il ne comprend pas sa propre théorie sur le plan formel. Et sachant que les scientifiques refusent de s'étendre sur des considérations philosophiques, considérons que le débat est clos.

Enfin, quand on demanda à Vanchurin si sa "théorie signifie que nous vivons dans une simulation ?", il répondit : "Non, nous vivons dans un réseau neuronal, mais nous ne connaitrons peut-être jamais la différence."

Nous verrons que la cosmologie quantique nous propose également ses propres modèles d'Univers (multivers, millefeuille, parallèles, etc), il existe des théories cosmologiques alternatives dont l'univers plasma d'Hannes Alfvén, des théories fondées sur d'autres lois que les seules interactions connues comme la théorie de MOND (invalidée) et celle de la matière sombre (ou noire) et enfin la théorie spirituelle invoquant le principe anthropique qui prétend que l'Univers fut conçu avec l'intention de voir l'émergence de l'être humain. Quant à l'avenir de l'Univers, nous y reviendrons dans les articles consacrés au Big Freeze et au Big Crunch (dont l'univers oscillant et l'univers ekpyrotique).

Qui a raison, qui a tord ? Nul ne le sait et on ne le saura peut-être jamais. Ceci dit, les découvertes appuyent les paradigmes actuels. Comme souvent, les théories alternatives ne sont supportées que par leur inventeur et s'éteignent avec lui. Mais cela ne veut pas dire qu'ils ont tord, juste que nous n'avons pas les moyens ou les preuves pour valider leur théorie. En attendant, ce sont des hypothèses "intéressantes" qui valent la peine d'être étudiées car en explorant une voie différente du paradigme actuel, elles peuvent potentiellement nous apprendre quelque chose.

Retour à la Cosmologie


Back to:

HOME

Copyright & FAQ