George Black

Member
  • Content count

    5400
  • Joined

  • Last visited

  • Days Won

    10
  • Last Connexion

    Soon available - 42676

Everything posted by George Black

  1. J'ai été surpris aussi de constater que l'on pouvait distinguer les piliers à l'oeil nu !
  2. Vu depuis Besançon à l'oeil nu. Evolution clairement visible au cours du temps, avec notamment des pics d'intensité parfois remarquables ! La pollution lumineuse limite le spectacle. Mais je suis content d'avoir pu montrer cela à mes enfants. Par contre les photos sont très nulles, donc je ne les montre pas.
  3. Forge à neutrons !?

    2. Comment produire des neutrons ? b. La spallation ! La spallation est l'autre manière de produire des neutrons. On utilise un accélérateur de particules qui va accélérer des protons obtenus à partir d'un gaz de dihydrogène que l'on ionise. Les protons frappent ensuite une cible de tungstène refroidie. La collision entre les protons et les noyaux de tungstène va produire des neutrons dans diverses gammes d'énergie, qui là encore, vont permettre grosso modo de faire les même choses qu'à l'ILL (l'Institut Laue-Langevin). L'avantage de l'ESS (European Spallation Source) est que l'accélérateur est totalement alimenté électriquement en énergies renouvelables. On n'utilise donc pas de combustible nucléaire pour produire les neutrons, et l'énergie utilisée est verte. Quel est l'intérêt de l'ESS par rapport à l'ILL ? En fait, l'intensité des neutrons produite est moindre qu'à l'ILL. L'ILL reste et restera une source compétitive. En revanche, l'ESS permet de diversifier et surtout d'élargir au niveau européen la disponibilité des sources de neutrons pour la recherche scientifique. Par ailleurs, l'approche est séduisante dans la mesure où elle repose sur du renouvelable. A noter enfin que d'autres sources de neutrons pour la recherche existent ailleurs dans le monde : https://www.ncnr.nist.gov/nsources.html Actuellement, l'ILL passe pour être la plus compétitive. Si vous avez des questions n'hésitez pas.
  4. Forge à neutrons !?

    2. Comment produire des neutrons ? a. Le réacteur ! Le moyen le plus efficace et le plus simple de produire des neutrons est au cours de réactions de fission nucléaires. En gros, un réacteur nucléaire est une source de neutrons ! Traditionnellement, dans un réacteur visant à produire de l'électricité, les neutrons sont essentiellement freinés et absorbés, par exemple grâce à de l'eau. En effet, contrairement aux autres radiations, telles que les rayonnements gamma (qui sont des ondes électromagnétiques), les béta (qui sont des électrons ou antiélectrons) ou les alpha (des noyaux d'hélium), les métaux ne sont pas des bonnes protections contre les neutrons. En revanche, des matériaux comme l'eau, la paraffine, le polyéthylène, les composés du bore, sont bons à cela ! L'astuce si on veut transformer un réacteur nucléaire en source de neutrons est de disposer dans la piscine du réacteur des conduites, des tubes, qui vont servir à capturer et canaliser les neutrons. On peut ensuite sélectionner les neutrons en fonction de leurs énergies, et créer des faisceaux qui vont alimenter différentes expériences. En France, nous avons un laboratoire de renommée internationale pour cela : l'Institut Laue-Langevin à Grenoble ! Je vous invite à lire la page Wikipédia à son sujet : https://fr.wikipedia.org/wiki/Institut_Laue-Langevin cela permet de se faire une idée de l'importance fondamentale de ce réacteur pour la recherche ! Sur la page Youtube de l'institut, vous pourrez réaliser la richesse et la diversité des recherches qui y sont conduites ! Je précise que l'institut est avant tout un consortium international principalement européen. https://www.youtube.com/@InstitutLaueLangevin/videos Et si vous ne voulez pas tout voir à voir tout de même les petites vidéos de présentation :
  5. Forge à neutrons !?

    Salut la compagnie ! Besoin de quelques infos sur l'ESS ? Alors on y va ! 1. On va commencer par une histoire de neutrons ! Comme vous le savez, les neutrons, avec les protons, constituent les noyaux des atomes. Le neutron a été découvert par James Chadwick en 1932. Le neutron a une durée de vie en dehors du noyau d'environ 15 minutes. Il se désintègre en un proton, un électron, et un antineutrino. De masse comparable à celle des protons, le neutron, bien que neutre, possède un moment magnétique, autrement dit, il se comporte comme un petit aimant, tout comme le proton ou l'électron qui eux sont chargés. Cette particularité provient du fait que le neutron, comme le proton, est constitué de particules plus fondamentales, les quarks, qui elles sont chargées. Le neutron est produit notamment au cours des réactions de fission nucléaires, par exemple lors de la fission d'un noyau d'uranium 235. Les neutrons produits sont susceptibles à leur tour d'entrainer la fission d'autres noyaux d'uranium 235. Le neutron, de par ses caractéristiques, est une formidable sonde pour les physiciens : - Par exemple, s'il se déplace suffisamment lentement, à moins de 2 km/s, le neutron peut interagir avec la matière pour sonder les modes de vibration des matériaux solides à l'échelle moléculaire (on parle de phonons). Son moment magnétique permet également de sonder les propriétés magnétiques de la matière. L'analyse des neutrons diffusés par la matière permet ainsi d'obtenir des renseignements précieux en physique des matériaux, notamment à visée technologique. On peut même étudier ainsi les propriétés des protéines, ce qui présente un intérêt en biologie. Le neutron est une sonde de première importance en physique du solide. - Les neutrons peuvent pénétrer profondément la matière selon leur énergie (leur vitesse). De ce fait, on peut les utiliser comme on le fait avec les rayons X pour analyser des objets, que cela soit en mécanique, ou encore en archéologie (y compris sur des momies par exemple). La différence avec les rayons X est que la manière qu'ont les neutrons d'interagir avec la matière permet d'avoir des informations sur la matière contenue dans l'objet analysé. - Bien entendu, le neutron est présent dans les réacteurs nucléaires, et entraîne un vieillissement des matériaux qui constituent la centrale au niveau du cœur du réacteur. De fait, disposer d'une source de neutrons contrôlée permet d'étudier le vieillissement de ces matériaux pour optimiser la conception des centrales. - Par ailleurs, lorsque l'on bombarde certains matériaux avec des neutrons, on obtient ce que l'on nomme des radio-isotopes. Autrement dit, des matériaux radioactifs, généralement n'existant pas dans la nature, et qui présentent de nombreux atouts technologiques et médicaux. Notamment pour la scintigraphie médicale ou encore la radiothérapie. D'où l'intérêt de disposer de sources de neutrons. - Enfin, le neutron est une cible de choix pour détecter de la nouvelle physique, i.e. des phénomènes physiques qui ne sont pas prévus par le modèle standard de la physique des particules. Dans le cadre de ce dernier, on connait très très bien les propriétés du neutron. De fait, on cherche par exemple à mesurer des anomalies qui trahiraient une nouvelle physique : anomalie sur la durée de vie du neutron, anomalie sur son moment magnétique ou sur l'existence d'un moment dipolaire électrique, interactions nouvelles (cinquième force), oscillation avec des états cachés, etc... Donc, on le voit, le neutron est le couteau suisse du physicien (et même du chimiste et du biologiste, voir de l'ingénieur ou de l'archéologue), il faut des sources de neutrons !
  6. Pour rebondir sur les derniers commentaires, on peut néanmoins s'interroger sur comment les physicien(e)s construisent leurs hypothèses et comment ils construisent des modèles de cela. On a montré que finalement, la science construisait des cartes, et que la validation de ces cartes se faisait par leur confrontation au réel. J'entends par là, confrontation en tant que méthode que l'on peut éprouver face à d'autres, ou confrontation à des mesures physiques. De la multiplicité des confrontations s'opérera une sélection. Il y a vraiment quelque chose de darwinien dans la science, dans le sens où ce qui marche le mieux sera sélectionné (ou non) de par son adaptation (ou non) à la pratique, au réel. Mais au-delà de ça, y a-t-il une méthode pour construire une carte ? En fait, cela dépend ! Mais si je m'appuie sur mon domaine, celui de la physique au-delà du modèle standard (de la physique des particules) et d'une manière générale celui de la physique théorique, le point de départ d'une idée a souvent une base philosophique, ou ludique, voir une croyance (plus ou moins convaincue) de ce que pourrait être le monde. Ce qui nourrit ces réflexions, c'est une certaine culture générale, qui dépasse celle de la physique ou des mathématiques seules. Tout ceci contribue à se forger une certaine représentation intuitive du monde. Ainsi, pour reprendre plus ou moins les propos de Henri Poincaré : c'est par l'intuition que nous découvrons, c'est par la logique que nous prouvons. A ce stade, la science devient un art créatif avec une part de subjectivité. Mais cette créativité n'est rien sans maîtrise technique (par exemple, des mathématiques). De mon point de vue, il ne peut y avoir de physique théorique sans philosophie. On ne peut pas avancer sans avoir une certaine vision de ce que pourrait être le monde. Et cette représentation passe par la maîtrise du langage. J'aime à dire que contrairement à l'idée reçue, la physique n'est pas qu'un truc de forts en maths ! Pour faire de la physique, il faut être bon en math et bon dans les matières littéraires. Le langage permet de s'approprier le monde, de l'intuiter, les mathématiques permettent de donner un squelette logique à l'ensemble.
  7. Il y plusieurs aspects qui s'articulent entre eux. En biologie par exemple, il est d'usage dans les articles de prendre le temps de définir le "matériel et méthode". L'idée est de permettre à une autre équipe de tenter de reproduire une expérience, et le cas échéant d'en explorer les limites pour proposer éventuellement un autre "mat et met". A force d'essais et d'erreurs, on progresse collectivement vers des procédures dont la pratique a prouvé leur efficacité. In fine, avec les années, certaines procédures deviennent des standards qui finissent dans les ouvrages de cours. Il en est de même pour la science dans son ensemble. On propose des approches pour aborder et traiter un problème, les protocoles évoluent au contact de la pratique et de la réalité, et une sorte de sélection darwinienne s'opère. Il n'y a pas de "bureau de contrôle", mais une sorte d'ouvrage collectif à l'œuvre ! Quand on soumet un article à une revue, il est renvoyé à des reviewers. Encore une fois, un reviewer n'est pas sensé juger s'il est d'accord ou pas avec le contenu de l'article, il est juste sensé vérifier s'il est raccord avec les standards scientifiques. Qu'est-ce que l'on entend par là ? Tout simplement que s'il s'agit d'une expérience, les conditions permettant à une autre équipe de la reproduire y sont clairement détaillées, qu'il n'y a pas de tentative flagrante d'induire en erreur, de manipuler des données, qu'il n'y a pas d'erreurs logiques évidentes dans la conception ou l'analyse des résultats. S'il s'agit de calculs, on attend des vérifications, ou des estimations comparables à l'expérience, pas de contradiction avec la physique connue. Enfin, on attend simplement que l'article soit bien écrit, clair, didactique, pédagogique. On vérifie que les travaux d'autres confrères ayant antériorité ne soient pas ignorés. On vérifie que les résultats proposés soient réellement nouveau et d'intérêt, ou en tout cas que les auteurs expliquent en quoi c'est nouveau et d'intérêt. Mais un article accepté et publié ne pose pas une vérité ! Il expose une étape dans la recherche. Ce qui lui donnera du corps, c'est ce que d'autres en feront. Le débat scientifique, l'évolution de nos représentations, se fait à travers la publication d'articles. Donc, personne n'a décrété un jour ce qui était bien ou mal en science. Les gens proposent des choses, des idées, des méthodes, se confrontent aux autres, et surtout à la réalité qui est l'ultime sélection : toute méthode (de raisonnement par exemple) qui échoue à un moment est éliminée (exemple : la méthode X introduite par une équipe termine dans l'oubli, parce qu'après plusieurs essais, d'autres équipes concluent qu'elle induit souvent en erreur faute de reproductibilité). Avec le temps, des consensus s'opèrent. Il y a ensuite des habitudes qui sont transmises, avec la consigne de toujours les considérer dans leurs limites d'application. Après, on peut toujours évoquer une sociologie des sciences. Se demander s'il n'y aurait pas moyen de faire autrement. Maintenant, la meilleure preuve que la méthode fonctionne, c'est que la science justement fonctionne pour rendre compte de ce que l'on mesure, et fonctionne pour créer des solutions technologiques.
  8. Oui. Mais ce n'est pas l'idée en sciences. Pour une bonne et simple raison : la science ne prétend pas définir des vérités. La science propose juste un moyen de cartographier le monde. Si j'utilise une carte IGN et un système GPS, je peux parfaitement me repérer dans une région inconnue. La carte prédit parfaitement ma position et me permet de me déplacer exactement là où je veux. Mais la carte n'est pas la réalité. Elle n'est même pas une représentation fidèle de la réalité. Elle en est une modélisation. La science est utilitaire. Elle n'est pas une vérité concernant ce qu'est le monde. Elle en est une description. On lui demande seulement d'être efficace ! Et cette cartographie du réel est régulièrement remise à jour, ce qu'une vérité révélée ou établie ne fait pas. Euh... non. Je vais me faire taper dessus par @vaufrègesI3, mais c'est exactement ce qui m'énerve parfois : quand les philosophes commencent à parler de menuiserie sans comprendre à quoi sert une défonceuse ! S'il s'agissait de faire de la cuisine calculatoire pour simplement retrouver les bons résultats quand ça ne marche pas, la physique quantique et la physique statistique ne seraient qu'un gros paquet de pseudo science bullshit ! Or, la renormalisation obéit à des procédures autour de la notion de groupe de renormalisation. S'il s'agissait simplement de bidouiller les calculs, il n'y aurait pas de procédure standard, et simplement de la magouille calculatoire sans aucune rigueur, au cas par cas, relevant de l'escroquerie pour que les résultats collent avec ce qui est attendu. Or la renormalisation est bien une méthode avec ses règles. Et jusqu'à présent, ça marche tout le temps ! Pas quand ça nous arrange ! De quoi il s'agit ? Sinon pour en revenir à Popper, il ne faut pas trop prendre le principe au pied de la lettre dans son application par les scientifiques ! L'idée n'est pas d'avoir une théorie vraie, mais d'avoir une cartographie du monde efficace pour y naviguer. L'efficacité ne pouvant être obtenue que par la confrontation avec l'expérience, car la physique (pour ne parler que d'elle) est une science naturelle. Elle parle du monde, et on lui demande de nous aider à nous y retrouver dans ce monde. Tout le reste n'est que bla bla ! Le problème, c'est quand les physiciens commencent à confondre le modèle avec la réalité.
  9. Il faut se méfier du relativisme ! Car cela conduit à confondre les variétés de Calabi-Yau avec les morues, qui elles sont une variété de cabillaud !
  10. J'apporte une précision à mon dernier post. Le seul frein à l'innovation scientifique, c'est la problématique des sujets mainstream, dont l'origine n'est pas le sectarisme de la communauté scientifique, mais le problème du financement de la recherche. Sabine Hossenfelder en parle très bien dans sa dernière vidéo.
  11. Sinon, pour rester dans le thème du fil, au risque d'être provocateur, je ne suis pas loin de penser que l'on a actuellement trop de modèles, de théories. J'ai moi-même écris un travail sur les branes et la baryogénèse. Je trouve ça amusant, et en même temps, on ne peut s'empêcher de se dire : "Et quoi ? Tu as pondu un Nième modèle de la baryogénèse, et alors !?". Pour ne considérer que le problème de la baryogénèse, je ne serais même pas surpris que dans l'abondante littérature scientifique sur le sujet on trouve la bonne solution à ce problème. C'est juste que l'expérience manque pour discerner laquelle c'est ! C'est pour ça que je ris jaune quand j'entends des gens prétendre que les physiciens sont sectaires et ancrés dans leurs dogmes. On peut facilement se perdre dans la diversité des modèles dont regorge la littérature scientifique. Alors prétendre que la communauté est ancrée dans ses dogmes ! Quelle (mauvaise) blague ! In fine, c'est comme la gravitation à boucles, ok elle n'a peut être pas le même succès que la théorie des cordes ! Mais elle existe ! Et comme je le disais, toute idée, in fine, trouve son chemin, modeste peut être, mais quand même... Un truc qui n'est pas publié du tout, au point même de ne pas passer la barrière de l'éditeur, et même d'être jeté d'arXiv, c'est que forcément il y a un problème, et c'est pas un problème d'idée qui ne passe pas !
  12. ... c'est ineffable ! Oui. Après, je sais qu'il y eu quelques travaux qui semblent montrer que l'on pourrait avoir une théorie supersymétrique dans le bulk, mais pas à l'échelle de la brane (donc de notre univers).
  13. Petit résumé très simplifié des (super)cordes 1. Les cordes On part d'une idée pas débile issue d'observations en physique des particules : les particules fondamentales ne seraient pas des objets ponctuels, mais des objets à 1 dimension (les cordes). Pour que cela ait du sens en physique des particules, il faut décrire quantiquement ces objets. Ce n'est pas très compliqué à faire. Là, on constate des anomalies qui obligent à dire que pour que la théorie ait du sens, il faut que ces objets vivent dans un espace-temps à plus de 4 dimensions, il en faut 26 ! On nomme cet hyperespace le bulk. Ce n'est pas très compliqué à faire non plus, et ce n'est pas débile non plus. On sait depuis les travaux de Kaluza et Klein que l'on peut unifier les forces en ajoutant des dimensions aux équations de la relativité générale par exemple. On sait aussi que l'on peut faire "disparaître" en apparence les dimensions supplémentaires par un processus que l'on nomme "compactification". Le hic, c'est que ces théories ne passent pas la quantification : il apparait alors des infinis dans les calculs que l'on ne sait pas éliminer, c'est ce que l'on nomme un problème de renormalisation. Dans le cas des cordes, surprise, on trouve des modes de ces cordes qui correspondent à des particules de spin 2 et dont les équations à basse énergie permettent de retrouver les équations de la relativité générale. On a donc potentiellement une théorie qui quantifie la gravitation, et effectivement, on arrive à gérer les problèmes d'infinis traditionnels quand on essaye de quantifier la RG. Comme la théorie incorpore des dimensions supplémentaires, cela donne l'espoir en plus d'unifier les 4 forces d'interactions fondamentales. C'est tellement beau et élégant que l'on a envie que cela soit vrai ! (c'est mon propre ressenti de théoricien). Au passage, on voit apparaître un nouveau concept : la brane. Pour la faire en raccourci, il y a deux types de cordes : les cordes ouvertes et les cordes fermées. Les cordes fermées sont libres de se propager dans le bulk. Les cordes ouvertes ont leurs extrémités piégées sur une hypersurface que l'on nomme une brane. Cela n'est pas un truc parachuté, l'existence des branes s'impose mathématiquement. Notre propre univers serait une brane à 3 dimensions d'espace évoluant dans le bulk. 2. Les supercordes Problème : la théorie des cordes ne contient que des bosons, pas de fermions, il n'y a pas les champs de matière. Or, dans les tentatives de quantifier la RG, est apparu un drôle de truc, la supersymétrie (SUSY pour les intimes). En imaginant que l'on puisse transformer un boson en un fermion et réciproquement (dans une idée d'unification), on constate que les opérations mathématiques associées aux processus physiques qui permettent ces transformations, ont une propriété remarquable : elles sont associées aux transformations du groupe de Poincaré. En essayant d'introduire de manière ad hoc SUSY dans la théorie des cordes, on obtient une nouvelle théorie, la théorie des supercordes, qui contient à la fois les bosons et les fermions. Cette fois-ci, la théorie est à 10 dimensions. Jusque là, mathématiquement, rien de bien méchant. Mais tout de même une première objection : Il y a un vœux pieux, celui de la validité de SUSY en tant qu'approche apte à décrire la réalité. Mais admettons... L'objectif à ce stade est donc à minima de retrouver dans la théorie des supercordes le modèle standard de la physique des particules comme théorie de basse énergie. Cela signifie que l'on doit retrouver les mêmes symétries. Cela tombe bien, quand on compactifie les 6 dimensions supplémentaires, et à l'aide des branes, il est possible de construire des théories avec tout un tas de groupes de symétries possibles, et donc littéralement de créer tout un monde avec des particules diverses et variées... On se dit qu'il doit bien y avoir moyen de retrouver le modèle standard là-dedans !? 3. Compactification et variétés de Calabi-Yau Une remarque sur la compactification. L'idée est que les dimensions supplémentaires sont enroulées sur elles-mêmes. Une feuille de papier a 2 dimensions : si je l'enroule, je vais obtenir un tube, qui est toujours une surface à deux dimensions. A l'extrême, mon tube pourra se réduire à une tige très fine, voir à une ligne à une dimension ! Seule une observation à petite échelle prouvera que ma ligne est en réalité un objet à deux dimensions. Ainsi, on a le bénéfice de l'existence de dimensions supplémentaires, sans en avoir la perception directe à notre échelle. On pourrait alors se demander : qu'est-ce qui est responsable de cet enroulement ? En fait, rien ! Une dimension enroulée est dite "compacte". On suppose que les dimensions de notre espace usuel sont non compactes, mais elles pourraient l'être. Si on reste dans le domaine de la RG, il y a des solutions des équations d'Einstein qui correspondent à un contenu vide de matière, mais où les dimensions sont compactes. On parle de solutions Ricci-flat. En théorie des (super)cordes, les dimensions sont enroulées d'une manière telle qu'elles forment ce que l'on nomme des variétés de Calabi-Yau, qui sont Ricci-flat. 4. Là où ça commencent à merder... Le problème est qu'il existe un nombre de variétés de Calabi-Yau potentiellement compatibles avec la physique connue absolument colossal ! C'est déjà un problème en soi. Mais pour couronner le tout, on voit apparaître tout un tas de configurations sur la manière dont les cordes peuvent s'enrouler et interagir. Cela a donné lieu à toute la question de l'usage de la théorie mathématique des nœuds en théorie des cordes ou encore ce que l'on nomme les théories conformes. Et là, la théorie des (super)cordes commence à devenir très très compliquée. Déjà sur certains aspects mathématiques pointus, ensuite en terme de lourdeur des calculs. Un calcul est lourd quand il ne présente pas forcément de difficultés techniques, mais qu'il est très pénible à dérouler. En somme, on enchaine un grand nombre de lignes de calculs faisant intervenir des expressions mathématiques longues, faisant intervenir de nombreux paramètres, indices, etc... Il n'y a pas de subtilité mathématique, rien que des opérations communes, mais agencées et répétées d'une manière qui rend le calcul pénible et fastidieux, et très long à entreprendre. Cela donne dans les publications des phrases du style "after a tedious but straightforward calculation, one gets", sous entendu : "après un calcul pénible mais sans subtilité, on obtient". Il s'en suit le résultat. Si les programmes d'aide à la démonstration et les logiciels de calculs symboliques ont grandement aidé, cela ne fait pas tout ! Et on en est là. La théorie des (super)cordes, dès que l'on essaye d'aller vers du concret en lien avec le réel connu, est un édifice dont la lourdeur et la difficulté des calculs échoue à aboutir à quelque chose de réellement testable. Pire, on n'a jamais réellement retrouvé le modèle standard ! Cela ne signifie pas que la théorie des cordes ne marche pas, mais elle est trop compliquée pour être utilisable en l'état ! 5. Il n'y a vraiment rien de testable ? La théorie des cordes, à l'origine, est une théorie valide jusqu'à l'échelle de Planck. Mais on s'est assez vite demandé ce qu'elle donnerait à basse énergie (avant même d'essayer de retrouver le modèle standard). De fait, on retrouve des équations de Yang-Mills qui sont susceptibles de décrire les interactions fortes ou électrofaibles. C'est des choses de ce genre qui ont fait dire que la théorie des cordes retrouvait le modèle standard, mais c'est aller vite en besogne. De même, on s'est aperçut de certaines équivalences (correspondance AdS/CFT) avec certaines théories visant à quantifier la RG en incluant SUSY. Par ailleurs, la théorie des (super)cordes fait apparaître des champs typiques (les champs de Ramond-Ramond et de Kalb-Ramond). Dès lors, on a commencé à chercher des modèles qui sont des sortes de versions à basse énergie de la théorie des cordes, mais qui ne sont pas la théorie des cordes. Il s'agit de théories du champ mais incorporant des concepts inspirés de la théorie des cordes. Et c'est ce genre de choses que l'on cherche à tester ! Au mieux, on aurait confirmation que certaines idées inclues dans la théorie des cordes sont recevables, mais cela ne serait pas une démonstration de la théorie des cordes. Ce dernier point mérite que je détaille à travers un exemple. En théorie des (super)cordes, on montre que toute brane (que j'ai évoqué plus haut) peut se décrire par un champ ou un ensemble de champs scalaires décrivant ce que l'on nomme un mur de domaine. Or, toute brane décrite par un mur de domaine en terme de théorie des champs n'a pas nécessairement de contrepartie en théorie des cordes ! En somme, les branes décrites en terme de théorie des champs, sont plus générales dans leur description que les branes des cordes. En tout cas à basse énergie. Donc, prouver l'existence des branes n'est pas nécessairement une preuve de la théorie des cordes. 5. Qu'en disent les théoriciens des cordes ? Certains, pas tous, on tendance à tout ramener aux cordes. Il n'est pas rare de discuter avec un physicien des cordes qui confond "dimensions supplémentaires" avec "théorie des cordes". Ou comme je l'ai évoqué "brane" avec "théorie des cordes". Le terme de brane vient bien des cordes, mais les branes vivent aujourd'hui leur propre vie en dehors de ce cadre. Idem avec les dimensions supplémentaires... Donc, il y a chez certains un côté mauvais joueur, en mode : "tout ce que l'on trouve ailleurs et qui est aussi présent en théorie des cordes, fait partie de la théorie des cordes". Il y a aussi ceux pour qui "la théorie est tellement belle qu'elle est forcément vraie", au point que certains n'ont pas hésité à défendre l'idée que le principe de Popper était dépassé et qu'il fallait lui substituer l'élégance mathématique. Enfin, d'autres justifient la justesse de la théorie des cordes par le volume de publications qu'elle a produit !!! Face à ce genre de discours, j'ai souvent entendu des physiciens dire que les théoriciens des cordes n'étaient pas des physiciens ! Il faut tout de même soulever que cela a eu le mérite de pousser au développement d'outils mathématiques (théorie des nœuds, théories conformes,...) qui ont des retombées dans des domaines qui n'ont rien à voir avec la théorie des cordes, notamment en physique de l'état condensé.
  14. DESI et l'univers en 3D

    Je n'irai pas jusque là. Certes, si c'est confirmé, c'est un résultat d'importance majeure pour notre compréhension de ce qu'est l'énergie sombre. Et notamment pour espérer mieux connaître l'avenir de notre univers (entre Big Rip, Big Crunch, etc...). Mais je n'aime pas la notion de "qui défie notre compréhension". Cela a l'air de dire que les scientifiques sont convaincus que l'énergie sombre doit être constante dans le temps, et que si ce n'est pas le cas, on ne comprend plus rien ! Or ce n'est pas ce qui se passe. Il y a pléthore d'articles qui entendent se passer de la constante cosmologique (ce qui sera le cas si la découverte est confirmée) et qui cherchent à interpréter l'énergie sombre par l'existence de nouveaux champs. Si l'énergie sombre est constante, et qu'elle correspond bel et bien à un scénario de constante cosmologique, cela pose de profondes questions sur la nature de l'espace-temps. Dans le cas contraire, cela ouvre la porte à de nombreux scénarios, et en fonction des mesures à venir, cela pourrait permettre de faire le tri dans les nombreux modèles publiés.
  15. Durée de vie minimale de l'électron

    Deux mots (enfin... un peu plus ) 1. Concernant la durée de vie du proton et sa mesure. Je vais illustrer par un exemple. Certaines théories prédisent que le proton peut se désintégrer en une particule que l'on nomme un pion (qui est connue) et un antiélectron. (Note : une certaine manière de se désintégrer se nomme un canal de désintégration) Cette désintégration pion + antiélectron, si elle existe, est possible par exemple dans le noyau du fer. Si je dispose d'une masse de 3,5 tonnes de fer (en gros un cube de 76 cm de côté), cela représente quelques 10^30 protons. Si je suis pendant 1 an ce cube et que je n'observe pas la désintégration attendue (i.e. je ne détecte pas de pion et d'antiélectron émis conjointement), je peux affirmer que la durée de vie du proton (dans ce canal de désintégration) est supérieure à 10^30 ans. Si la durée de vie du proton était de l'ordre de 10^29 ans par exemple, cela signifierait qu'il faudrait attendre cette durée pour espérer observer la désintégration de ce proton. Mais ici, on parle d'un phénomène qui est statistique. C'est une durée de vie moyenne, et donc, si je considère une population de protons, certains se désintégreront plus tôt, d'autres plus tard. Donc, si j'ai 10^30 protons, on peut espérer qu'en 1 an, une dizaine se seront désintégrés. Donc, si je n'observe rien pendant 1 an, cela signifie que la durée de vie dans le canal étudié est supérieure à 10^30 ans. Ce qu'il faut comprendre, c'est que les durées de vie sont en fait reliées à des probabilités de désintégration par unité de temps que l'on nomme "taux de désintégration". Il faut éviter de raisonner en terme de (par exemple) "le proton a une durée de vie 10^21 fois supérieure à l'âge de l'Univers". Il faut raisonner en terme de taux de désintégration, par exemple : 2*10^(-39) /s (en considérant ici le "10^21 fois l'âge de l'Univers"). Cela se lit en disant que la probabilité que le proton se désintègre en 1 s est de 2*10^(-39). Je rappelle qu'une probabilité égale à 1 correspond à un événement certain, et une probabilité de 0 correspond à un événement qui ne se produira pas. On peut aussi dire qu'il y a 2*10^(-39) désintégration par seconde pour un proton. On a donc ici un événement excessivement peu probable, mais observable néanmoins. Si on observe 10^31 protons (35 tonnes de fer) pendant 5 ans (1,6*10^8 s) on peut donc espérer observer (10^31)*(1,6*10^8)*(2*10^(-39)) ~ 3 désintégrations. Ces expériences sont rendues compliquées par le fait que de nombreux phénomènes peuvent conduire à des faux positifs. Il s'agit donc d'expériences remarquablement soignées pour éviter la radioactivité des éléments chimiques utilisés dans l'expérience, pour se protéger du rayonnement cosmique, et pour éliminer par traitement du signal les événements indésirables. 2. Concernant la durée de vie de l'électron étudiée dans l'article. Le mécanisme sondé ici est la désintégration d'un électron dans un atome de germanium, plus particulièrement les électrons les plus près du noyau. Les canaux sont assez généraux, il s'agit de canaux conduisant à des états peu ou pas détectables (par exemple des neutrinos). Donc la détection de la disparition de l'électron se fait indirectement. La disparition de l'électron va se traduire par un réarrangement des couches électroniques qui va entraîner un signal électromagnétique spécifique. Comme pour la durée de vie du proton, les auteurs suivent, ici, un bloc de germanium. Comme ils n'observent rien sur le temps d'étude, ils en déduisent leur contrainte sur la durée de vie de l'électron. Ces expériences sont cruciales, car elles fournissent des tests pour de nombreux modèles au-delà du modèle standard de la physique des particules et qui justement savent calculer les taux de désintégration évoqués.
  16. Les défaillances système arrivent aussi sur les machines. Et sur des systèmes complexes (car on ne parle pas de grilles pain), ces défaillances arrivent bien plus souvent que chez l'humain. Ensuite, il ne faut pas oublier qu'en dépit de cela, en usine, on recale l'essentiel des machines défaillantes avant la vente... chez l'humain, on n'est pas trop fan d'eugénisme ! La machine donne une impression de robustesse et d'efficacité qui ne prend pas en compte la complexité et la polyvalence de nos machines biologiques. Actuellement, aucune IA ne cumule les fonctionnalités mentales de l'humain, pas plus qu'aucun robot n'atteint les performances athlétiques de l'humain. Aucun robot humanoïde n'est capable de renvoyer l'ensemble du ressenti corporel d'un humain à son "cerveau". On oublie que nos machines, derrière des prouesses ponctuelles, sont primitives par rapport aux fonctionnalités biologiques. Ma femme, qui est biologiste, me le dit souvent : quand on voit la complexité du vivant (nécessaire à sa richesse en terme de fonctionnalités) il est remarquable que cela ne déconne pas plus ! Attention, je ne critique pas l'aspect "prothèse" dans la relation humain-machine, je dis : attention aux biais cognitifs dans l'idée d'une supériorité de la machine sur l'humain. Je vais reprendre une expression de mon père : "Il faut arrêter de croire que l'on a spontanément engendré une génération de débiles". Autrement dit, ces jeunes sont comme on les a élevés, ou pas élevés. Il y a un tabou dans nos sociétés occidentales. A une époque où l'on aime pathologiser l'agressivité, les pulsions, et j'en passe, nous renions que nous sommes des primates intrinsèquement violents, agressifs, et dominateurs. C'est une des caractéristiques des espèces sociales et territoriales : la violence et la tendance à l'expansion. Violence et tendance à l'expansion qui émergent jusque dans les comportements sexuels. En tant qu'espèce aspirant à être "humaine" et civilisée, plus réfléchie, nous savons que ces comportements ne sont pas optimisés par rapport aux bénéfices de l'altruisme. Et ces comportements, à juste titre, sont considérés comme indésirables dans une civilisation digne de ce nom. Cette part de notre animalité n'est pas acceptable. Là où je parle de tabou, c'est que, encore une fois, nous avons tendance à pathologiser ces comportements et à renier qu'ils font partie de nous. La violence (au sens général) devient une déviance, une pathologie, pas une tendance naturelle. Dès lors, comme pour de nombreuses pathologies vues comme honteuses ou qui font peur, on aime à penser qu'elle ne concerne que l'autre, pas nous, pas notre entourage, et qu'elle relève d'une forme de fatalité. Il y a une forme de déni. Pourquoi est-ce dangereux ? Parce que cela nous absout d'une tâche fastidieuse et complexe : l'éducation ! Car l'éducation, le transfert de l'expérience collective humaine à un autre humain, c'est ce qui nous éloigne de l'animalité ! Un enfant ne nait pas humain, il nait homo sapiens, et il deviendra humain par l'éducation, par la transmission de l'essence de l'expérience humaine globale cumulée sur des milliers d'années. L'homo sapiens seul, relativement isolé, est un animal, l'homo sapiens sociabilisé, instillé par la culture humaine globale, devient humain. Pour reprendre la formule de je ne sais plus quel anthropologue, l'humain s'est auto domestiqué ! Homo sapiens est un animal domestiqué par l'espèce humaine ! La pathologisation est dangereuse, parce qu'elle nous absout aussi de notre propre éducation et remise en question. Quand on écoute aujourd'hui les discours de certains courants, dont les masculinistes, quand on analyse les discours d'un Trump, d'un Poutine, etc... on observe une collusion de la partie animale de l'humanité qui résiste à la civilisation. Il y a une revendication au droit à la violence, une légitimation de la domination et de la violence. Notre occidentalisation étant vue d'ailleurs par certains (comme Poutine) comme une décadence, ce qui est assez ironique, car en réalité, ces gens revendiquent finalement un retour à l'animalité. Bref,... il faut arrêter de pathologiser ! On lutte contre toutes les formes de violence en réalisant que tout humain est potentiellement violent ou soumis par essence biologique, et en lui faisant prendre conscience de cela, et en l'éduquant pour lui apprendre à gérer cela pour sortir de ce schéma. J'accuse aujourd'hui les institutions et les parents de ne pas se donner les moyens d'éduquer, et de pathologiser pour se dédouaner de leurs responsabilités ! Dernière remarque : de manière ultime, certains individus resteront hermétiques à la civilisation, préférant le côté animal de manière assumée et totalement débridée. Les civilisés qui auront totalement oublié la violence se heurtent alors au risque d'être victimes des ultimes barbares. Il est alors nécessaire pour une civilisation d'être dotée d'une violence légitime pour assurer sa propre défense. Mais la violence légitime ne peut se substituer à l'éducation. Dernière dernière remarque : Il est remarquable que les tenants de la lutte contre les violences (diverses et variées), qui sont dans la pathologisation, la dénonciation de la déviance, soient systématiquement dans le discours répressif, donc violent, et n'abordent jamais le volet de l'éducation. C'est éloquent dans le débat sur la fessée, où indépendamment de la réalité des violences éducatives et de la maltraitance, on propose de remédier à la fessée en appelant à des textes répressifs. A aucun moment ces gens ne parlent d'éducation à la parentalité. Ainsi, il est fréquent de voir actuellement des gens prétendre lutter contre les violences et les discriminations en faisant acte de violence et de discrimination, avant même d'envisager une démarche éducative (dont j'ai expliqué qu'elle ne pouvait être remplacée par la violence légitime en première intention), seule durable et efficace. Désolé pour ce hors sujet.
  17. J'ai pris le temps de lire l'article. Je suis un lecteur fréquent des travaux de Gingras dont j'ai pas mal d'ouvrages. Et ce n'est pas du tout ce qui est défendu ici. C'est une analyse du parcours d'un chercheur, ici Nottale, qui part dans un domaine qui n'est pas mainstream. Un collègue de labo de ma femme, disons M. X, avait la fâcheuse réputation de faire souvent maladroitement de la casse. Un jour, en réunion, un autre collègue, M. Y, fit le reproche qu'il ne comprenait pas trop le sens des recherches de X et qu'en plus ce dernier faisait souvent de la casse. La réponse de la directrice du laboratoire à M. Y fut cinglante : "C'est sûr que toi, tu ne risques pas de casser grand chose !". Il était de notoriété que M. Y, par ailleurs agrégé, ne publiait pratiquement jamais, et que quand il avait son nom sur un article, c'était par complaisance, et qu'en bon agrégé, il était fort pour dire aux autres ce qui était bien ou mal en terme de science. Par ailleurs, il faut aussi comprendre un aspect de la recherche. Aujourd'hui, on demande de publier beaucoup, dans des revues prestigieuses, et d'être beaucoup cité, pour espérer obtenir postes et financements. On se retrouve alors sur des échelles de temps et de travail qui n'autorisent pas une excessive originalité. De plus, les organismes de financement tendent à cibler des thèmes prioritaires et dont la masse de chercheurs (pour un thème) offre des garanties de succès. On assiste donc à des transitions vers des thématiques qui deviennent à la mode. On a des groupes sociaux de chercheurs spécialisés sur ces thématiques. Quand on soumet dans ces thèmes, on se retrouve dans une dynamique qui garantit d'être dans une communauté dont les moyens permettent d'espérer d'avoir un poste, des financements... Dès lors, lorsque l'on soumet un article dont l'approche sort de ces groupes, il devient compliqué de trouver des reviewers capables de relire le travail. Le même phénomène tend à se produire quand le travail est à cheval sur plusieurs groupes. Il n'y a pas besoin d'arriver avec une théorie en rupture totale avec ce qui se fait ! Il suffit juste ne pas être à la mode du moment ! Dès lors, les reviewers seront tentés de rejeter l'article, non pas par conformisme, mais par crainte d'accepter un papier bullshit faute d'avoir l'expertise nécessaire. De plus, même si on parvient à publier, comme on ne sera pas dans un thème à la mode, on sera peu cité, vu que la majorité des autres collègues seront sur des thèmes à la mode ! Les expérimentateurs peuvent difficilement se permettre d'être trop en dehors des clous : pas de sous, pas de manip ! Mais ils ont des bonnes stratégies pour s'en sortir. Dès lors, il n'y a guère que quand est théoricien et que l'on a la sécurité du poste, et que l'on ne cherche pas à être une vedette d'un star-système, que l'on peut prendre le risque à sortir des clous. Mais ce qu'il faut retenir, c'est que toute idée correctement construite finit toujours par trouver son chemin !
  18. Je me demande en fait ce qui est attendu ici ?! Qu'est-ce qu'un modèle alternatif ? 1. Qu'est-ce que la cosmologie ? La première chose que l'on constate souvent dans le grand public, c'est l'incompréhension autour du modèle de concordance, perçu comme sorte de théorie monolithique. Comme si la cosmologie reposait sur la seule relativité générale. En réalité, la cosmologie nécessite de comprendre de nombreux phénomènes physiques qui interagissent ensemble. Aussi, la cosmologie repose sur l'étude de : - La relativité générale pour comprendre la dynamique globale de l'Univers en terme d'expansion - La gravitation (je nuance par rapport à la RG) pour étudier la formation des galaxies et des structures galactiques - La physique nucléaire pour comprendre la nucléosynthèse - Les deux domaines précédents pour comprendre la formation des étoiles - La physique des particules pour comprendre, entre autres, la baryogénèse - La physique des plasmas nécessaire sur plusieurs niveaux précédents - etc, etc... La cosmologie peut se ranger dans ce que l'on nomme aujourd'hui la multiphysique, i.e. l'étude des phénomènes complexes qui demandent des calculs faisant intervenir différents champs de la physique. N'en déplaise à certains, il n'y a pas d'ayatollahs du modèle de concordance. Les gens qui affirment cela sont des ignorants dont la suffisance les conduits à affirmer des contre-vérités qui appuient leurs délires complotistes, et dont la paresse intellectuelle ne les encourage pas à s'informer ce qui leur permet de se complaire dans leurs certitudes (l'éternel fantasme de la lutte du bon peuple contre les notables pervertis). Au passage, il est amusant de voir des gens défendre JPP en surfant sur son délire de "il n'y a pas de matière noire" alors que Janus EST un modèle de matière noire (indépendamment de sa cohérence physique et mathématique). Je ne connais aucun cosmologiste qui affirme que tout est compris. En l'occurrence, si c'était le cas, on arrêterait les missions d'études et on ne verrait pas fleurir des articles théoriques à la pelle ! Donc, ce qu'il faut comprendre, c'est que quand on s'interroge par exemple sur la formation des galaxies, cela ne signifie pas pour autant que l'ensemble de la physique connue est à revoir ! On ne commence pas par dire qu'il faut fiche à la poubelle la physique nucléaire et la physique des plasmas ! 2. Comment fonctionne la recherche ? De même, en physique, quand on a une théorie qui a marché parfaitement dans 999 expériences différentes, on ne la fiche pas à l'air à la première expérience qui semble en désaccord. On va déjà essayer de voir si cette dernière expérience ne comporte pas d'erreurs, et ensuite la répéter de diverses manières pour confirmer le résultat. Ensuite seulement il faudra retravailler la théorie. Mais là encore, cela ne signifie pas forcément de tout devoir repenser. Certains parlent de la matière noire comme d'une théorie des épicycles. C'est là encore mal comprendre le fonctionnement de la science. Ainsi, on aurait pu taxer le modèle de Bohr de l'atome comme une sorte de théorie des épicycles, une tentative de concilier maladroitement la mécanique classique avec les observations. Cela serait faire un procès injuste au travail de Bohr qui a justement permis à de Broglie de poser les bases de ce que l'on allait nommer la mécanique ondulatoire qui deviendra la physique quantique. Si on n'enseigne plus la théorie des épicycles (sinon en histoire des sciences), le modèle de Bohr est encore enseigné comme accroche à la physique quantique. Autre exemple : depuis que l'on connait la relativité restreinte, les ingénieurs en automobile continuent à utiliser la mécanique classique ! La physique classique est inclue dans la physique relativiste. Pour dépasser quelque chose, on a besoin de s'appuyer sur l'existant au risque sinon de s'égarer totalement (et surement). Pour reprendre Oscar Wilde : "Appuyez-vous sur les principes, ils finiront bien par céder". De même, certains ont une vision totalement erronée du fonctionnement de la science en terme de temporalité. Ceci dit, les scientifiques en sont aussi parfois victimes, un peu comme si une recherche qui s'inscrivait dans un temps trop long était synonyme d'absence de découverte possible. C'est la différence entre Katalin Karikó (prix Nobel pour le vaccin à ARN) ou Isamu Akasaki (prix Nobel pour la LED bleue) et les autres : l'opiniâtreté là ou les autres ont jeté l'éponge, abandonnés par l'espoir de découverte ou de profit rapide en terme de publications. A ce compte-là, on pourrait aussi abandonner toutes les recherches contre le cancer au motif que ça fait plus d'un siècle qu'on cherche à le traiter ! 3. Mais alors c'est quoi un modèle alternatif de la cosmologie ? Au sens strict, il n'y en a pas vraiment ! En revanche, le modèle de concordance n'est pas défini à certaines échelles de temps qui correspondent justement à des trous dans le tissu de nos connaissances en physique. Un exemple : la baryogénèse. En fait, il ne devrait pas y avoir de matière dans l'univers (ou presque) ! Dans les premiers instants, il y avait un équilibre thermodynamique entre le bain de photons et les particules élémentaires. Pour ces dernières, on doit avoir autant de particules que d'antiparticules. Avec l'expansion et le refroidissement de l'Univers, les particules et les antiparticules auraient dû pratiquement totalement s'annihiler pour ne laisser qu'un résidu de particules et d'antiparticules dans des quantités considérablement inférieures à ce que l'on observe aujourd'hui. En l'occurrence, on n'observe pas de structures constituées d'antimatière, et notre univers est largement dominé par la matière, même s'il y en a très peu : en gros 1 proton pour 4 mètres cubes. C'est ce que l'on nomme le problème de la baryogénèse. Sakharov a montré que cela n'était possible qu'à 3 conditions (qui portent désormais son nom) présentes au moment de la baryogénèse : - Les particules et les antiparticules doivent avoir un comportement différent (en terme techniques, on parle de violation C/CP). - Il doit exister un processus qui viole la conservation du nombre baryonique, celui-ci étant nul avant la baryogénèse, et non nul après. - Il doit y avoir une rupture de l'équilibre thermodynamique. Aujourd'hui, on ne sait pas ce qui est à l'origine de la baryogénèse. En revanche, on ne manque pas de modèles ou théories candidates pour l'expliquer. En ce sens il y a de nombreux modèles alternatifs. A ce stade, ce qui manque, c'est des expériences pour invalider des modèles ou confirmer quelle est la bonne interprétation. 4. Pourrait-on parler de ça ici ? Objectivement, cela n'est pas forcément évident. Concernant la violation C/CP, certains mécanismes permettant de la décrire sont terriblement abstraits et techniques. On ne peut qu'en dresser l'idée générale et à ce stade, le lecteur curieux et non spécialiste doit accepter de faire confiance aux chercheurs, car aucun quidam n'est jamais assez fort pour ce calcul.
  19. J'ai d'ailleurs toujours été fasciné par les transhumanistes et cette lubie de la mécanisation. On ira trouver une machine capable de tenir 80 ans voir plus sans changement de pièces. J'ai une voiture qui a 17 ans, elle a connu des changements de phares, de courroies, de batterie, de pompes, de câblages, des rayures, des zones enfoncées, des problèmes de vitres, et j'en passe, etc... j'imagine si un humain devait déjà subir entre sa naissance et sa majorité un changement total de ses dents déjà en rade, une transplantation cardiaque, une greffe de tendons, etc etc... La machine vivante s'autorépare, a une longue durée de vie, plus que n'importe quelle machine. Le vivant est tellement performant que de nombreux ingénieurs essayent de s'en inspirer, jusqu'à essayer de créer des technologies d'autoréparation ! La machine n'offre que l'illusion de la longévité !
  20. Cela dépend du public... J'interviens en terminale et BTS en lycée et master à la fac. Pour les premiers, aucun besoin de réguler. Pour les derniers non plus. En revanche, pour les BTS, l'utilisation compulsive et sauvage du smartphone est un réel problème, et donc on a fabriqué des "hôtels à portables" à la découpeuse laser pour qu'ils les déposent en début de cours. Un point dramatique : Je précise que nos terminales sont pratiquement toutes et tous des enfants d'universitaires, médecins, avocats, etc... que pratiquement la moitié part en CPGE (dont Saint Louis, Kleber, Poincaré,...) et qu'une autre moitié part en médecine. Les rares qui partent en fac, c'est parce qu'il n'y a pas de CPGE associée à leurs parcours de formation. Pour nos étudiant(e)s de master, on a modifié les critères de recrutement il y a quelques années. On était descendu à un niveau très bas, ce qui posait des problèmes de recrutement en thèse. Aujourd'hui, beaucoup de nos masters sont des gens avec un parcours CPGE + licence ou encore CPGE + ingénieur avec retour sur la physique fondamentale. En revanche, nos BTS sont à plus de 50% des gens issus de bac pro. Cette année, on en a qui se sont fait virer tellement l'absentéisme est massif quand d'autres (en alternance) se sont fait simplement virer de leur entreprise. Pour faire simple, je dirais : "Dis moi ton origine socio-culturelle, et je te dirai quelles études tu fais ou feras, et quel est ton rapport au smartphone". Malheureusement, on le constate, et c'est corroboré par des vraies études, tu peux remplacer "smartphone" avec "tabac" ou "alcool". On a dû faire venir des intervenants pour sensibiliser les étudiants à ces problèmes ! On a tout de même eu des étudiants souls en cours quand un autre a été hospitalisé pour emphysème pulmonaire en raison de sa consommation de tabac.
  21. Certes... mais avec "4 000 miroirs ronds, de 1 kilomètre de diamètre chacun, placés sur une orbite terrestre basse, à 890 kilomètres de la Terre", je me demande le coût de l'électricité ?! Il va falloir rentabiliser et entretenir ce parc de satellites. Mais aussi, quid de la production d'énergie en terme de "volume" ? Les chiffres donnés laissent à montrer que l'on part sur un projet pharaonique pour un résultat décevant. Sans compter la fragilité de structure. Que les satellites passent au dessus de la Russie, quelques missiles bien placés, et hop, l'Europe dans le noir ! Pour moi, on est dans le même délire qu'avec Desertec... Je ne parle pas d'impossibilité technologique, mais de projet qui ne tient absolument pas compte d'aspects multifactoriels, d'ordre environnementaux et géopolitiques, domaines dans lesquels, par expérience, de nombreux scientifiques et ingénieurs sont particulièrement mauvais faute de s'y intéresser et à se considérer au-dessus de cela.
  22. Un peu comme ceux qui sont collés à leur smartphone donc ? Il y a pas mal d'études d'opinions qui montre que la génération montante (entre 15 et 30 ans actuellement) aspire à la déconnection. Notamment, on voit un intérêt croissant pour les "dumb phones", le retour du bon vieux Nokia 350i en quelque sorte. Tout comme de nombreuses études sociologiques montrent les dégâts de la connectivité à outrance faisant un lien démontré avec la hausse des dépressions chez les jeunes, les phénomènes de harcèlement, etc... Et il y a des explications claires à cela, comme l'importance du ressenti des micro-expressions dans les vrais échanges dialogués, et l'importance d'une discussion construite et argumentée. Je veux bien être traité de vieux con réac à dire cela. Mais j'assume, car là, on est sur du démontré, et cela revient à se faire traiter de vieux con réac par un jeune à qui on dit que fumer est mauvais pour sa santé et qui vous répond qu'il est jeune et en bonne santé et qu'il arrête quand il veut. A noter qu'un smartphone, on peut s'en détacher ! Le mien est systématiquement en mode sans sonnerie ni vibreur. Je jette un coup d'œil furtif de temps à autre pour vérifier que l'on n'a pas essayé de me joindre. A la maison, il termine posé sur une étagère en dehors du temps de travail. Le jour où l'on passe à la greffe, on est sur un autre registre : la mutilation permanente ! Je suis d'une génération où le tatouage a été à la mode ! Aujourd'hui, les dermatologues expliquent qu'ils n'arrivent plus à suivre les demandes pour essayer de faire retirer des tatouages ! Musk est dans le délire de l'homme augmenté ! Le projet Neuralink vise bien à pousser la population à se faire percer la boite crânienne pour se faire implanter et être connecté h24 au réseau. Certains me diront que l'on aura toujours choix. Je répondrais : "Comme avec le smartphone ?". Parce qu'en ce qui me concerne, je n'ai jamais voulu de smartphone ! J'y ai été contraint, parce qu'à force de geek patrons de sociétés et de lobbying divers et variés, on vous fait comprendre que sans smartphone tu ne pourras pas travailler à tel endroit, parce qu'il faut telle ou telle application, parce que pour accéder à ta banque il te faudra telle autre, etc... Le danger de Neuralink, c'est à dire l'exploitation de connexions neuronales hors contrôle de la législation médicale, c'est d'ici 30 ans de voir un truc à la con du genre : "obligation de connecter chaque citoyen dès l'âge de 15 ans au réseau collectif". Et quelque uns se diront : "comment on a fait pour en arriver là ? comment on a fait pour accepter de voir nos jeunes se faire mutiler à la chaine ?".
  23. Tout ça pour un système qui représente qu'une petite portion des besoins énergétiques européens... et à peine de quoi sustenter la France... sur fond de crise internationale, un petit missile par ici ou par là depuis le sol d'un pays ennemi, mais avec interception au-dessus de son sol, et hop ! exit la belle centrale solaire !
  24. Et après on critique le nucléaire..........
  25. la fin de la matière noire .....

    Tout est dit... mais un ressenti, un qualia, n'est pas réel. Pas réel au sens de Philip K. Dick, au sens de "est réel ce qui continue d'exister indépendamment de nous". Le problème c'est que les gens s'attachent trop aux qualia en tant que réalité intrinsèque. C'est le rôle de la méthode scientifique que de repérer le réel comme variable indépendante de nous. J'ai connu des gens (ou des témoignages de gens) qui ont un jour connu une expérience de mort imminente. Certains n'avaient jamais vraiment réfléchi sur eux, la vie, etc... Cette expérience a donc été brutale, le ressenti d'une révélation, et certains sont tombés dans une forme de mysticisme voir dans la religiosité. C'est un peu comme la différence qu'il y a entre les personnes qui prennent des drogues récréatives et qui sont conscientes que ce qu'elles vivent n'est pas réel, et celles qui en prennent et croient en la réalité de leurs expériences, comme ces gens persuadés que le LSD ou autres drogues shamaniques permettent de rentrer en contact avec l'au-delà.