Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

La science du chaos

Simulation de la pénétration d'un projectile dans l'atmosphère.

Les principes de la thermodynamique (I)

Depuis le XVIe siècle physiciens et mathématiciens ont étudié le mouvement des corps, posant les principes de la mécanique. Cette discipline se subdivise en trois sciences : la statique qui étudie l'état d'équilibre des corps soumis à l'action des forces, la cinématique qui étudie la position des objets dans le temps et la dynamique qui étudie les mouvements des corps. Se greffe sur ces lois l'action de la température.

Température, chaleur, énergie, désordre, entropie, tous ces mots nous semblent familiers pourtant ces concepts n’a pas facilement supplanter les idées d’antan. Faisant partie de l'Histoire de la thermodynamique, remémorons-nous brièvement ses principales découvertes.

Grâce à la loi de Boyle-Mariotte, plongeurs et physiciens savaient depuis le XVIIe siècle que le volume d'un gaz (V) était lié à une relation entre sa température à sa pression (P) : à température constante, le produit PV est constant. Si cette loi des "gaz parfaits" (PV=nRT) est liée aux mouvements moléculaires (mouvement brownien) il devait être possible de déterminer les paramètres de cette agitation. C'est le physicien James Clerk Maxwell qui introduisit la théorie de la distribution des vitesses, imposant dorénavant la méthode statistique en physique.

Jusqu'à la fin du XVIIe siècle, les scientifiques pensaient que tous les phénomènes thermiques étaient véhiculés par un fluide, le "calorique" à l'instar de l'éther qui véhiculait la lumière.

En étudiant l'action de la chaleur sur les gaz, Denis Papin inaugura l'ère de l'industrie en 1675. Il permit aux physiciens d'étudier les transformations de la chaleur en énergie mécanique et son influence sur le travail des “machines à pompes”, les machines à vapeur.

En 1824, Sadi Carnot démontra qu'une machine qui fournissait du travail devait restituer de la chaleur. Dix huit ans plus tard, James Joule confirma l'équivalence entre l'énergie mécanique et la chaleur.

Travail et chaleur : de l'énergie

La constante de Joule J permet de dresser une équivalence entre chaleur Q produite par un système et travail effectué W :

W = J/Q

La constante de Joule (J = 4.8 J/cal) représente l'équivalent mécanique de la chaleur. Cette relation donnera naissance à la notion générale d'énergie en unifiant les deux notions séparées de chaleur et de travail.

La quantité d'énergie

La quantité d'énergie totale Ut d'un système obéit à la relation :

Ut = Ui + W + Q

Ui représente l'énergie interne initiale d'un système, W le travail effectué et Q la chaleur libérée ou apportée au système.

Le changement d'énergie interne d'un système obéit à la relation :

ΔU = W + Q

et représente la première loi de la themodynamique.

Le principe d'équivalence masse-énergie

Pour être complet, rappelons qu'Einstein démontra l'équivalence entre la masse et l'énergie à travers la relation :

E = mc2

En 1849, Lord Kelvin unifia l'ensemble de ces lois dans une théorie, la thermodynamique. L'année suivante Rudolf Clausius généralisa le principe de Carnot en posant la seconde loi de la thermodynamique et en 1865 il dénomma "entropie" l'état de désordre de la matière.

Avant de décrire cette notion fondamentale d'entropie et les conséquences de la seconde loi de la thermodynamique, nous devons introduire la notion d'équilibre thermodynamique.

L'équilibre thermodynamique

Faisons une expérience comme le fit Wilhelm Wien à la fin du XIXe siècle. Prenons un four totalement hermétique et donc isolé du monde extérieur dans lequel nous perçons un petit trou. Cet orifice permet de mesurer tout le spectre de rayonnements émit par un corps soumis à la chaleur. On appelle ce système un corps noir. Sa température se détermine en mesurant sa distribution spectrale.

Lorsqu'on atteint un état d'équilibre entre l'énergie du corps noir et le gaz de photons, le corps émet autant d'énergie qu'il en reçoit : corps noir et rayonnement sont à la même température, ce que confirme la loi de Stefan-Boltzmann. On dit que le système est parvenu à l'équilibre thermodynamique; le système n'évolue pas et ne peut pas évoluer de manière spontanée (les variables d'état sont constantes) et n'échange aucune énergie avec son milieu (entropie nulle). Autrement dit, à un instant donné, la distribution des paramètres d'état de la matière (l'énergie des particules, les collisions, etc) est égale au libre parcours moyen des photons (l'énergie du rayonnement).

Ce système doit être considéré à la fois d'un point de vue microscopique (positions, vitesses des particules, etc où les propriétés de la matière peuvent intervenir) et d'un point de vue macroscopique (milieu continu, laminaire, etc ou la structure de la matière n'intervient plus).

Cet équilibre entre la matière et le gaz de photon environnant est une notion purement théorique. D'une part le système est isolé (sans interaction avec le monde extérieur) de manière contingente : en théorie on l'a mis dans une boîte pour empêcher tout échange avec le monde extérieur, mais en pratique le système est isolé car il a atteint un état d'équilibre thermodynamique.

D'autre part, pour un système isolé, en théorie si la première loi de la thermodynamique conserve la quantité d'énergie totale du système entre deux états (aucun échange, donc pas de création d'entropie), nous savons tous qu'en réalité les systèmes évoluent, sinon ils sont statiques ou morts. La deuxième loi de la thermodynamique doit donc être prise en considération et vient ajouter une variable, la quantité d'entropie qui caractérise le sens de l'évolution du système ou son degré de désordre.

Notons qu'un gaz comme une étoile ou une nébuleuse par exemple n'est pas en équilibre thermodynamique. Les étoiles comme les nébuleuses sont dans un état stationnaire (d'équilibre hydrostatique dans le cas des étoiles) et présentent des états d'ionisation (spectre d'absorption ou d'émission) qui n'épousent pas exactement le profil d'un corps noir; dans ce cas on parle de "corps gris". En revanche, si la Terre considérée dans sa globalité n'est pas en équilibre thermodynamique, l'atmosphère terrestre (l'air) a atteint cet état d'équilibre, et heureusement pour nous !

Définition de l'entropie

Etymologiquement parlant, l’entropie est synonyme de transformation (du grec "entropê" signifiant "cause d'évolution" ou "action de se retourner"). Pour Clausius, cela signifie concrètement que dans un système quel qu'il soit, la chaleur d'une source est toujours transmise à la source froide, jamais l'inverse. A l'équilibre, un changement réel de température (de volume, de pression et de concentration) apparaît. L'entropie du système global a augmenté. C'est le sens propre du terme entropie qui signifie également l'impossibilité de revenir à un stade antérieur, que d'autres ont assimilé à la "flèche du temps". On y reviendra car cette irréversibilité des transferts de chaleur au cours du temps à d'importantes conséquences épistémologiques sur lesquelles nous allons insister. Terminons seulement l'historique en rappelant qu'en 1900 Planck inclut les lois du rayonnement du corps noir dans la théorie de la thermodynamique.

A lire : Du corps noir aux étoiles

Les acteurs

Sadi Carnot, James Joule, lord Kelvin et Rudolf Clausius. Documents U.Frankfort, TMTH, U.Pennsylvanie et U.des Saarlandes.

La physique statistique découle de la thermodynamique et ses méthodes se retrouvent tant en physique classique que quantique. Comme le disait Roger Balian, la physique statistique est "l'art de faire des prévisions lorsqu'on sait peu de chose". Mais ses lois n'en sont pas moins rigoureuses.

C'est le chimiste belge Van Helmont qui assimila pour la première fois chaos et gaz pour refléter l'aspect, a priori désordonné du comportement des "atomes invisibles et constamment agités ".

Aux yeux de Platon l'irrationnel n'existait pas, tout était "géométrique", régi par des lois rationnelles ou des principes ordonnateurs mystiques évidents. Or la pureté des mathématiques de Pythagore mentionnait les nombres décimaux, dits "irrationnels", l'infini, les singularités.

La science moderne, à travers l'Ecole du professeur Prigogine par exemple, considère que les phénomènes peuvent relever de l'aléatoire, du désordonné. Nous avons vu ailleurs comment, en 1859, la théorie de Darwin considéra que la diversité des populations était provoquée par des variations aléatoires au sein des espèces.

En 1873, Maxwell était parvenu à la même conclusion en déduisant statistiquement les propriétés des gaz. Il découvrait un ordre macroscopique à partir de phénomènes microscopiques apparemment désordonnés. Cette "science du désordre" fut combattue par Henri Poincaré, Einstein et plusieurs philosophes dont Claude Bernard. Les statistiques n'obéissaient plus au schéma déterministe et ordonné de Platon qui sous-tendait leur philosophie.

Depuis que le "premier moteur" ordonna le désordre original, les hommes de science ont cherché à classer, répertorier, unifier les interactions qui se développaient entre les éléments du monde. Pour comprendre les mouvements d'un gaz par exemple, les chimistes nous disent qu'il faut tenir compte d'une quantité molaire, c'est-à-dire d'au moins 1023 molécules à un instant donné. Puisqu’il est impossible de rassembler un nombre aussi élevé de données, nous devons agir par approximations. Mais qui nous certifie dans ce cas que ces éléments sont représentatifs ou ne s'écartent pas, même microscopiquement, de la normale ?

En d'autres termes, d'un point de vue pratique, toutes les particules d'un mouvement brownien qui marchent "au hasard" ont-elles une chance de se heurter ? Cas d'école direz-vous ? Nous allons démontrer que le résultat s'étend bien au-delà de nos universités.

A voir : Simulation d'un mouvement brownien, par Michael Fowler/U.Virginie

Cet applet requiert l'installation du plugin Java Virtual Machine.

S’appuyant sur les succès de la mécanique classique, Maxwell était convaincu que le “démon” de Laplace connaissait la vitesse et la position de chaque particule d’un système. Il se piqua au jeu et imagina en 1871 une expérience de pensée visant à mettre en défaut le second principe de la thermodynamique. Connue sous le nom du “démon de Maxwell”, son expérience[1] était la suivante.

“Un être, dit Maxwell, dont les facultés seraient assez développées pour qu’il puisse suivre chaque molécule dans sa course; cet être dont les attributs seraient cependant finis comme les nôtres deviendraient capables de faire ce que nous ne pouvons faire actuellement. Il suffit alors d’imaginer que ce démon est capable de discerner par la vue les molécules individuelles et charger de manoeuvrer une porte glissant sans friction dans un mur séparant deux compartiments d’un récipient rempli de gaz. Quand une molécule rapide arrive de gauche à droite, le démon ouvre la porte; quand approche une molécule lente, il la ferme; et inversement. Les particules rapides s’accumuleront alors dans le compartiment de droite qui s’échauffera; les lentes dans celui de gauche qui se refroidira. Le démon aura ainsi sans dépensé de travail, converti l’énergie non utilisable en énergie utilisable. Il aura tourné la seconde loi de la thermodynamique”.

Un programme JAVA de Todd Timberlake à télécharger.

Mais en 1872 Ludwig Boltzmann inventa le "théorème H" que l'on peut résumer comme suit : "Dans un mélange gazeux, l'entropie ne peut varier que dans un seul sens. Le mouvement des particules tend vers l'équilibre". En soumettant ce modèle aux scientifiques, Boltzmann allait s'opposer aux arguments de plusieurs physiciens, dont Zermelo et Poincaré.

Le "théorème H" ou théorème de l'irréversibilité appliquait les lois de la physique classique. En fait il confortait les thèses mécanistes et réversibles de la physique. Boltzmann exprimait les lois de la thermodynamique en termes de mouvements de milliards de molécules régis par des lois statistiques (mécanique statistique). Mais avec des milliards de molécules, un gaz peut difficilement rester ordonner. Or depuis Galilée et Leibniz l'évolution dynamique des systèmes était réversible. Leibniz avait même énoncé le principe de "raison suffisante" car il était persuadé que la réversibilité déterministe allait de soi. Mais l'interprétation statistique de Boltzmann n'était pas valable pour les systèmes ouverts car ils n'avaient aucune tendance vers le désordre total.

Le démon de Maxell s'applique-t-il aux grains de sable ?

Un récipient séparé en deux parties égales par une paroi percée d'un trou contient du sable distribué de manière uniforme. Le récipient est vigoureusement secoué. En (A) bien que les grains de sable puissent voyager d'un côté à l'autre du récipient, de manière générale les populations restent égales. Si on secoue légèrement le récipient, on constate en (B) que le sable se rassemble d'un côté, conduisant à un léger réchauffement de la partie droite du récipient tandis que la partie gauche se refroidit. Le trou représente-t-il une sorte du "démon de Maxwell," triant les éléments chauds et froids en violation de la deuxième loi de la thermodynamique ? Pas tout à fait. Les physiciens nous disent que les différents grains de sable ont la faculté d'absorber ou de dissiper l'énergie calorifique, à la différence des molécules de gaz idéalisées imaginées par James Clerk Maxwell au cours de sa fameuse expérience de pensée de 1871. Document de Jens Eggers publié dans la Physical Review Letters, 20 December 1999.

En réponse à ces interprétations déterministes Poincaré énonça en 1890 le "théorème de récurrence”. Guidés par la tradition dynamique, Poincaré et Zermelo[2] supposaient qu'à tout moment l'état thermodynamique d'un système isolé pouvait se retourner et retrouver indéfiniment de fois un état très proche de sa valeur initiale. Ils considéraient de même que tous les états devaient se reproduire pourvu que l’on attende suffisamment longtemps. Ce “temps de Poincaré” mettait le doigt sur l’un des paradoxes de la thermodynamique.

Mais les lois de la Nature nous permettent-elles de retourner la flèche du temps comme le théorème de Loschmidt le sous -entend ? Nous aimerions bien que le monde - et les lois de Joule et de Clausius en particulier - soient symétriques mais la réalité ne l'est pas.

C’est Léon Brillouin qui s’affranchit de ces difficultés en considérant qu’il existait des limites objectives à toute connaissance, limites fixées par le quantum d’action. La théorie classique devenait une approximation de la physique quantique. 

Au départ d'un processus thermodynamique ou quantique, il est vrai en théorie que chaque possibilité a une chance de s'actualiser. En pratique il y a réduction du paquet d'ondes, effondrement du nuage probabiliste dans une seule réalité. Ainsi, même si par nature les lois sont réversibles, les processus ne le sont pas, en particulier les structures dissipatives ou les phénomènes quantiques. Pour s'en convaincre, statistiquement il y a beaucoup plus de chances pour qu'un système éloigné de l'état d'équilibre, c’est-à-dire de l’état final attendu, tende à le retrouver, plutôt qu'il s'en éloigne.

Bien malgré lui, Boltzmann découvrit également que l'irréversibilité était prouvée dans les transferts de chaleur. Lorsqu'il mettait deux substances de température différentes en contact, la chaleur de la première se transmettait à la plus froide, mais jamais l'inverse. Boltzmann découvrit une relation entre l'énergie cinétique moyenne des molécules et la température :

Emoy = 3/2 kB T

avec kB , la constante de Boltzmann égale à 10-23 Joule/K

T , la température (en K)

Les ruines du temple de Delphes (Tholos, 360-350 avant JC). Document Anthony Ayiomamitis

Depuis toujours nous savons que la glace se transforme en eau, que le lait se dilue dans le café et que les cathédrales tombent en ruines et finissent en tas de pierres. En bref, si on laisse les choses aller, un désordre complet finit par exister. Il existe donc un déséquilibre entre les différents états physiques ou chimiques.

Dans un système isolé, au début de l'expérience l'agitation brownienne peut-être élevée, l'énergie est intense, mais sans apport extérieur au bout d'un certain temps tout finit par se calmer, il n'y a plus d'échanges d'énergie ou de chaleur et les molécules reviennent au repos. Le système qui tout d'abord était en déséquilibre finit par s'équilibrer; la chaleur s'est dissipée, le désordre est total. Le système ne peut plus entraîner aucun échange d'énergie et ne peut plus engendrer le moindre ordre, ne fut-ce que local.

Bien entendu en accord avec la physique quantique, le système peut se réorganiser spontanément et retrouver son énergie perdue, l'eau peut reformer ses glaçons ou le tas de pierres peut se redresser et reconstruire la cathédrale. Mais dans l'ensemble, la probabilité dépasse l'entendement (< 1/1025) car il faudrait que tous les atomes aient au même moment la même impulsion. Ce n'est pas demain comme le dit Hubert Reeves que le plus gros diamant du monde sera dans votre poche par l'effet du hasard ! La loi de conservation de l'énergie est un principe en soi, une réalité de l'Univers alors que l'entropie est une mesure statistique, une probabilité.

Si l’on y réfléchit bien, étant donné que l'augmentation de l'entropie dépend de notre capacité à discerner les événements microscopiques, il faut impérativement déterminer les "conditions aux limites" de chaque système. Pour reprendre une image bien connue, si vous prenez une tasse de café, le fait d'y mélanger du lait rend le mélange de prime abord homogène, le lait s'est dilué. A nos yeux, le désordre est total. Or un microscope nous montre une image toute différente. A cette échelle, les molécules de lait sont en suspension dans la masse liquide et n'ont en rien fusionné avec l'eau et le café. A l'échelle microscopique le désordre a disparu. Pour preuve, le goût du café, bien qu'altéré par l'eau et le lait, a conservé toute sa saveur ! Il est donc embarrassant d'associer l'entropie et la conservation de l'énergie, le désordre n'est pas nécessairement la conséquence de la première loi.

Si l'entropie n'est pas une mesure du désordre, son appréciation étant visiblement incomplète ou subjective, comment peut-on la définir ? Pour Poincaré l'entropie est une probabilité, c'est-à-dire qu'elle obéit aux lois du hasard. Mais nous savons qu'en tout état de cause ce hasard est orienté dans le temps; dans un système global, l'entropie est irréversible.

Pour Erwin Schrödinger l'entropie est plutôt synonyme de désordre, de dégradation. Mais ici encore, par définition l'entropie d'un système global vaut le double de l'entropie de chaque système pris isolément, alors que le désordre de deux systèmes pris séparément est identique à celui du système global.

Mais cette définition n'est pas exacte non plus, car si l'entropie d'un système global augmente, nous pouvons malgré tout découvrir des régimes où l'ordre apparaît naturellement. Il peut s'agir de mélanges gazeux (H/N par exemple) qui se séparent proportionnellement à la différence de température, des horloges "chimiques" telle la célèbre réaction récurrente de Belousov-Zhabotinsky[3], de la structure régulière des cristaux ou des flocons de neige dont les dendrites sont d'autant plus étendues qu'elles se sont formées loin de l'équilibre.

Puisque nous manquons d'"information" sur la marche des atomes ou des molécules, nous devons mesurer le "désordre" du système, c'est-à-dire l'amplitude des variations qui y surviennent. Si nous pouvons dire à un instant donné qu'une situation est plus ordonnée qu'un instant auparavant, nous aurons quantifié le désordre. C'est l'entropie. Voilà une définition très satisfaisante. Plus y a de conditions initiales en fonction des contraintes Θ du système, plus le degré de désordre S sera élevé :

S = kB log Θ,    avec kB la constante de Boltzmann

Pour la précision du langage, l'entropie est définie mathématiquement comme étant égale au logarithme de l'amplitude du mouvement aléatoire dans l'espace des phases. Cette formule statistique fut posée en 1949 par le mathématicien américain Claude Shannon[4]. On peut ainsi exprimer par une loi le manque d'information d'un système. Cette définition est indépendante de l'échelle du phénomène et de notre appréciation de l'état de désordre. Si cette phrase paraît contradictoire, c'est parce que nous manquons de repères analytiques (de formules) et de phénomènes pour les représenter. Imaginez toutefois qu'il suffit d'ajouter de l'énergie au système pour voir l'amplitude du mouvement aléatoire augmenter, c'est-à-dire pour que l'entropie augmente. Prenons quelques exemples.

Prochain chapitre

L'entropie de l'Univers

Page 1 - 2 - 3 - 4 -


[1] C.Maxwell, “La chaleur”, Paris, 1891, chapitre 12, p421.

[2] E.Zermelo, Annalen der Physik, 57, 1896, p485.

[3] Pour la personne qui souhaiterait réaliser l'expérience, il s’agit de l’oxydation de l’acide citrique ou d’un mélange d’acide sulfurique, d’acide malonique et de sulfate de cérium par des ions de bromates (BrO3-). Des colorants bleus et rouge marquent les ions acides et basiques. Lorsque le mélange franchit une densité critique, le système passe tout d’un coup dans un état de non-équilibre, devient rouge et dessine des structures en forme d’ondes circulaires concentriques. Deux minutes après il vire au bleu et ainsi de suite de façon rythmée, d’où son nom d’”horloge chimique” - A.Winfree, Scientific American, 230, 1974, “Rotating Chemical Reactions”, p82-95.

[4] C.Shannon, "A Mathematical Theory of Communication", The Bell System Technical Journal, 1948.


Back to:

HOME

Copyright & FAQ