Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

La philosophie des sciences

Probabilité et falsifiabilité (IV)

Si la théorie des probabilités traduit notre impuissance devant le nombre de variables dont nous devrions tenir compte pour appréhender un phénomène, on peut toutefois se demander si dans un phénomène complexe il n'existe pas de relations évidentes de "causes à effet" ou des effets qui résultent d'un attracteur chaotique ?

En thermodynamique, nous savons que dans un domaine d'application limité, une série périodique présente toutes les caractéristiques d'un comportement déterministe et peut être représentée par une seule variable qui évolue dans le temps.

Une série qui obéit à un attracteur chaotique à l'inverse ne sera pas identifiable par une théorie déterministe. Le système est apériodique et révèle une dimension fractale.

Dans l'exemple du climat, nous savons que la variable "température" est déterminée par ses relations avec d'autres variables au cours du temps, pression, humidité, concentration de sgaz, etc. Sans connaître l'équation déterministe, nous pouvons malgré tout calculer une équation équivalente, à une seule variable, "x", mais qui sera d'un degré plus élevé. C'est la même méthode qui permet de calculer un polynôme d'interpolation. Les variables initiales de ce système peuvent à présent être déterminées à partir de leurs dérivées partielles par rapport à "x". Bien sûr si le phénomène est aléatoire - π excepté - sa dimension sera infinie. Mais s'il est possible de le représenter par une loi fractale, il en résultera non plus un phénomène à "n" dimensions, mais un système engendré par un attracteur "étrange" d'ordre 3 ou supérieur (fractionnaire, de dimension 3.1 par exemple). D'un nombre infini de variables indépendantes nous nous retrouvons avec un système à 4 dimensions ![19]

A défaut d'être absolument certaine, comment étayer une théorie avec la plus grande certitude possible ? Pour prouver la sévérité d'un test auquel on soumet une théorie, ou pour être sûr du "degré de corroboration" d'un test comme le dit Popper, le test doit pouvoir déterminer si la théorie est vrai ou bien fausse. Autrement dit, il ne s'agit pas d'évaluer la probabilité de l'énoncé par une logique inductive - qui contient des paradoxes - mais bien d'évaluer l'aptitude de l'énoncé à résister à l'épreuve de l'expérimentation.

Cette notion fait appel au contenu logique de l'énoncé, autrement appelé sa "probabilité logique", c'est-à-dire la falsifiabilité de son contenu.

Rudolf Carnap.

On peut comparer deux hypothèses en fonction de leur contenu et déterminer laquelle des deux est susceptible d'être mieux soumise aux tests.

Si on admet que la première hypothèse est plus probable en vertu de sa forme logique que la seconde, on ne pourra jamais démontrer statistiquement que la deuxième hypothèse est susceptible d'être mieux soumise aux tests. Selon Popper[20], "ceci entraîne que le degré de corroboration ne peut-être équivalent à une probabilité" comme l'ont cru Carnap et bien d'autres philosophes avant lui.

Mais attention. Inversement on peut dire qu'un énoncé est confirmé par un autre en terme de probabilité. Ce "degré de confirmation" n'est pas synonyme de probabilité logique ou statistique. L'énoncé Y n'étaye pas l'énoncé X car la mesure du contenu de X détermine son degré de falsifiabilité. Ce degré maximal de confirmation est égal à zéro pour le deuxième énoncé. Elle n'est donc jamais symétrique pour deux énoncés X et Y, à l'inverse de la mesure d'un pouvoir explicatif.

Finalement la question est de savoir comment peut-on falsifier un énoncé de probabilité ? Prenons par exemple le jeu "Pile ou face". Le fait que la pièce tombe côté pile si vous aviez choisi face ne prouve pas sa falsifiabilité. En effet, seule une suite infinie de lancés pourra contredire cette évaluation. Mais nous savons tous que cela est impossible. Or la physique quantique ou la thermodynamique nous prouve tous les jours que les hypothèses probabilistes méritent leur succès. Ceci est paradoxal dans la mesure où la dimension de telles systèmes est infinie ! Avec un peu de recul, on découvre que tant qu'on prend un énoncé de base du système, on ne pourra jamais contredire la probabilité. Il nous faut donc trouver une formule binomale en dehors du système ! En première approximation, on est donc tenté de conclure qu'un énoncé probabiliste n'est pas falsifiable, ni vérifiable pour la même raison.

On peut toutefois trouver ce que Popper[21] appelle des conséquences "existentielles unilatéralement falsifiables" déductibles d'énoncés probabilistes. Ainsi, je peux dire "Pour tout lancé d'une pièce d'un euro, il y a un moment où la pièce tombera côté face…" ou de façon générale, "Pour tout X il y a Y tel que …". Cet énoncé ne peut être soumis à des tests puisqu'il peut être confirmé après un coup ou un nombre de coups indéterminés pour "toute" valeur. Il est donc infalsifiable et invérifiable puisque non réitérable. C'est en fait "il y a …" non délimité qui engendre cette conséquence existentielle, ou inversement qui ne vérifie aucune conséquence.

Le concept d'univers éprouvette selon l'auteur.

Cette situation implique qu'il sera toujours possible d'expliquer n'importe quelle régularité, y compris le chaos, comme une accumulation de coïncidences et d'en déduire des théories irrationnelles. Tout scientifique utilisant des énoncés probabilistes doit donc définir de nouveaux critères de démarcations afin de pouvoir les falsifier. Plusieurs méthodes sont envisageables :

- Arbitrairement en décrétant par exemple quels sont dans l'échantillonnage les valeurs autorisées et celles qui sont défendues car atypiques,

- En considérant la précision instrumentale, ce qui revient au même

- En interprétant les formules comme des règles de précision, c'est par exemple le cas des "relations d'incertitudes" de Heisenberg.

Dans tous les cas il faut que tous les effets soient reproductibles et puissent être soumis aux tests. Ainsi, à partir de ces règles, en établissant des relations logiques entre la théorie et les énoncés, on pourra essayer de falsifier la théorie. On pourra alors dire qu'une théorie est d'autant plus probable que sa falsifiabilité diminue.

Mais comment déterminer la fréquence d'une suite infinie pour en extraire une prédiction rigoureuse ? Il y a deux méthodes, l'une fixée a priori, la seconde a posteriori :

- soit on définit des hypothèses d'égales probabilité ou distribution. Cela fait appel à des principes de symétrie (toutes les faces d'un dé ou d'une pièce sont identiques par exemple).

- soit on extrapole (interpole) à partir d'énoncés statistiques qui présupposent que les tendances passées se poursuivront dans l'avenir (cf. les assurances).

Sur les traces du logicien Richard von Mises[22], on sait que le principe d'exclusion d'un système de jeu de hasard (l'axiome du hasard) requiert une suite infinie, qu'il est impossible de construire à moins de la formuler comme une suite mathématique quasi-aléatoire de fréquence non limitée. Cette expression doit obéir à "la loi des grands nombres", c'est le théorème de Bernoulli : plus les segments de suite aléatoire sont grands, plus ils convergent vers la moyenne (la fréquence moyenne caractéristique). Cela signifie en d'autres termes "qu'il est quasi certain que …". Ce genre de proposition souligne le caractère subjectif de cette méthode. Nous n'arriverons jamais à l'interpréter en termes de fréquences moyennes (statistiques). Selon Popper, il faut donc proposer des "hypothèses de fréquence" indépendantes vis-à-vis des coïncidences, de façon à exprimer l'irrégularité avec précision. Seul cet énoncé rend la loi des grands nombres toujours vraie.

Coucher de Soleil sur le lac Shrine au Michigan. Document MSU.

Méditez : le Soleil se lèvera-t-il demain ?

Grâce à ces explications, nous pouvons à présent répondre à l'anxiété de Tsiolkovsky. D'un côté, puisqu'il est toujours possible de réduire le monde à l'expérience, même une singularité peut être considérée comme une moyenne absolue, il est possible d'imaginer un système d'axiomes infini qui puisse représenter l'infinitude de l'Univers, de la Connaissance. Bien évidemment, le scientifique ne pourra qu'entrouvrir une fenêtre sur la réalité, son "algorithme fini" ne lui permettant pas de reproduire une suite infinie de données en un temps fini[23]. Il lui reste la possibilité d'étudier des théories toujours plus globales mais en veillant à conserver toutes les informations du système.

D'un autre côté, grâce à l'étude des chaînes de Markov, nous savons aujourd'hui que les systèmes dissipatifs obéissent à des contraintes probabilistes[24]. Ce savoir réellement objectif concerne toutes les créations de l'homme. Elles prouvent non seulement le caractère indéterminé de certains phénomènes mais également l'incomplétude de notre connaissance puisqu'elle reste ouverte sur le monde.

Expérience de pensée et méthodologie

Nous devons absolument discuter des expériences de pensées car elles permettent d'insister sur la validité des concepts ordinaires. Les expériences de pensées de Galilée sur la vitesse des corps ou celles des philosophes nés avant lui reflétaient sans aucun doute la pensée scientifique.

Les expériences de pensées sont très utiles car elles utilisent des arguments souvent simples et ingénieux pour critiquer des théories paradoxales. Les méthodes heuristiques en particulier, qui n'apportent pas de preuves formelles mais une voie possible, sont très souvent utilisées (dans la théorie de la relativité, en physique quantique, en thermodynamique, …) et très illustratives.

Certains ont dit que ce type de raisonnement n'avait que faire de l'état de la science de son temps. Or l'expérience de pensée considère a posteriori que les outils de mesure existent et que les résultats sont prouvés. Il ne viendrait jamais à l'esprit d'un chercheur d'inventer un Gafophone[25] pour démontrer l'inconséquence d'une théorie. Cela n'aurait aucun sens, puisque ni la méthode de travail ni l'outil scientifique n'existeraient pour analyser le phénomène en question.

Mais telle une prémisse, dans une expérience de pensée rien ne prouve que le phénomène est reproductible et mesurable. On ne peut dans ces conditions fonder une loi à partir d'une déduction. C'est peut-être dans ce sens que certains jugent l'expérience de pensée non-scientifique. Mais le but des expériences de pensées n'est pas d'inventer de nouvelles lois. Tous les chercheurs qui ont pratiqué ce genre d'exercice, qu'il s'agisse d'Aristote, de Galilée, de Bohr ou d'Einstein, tous sans exception étaient de grands génies. Que pouvaient leur apporter ce genre d'expériences ?

Les expériences de pensée : le chat de Schrödinger et le démon de Maxwell visent à démontrer les paradoxes des théories actuelles. Illustrations adaptées par l'auteur.

L'expérience de pensée se fonde nécessairement sur des données expérimentales et son extrapolation permet d'éclaircir les méthodes de travail des chercheurs. Le voyage d'Einstein à califourchon sur un rayon de lumière, le démon de Maxwell ou le paradoxe EPR visaient à mettre en évidence les situations paradoxales des concepts en cours.

Contrairement à une idée souvent exprimée, les expériences de pensées ne cherchent pas à expliquer la nature mais plutôt à souligner les divergences des théories, les contradictions internes pour qu'un consensus puisse se dégager, de manière à normaliser les données empiriques. Car, tout le moins en sciences expérimentales, il n'existe aucune condition vraisemblable qui ne soit indiscutable. Tout chercheur est en mesure d'imaginer des conditions particulières d'expériences pour obtenir un profil sémantique différent de celui exprimé par les concepts qui ont cours. Le fait de démontrer l'inadéquation d'une théorie face à la réalité équivaut à donner une nouvelle explication des phénomènes, à en apprendre un peu plus sur l'univers et son concept.

On ne peut toutefois pas idéaliser une telle expérience à son avantage ou généraliser certains principes et les fonder sous forme de postulats. Son but est de mettre en avant les contradictions des énoncés et non pas d'asseoir la théorie rivale.

Archimède

L'expérience de pensée et toute expérience en général suit une méthodologie mais je ne veux pas parler ici du formalisme des mathématiques. L'imagination suit ce qu'Arthur Koestler[26] appelle un processus de "bissociation". C'est l'union de deux cadres de référence qui crée la solution. Prenons un exemple.

Archimède, traité comme l'égal de Moïse ou de César tant il participa à l'émancipation des hommes, s'était demandé quel était le poids en or de la couronne du roi. Problème a priori insoluble quand on lui dit qu'il ne pouvait pas la peser. Son cadre de référence habituel et ses instruments de mesures étaient donc inappropriés pour trouver cette solution. Il devait donc trouver cette valeur indirectement. Frustré, il délaissa le problème quelque temps et laissa son imagination travailler librement.

Un jour dit-on, alors qu'il prenait son bain, il découvrit que l'élévation de l'eau était proportionnelle au volume de la partie immergée de son corps. "Eurêka !" s'exclama-t-il ! L'union de deux cadres différents avait recentré le problème. La question du poids de la couronne restait présente à son esprit, mais n'était plus aux avant-postes. Il fallait un nouveau cadre de référence pour qu'il puisse voir les différents éléments du problème sous un autre jour. Lorsque son corps fut immergé dans l'eau, le niveau de la baignoire s'est élevé, ce qui  déclencha dans l'esprit ingénieux d'Archimède la reconnaissance d'un résultat. Esprit logique, il sut immédiatement à quelle expérience ce résultat était relié. Un contexte différent a permis de trouver une réponse similaire à celle qu'il aurait eu en utilisant une balance. La frustration d'Archimède l'a poussé volontairement à chercher ailleurs l'explication. Son effort mental au début erratique a fini par s'organiser pour refermer le cercle.

Ce processus de bissociation volontaire est le propre des génies et nous reconnaîtrons là la puissance cognitive des créateurs et des inventeurs qui peuvent à la demande s'écarter des chemins battus.

Prochain chapitre

Modèle et réalité : l'outil mathématique

Retour à la Philosophie des sciences

Page 1 - 2 - 3 - 4 -


[19] Telle est la conclusion à laquelle sont parvenus G. et C.Nicolis dans Nature, 311, p529. L'histoire du climat de la Terre pourrait se résumer à l'interaction de 4 variables indépendantes !

[20] K.Popper, "La logique de la découverte scientifique", op.cit., 83, p276.

[21] K.Popper, "La logique de la découverte scientifique", op.cit., 66, p194.

[22] R.von Mises, "Probability, Statistics and Truth", trad. J.Neyman/ D.Sholl/ E.Rubinowitsch, 1939.

[23] L'agorithme de π limité à quelques termes est à l'opposé d'une chaîne aléatoire et n'offre pas de pertinence dans cette démonstration.

[24] I.Prigogine et I.Stengers, "Entre le Temps et l'Eternité", Fayard, 1988.

[25] Le gafophone est cette invention géniale de Gaston Lagaffe, héros de la bande dessinée de Franquin.

[26] A.Koestler, "La Loi d'Archimède", Callman-Lévy, 1980.


Back to:

HOME

Copyright & FAQ