Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Météorologie élémentaire

Reflets de nuages dans un building au Brésil. Document Sergio Velho Jr.

Les prévisions numériques (I)

Il y a bien longtemps, nos ancêtres se réfugiaient dans des abris sous roche pour se protéger des intempéries et des foudres du ciel. Plus tard ils firent des incantations à dame Nature, à Jupiter et ses fils pour bénéficier de la clémence divine face à des phénomènes météorologiques ou célestes qu'ils ne maîtrisaient pas.

Aujourd'hui encore, nous sommes impuissants devant la force brutale de la Nature et nos ancêtres avaient bien du courage en subissant ses méfaits pratiquement sans protection. Mais dix mille ans plus tard les choses n'ont pas fort changé; nous redoutons toujours "les foudres du ciel" et nos moyens de protection paraissent parfois bien dérisoires...

A l'ère de l'informatique et du contrôle à distance, le temps, comme beaucoup d'autres phénomènes thermodynamiques, reste indompté. Toutefois, nous savons aujourd'hui que cet immense laboratoire que représente l'atmosphère obéit à des lois élémentaires qui nous permettent de comprendre la mystérieuse alchimie qui s'y déroule.

Ces processus ont été longtemps observés, analysés et la plupart ont été mis en équations depuis une centaine d'années.

Car l'essentiel en météorologie est de pouvoir déterminer le temps à venir et son évolution à long terme (climatologie). Pour les prévisionnistes rien n'est donc plus important pour leur activité que de pouvoir disposer de moyens prédictifs simulant les conditions de l'atmosphère; il s'agit des modèles ou prévisions numériques.

Du jeu d'échec au modèle météorologique

Prévoir le temps fonctionne un peu comme un jeu d'échec. Au jeu d'échec, un réseau géométrique de carrés divise le plateau tandis que les pièces se déplacent dans différentes directions linéaires. Dans sa version numérique, le jeu d'échec doit inclure des règles et différentes stratégies traduites dans la logique mathématique, faisant de l'ordinateur un adversaire redoutable.

Au jeu des prévisions météorologiques numériques, l'évolution de l'atmosphère est décrite par une série de données sur lesquelles sont appliquées des opérations. Il s'agit de règles dérivées d'un ensemble complexe d'équations relatives aux lois physiques de base, dont les équations de Navier-Stockes qui décrivent les mouvements des fluides visqueux en fonction des variables météorologiques comme la pression de l'air, la température, le taux d'humidité, la densité de l'air, la force du vent et les gradients verticaux. L'ensemble des instructions mathématiques est codé en langage informatique et traité par des superordinateurs massivement parallèles. Le produit final est une prévision météorologique appelée un modèle numérique.

En d'autres termes un modèle permet de calculer des paramètres de sortie à partir de paramètres d'entrée. On calcule ainsi l'évolution de l'atmosphère à partir d'un état initial supposé parfaitement connu basé sur des observations réelles, de la même manière que l'aurait fait un prévisonniste épaulé par des observateurs, mais évidemment avec un temps de réponse plusieurs milliards de fois plus rapide.

C'est ainsi que les modèles météorologiques permettent de prévoir la température, le vent, la pression atmosphérique et les précipitations notamment qui règneront dans quelques heures ou quelques jours à partir des paramètres météorologiques mesurés aujourd'hui.

Autre similitude avec le jeu d'échec, un joueur doit parfois sacrifier un pion ou une autre pièce pour obtenir un avantage, ce qu'on appelle un Gambit (cf. l'ouverture Anglaise de Karpov contre Topalov). Au jeu des prévisions météorologiques, les prévisionnistes sacrifient la perfection des calculs pour avoir l'avantage d'établir des prévisions informatives, ce que nous allons découvrir.

A gauche, prévision des vents à 48 heures pour l'Atlantique Nord au niveau 1000 mb (MSL). A droite, visualisation sur une grille tridimensionnelle avec le logiciel Vis5D des données de la tempête hivernale qui sévit en mars 1993 sur l'Est des Etats-Unis. Comme la version précédente, la version Vis5d+ du logiciel est libre de droit. Elle est notamment utilisée par le CNRS et l'ECMWF. Documents NOAA-CDC et Bill Hibbard.

Depuis quelques décennies il est très difficile pour un prévisionniste d'établir une bonne prévision sans prendre connaissance des "numériques", des modèles fournis par les centres nationaux (NOAA, Readings, Météo-France, IRM, etc.). Cette aide est très précieuse surtout lorsqu'il faut prévoir l'état des masses d'air à longue échéance.

Un modèle numérique de prévision du temps représente donc une simulation mathématique de l'évolution de l'atmosphère, considérée comme un mélange d'air sec et de vapeur d'eau, à partir de son état initial connu à un instant donné.

Certains modèles établissent des prévisions numériques à l'échelle globale (Arpège en Europe, NAM en Amérique du Nord, etc) ou à l'échelle régionale (Aladin pour l'Europe continentale avec une résolution de 8 km et Arome pour l'Europe et le bassin des Carpathes avec une résolution de 2.5 km). Certains ont une vocation opérationnelle, dont l'objectif est de fournir des prévisions chaque jour et dans un délai rapide (immédiat à quelques heures). Ces modèles sont donc optimisés en les réactualisant plusieurs fois par jour et en tenant compte d'interpolations temporelles (tel le modèle "4D-Var").

Les logiciels de prévision du temps contenant des millions de lignes de code, leur développement nécessite souvent une collaboration entre plusieurs pays. Le modèle Aladin par exemple a été développé en 1992 par un consortium de 14 pays dont plusieurs pays européens comprenant la France et la Belgique, des pays d'Europe de l'Est et le Maroc. Chaque pays dispose également de son propre modèle couvrant son territoire national ou sa région, mais la physique implémentée dans ses modèles est commune.

Ainsi que nous le verrons, les sous-modèles permettent de relier des changements dans les paramètres de sortie du modèle à des changements de ses paramètres d'entrée. Ils permettent donc de répondre à des questions précises de nature régionale telles que : la dépression prévue pour demain est-elle plutôt liée à l'ondulation du front polaire ou à l'écoulement atmosphérique sur l'océan Atlantique ?

Conceptionnellement, un modèle de l'atmosphère est une sorte de jeu d'échec en 3D dont le volume est représenté par un maillage tridimensionnel. Chaque maille représente un volume ou "boîte" de quelques kilomètres de longueur (2.5 à 35 km) plus ou moins resserrée en altitude en fonction de la puissance des ordinateurs (entre 49 et 60 niveaux ou couches d'épaisseur variables mesurant chacune au minimum quelques centaines de mètres d'épaisseur). Chaque boîte élémentaire est considérée comme un point et reçoit les valeurs initiales de pression, température, vent, humidité, etc, observées à un instant donné sur la Terre par les réseaux synoptique et aérologique, les stations aériennes, etc. Certains relevés ne correspondant pas aux "points" de la grille, les valeurs manquantes sont interpolées; c'est l'analyse en points de grille.

A gauche, principe de la modélisation de l'atmosphère. Les variables météorologiques calculées dans chaque cube sont ensuite globalisées à l'échelle régionale (ou mondiale) pour établir les prévisions. A droite, le modèle global GME développé par le centre DWD en Allemagne.

Une fois analysé, l'ensemble de ces points horizontaux et verticaux forme la grille du modèle. La distance qui sépare deux points de grille s'appelle la "résolution".

Dans le modèle français Arpège la résolution atteint 35 km, l'équivalent de 4 millions de points. On applique ensuite à chaque point les équations thermodynamiques dont les résultats sont ensuite globalisés et présentés sous forme graphique, c'est la prévision numérique.

Toutes les données prises à un instant intial sont traitées par un ou plusieurs modèles informatiques selon l'objectif recherché (carte de surface ou d'altitude, prévision à court ou moyen terme, etc). Les ordinateurs présentent ensuite le résultat de cette simulation, par exemple le temps qu'il fera dans cinq minutes. Ces séries de nombres sont ensuite réentrées dans les mêmes équations pour voir quel résultat ils donneront dans les cinq minutes qui suivent. Ce processus itératif est répété un très grand nombre de fois jusqu'à ce que le modèle atteigne ses limites (1 heure, 3 jours, 8 jours, etc). Une fois les états futurs de l'atmosphère connus, le modèle numérique permet d'en déduire une multitude de paramètres plus élaborés comme la répartition et la nature des nuages, l'intensité des précipitations, l'épaisseur de neige, etc. Le résultat de cette modélisation est une représentation graphique de l'état de l'atmosphère pour l'époque indiquée, à l'image de la prévision de surface présentée ci-dessous.

Modèle numérique prévu à 24 heures et la photographie de la circulation atmosphérique du 26 avril 2001 à 12h TU. Des prévisions aussi précises étaient inimaginables dans les années 1990. En 2005, la fiabilité des prévisions à court terme (8h) était de 90%. Document Météo-France.

Les limites des modèles numériques

Si la précision des prévisions numériques ne fait que s'améliorer, elle dépend avant tout de la puissance des ordinateurs et de la résolution des modèles. Mais d'autres paramètres viennent également limiter cette précision.

D'une part, et c'est la plus importante, la résolution spatiale des modèles ne permet pas toujours de simuler des évéments locaux comme un orage ou une tornade qui évoluent également dans l'espace, chacun présentant une certaine extension verticale propice ou non au développement d'activité près du sol. Les modèles numériques ont déjà du mal à simuler les supercellules orageuses associées aux cumulonimbus qui s'étendent parfois sur plusieurs kilomètres. A fortiori un orage local sera indécelable.

En revanche, à partir des modèles et de calculs, le prévisionniste peut prévoir le risque d'un orage ou de tornade au-dessus d'un aéroport ou du jardin du président pendant sa garden party, valeur qui sera évidemment associée à une certaine marge d'erreur.

D'autre part il y a la résolution temporelle. Tout phénomène atmosphérique évolue à une certaine vitesse dans le temps qui varie également en fonction de son stade évolutif, des frictions entre masses d'air et des frottements sur le sol, autant de variables qu'il est parfois très difficile d'évaluer et de quantifier en raisons d'interactions multiples (propriétés de l'air en altitude, reliefs, etc).

D'autres facteurs limitent la qualité des modèles. Idéalement, un modèle de prévision doit prendre en compte les propriétés du milieu pluvio-nuageux (la taille les gouttelettes d'eau et leur état physique), la chimie atmosphérique ainsi que les détails du sol (montagne, végétation, vagues, villes, neige, etc), mais cela se paye par une augmentation drastique du temps de calcul et donc du prix de la seconde de traitement.

La taille minimale exploitable par un modèle est déterminée par la maille de la grille horizontale utilisée tant par la méthode d'analyse numérique des données initiales que par le modèle numérique de prévision du temps. Cette résolution est d'environ 11 km (0.11° en latitude et longitude) dans le modèle Unifié anglais avec un pas de temps d'environ 20 minutes nécessaire au traitement. 

Il y a peu de temps encore, le modèle régional Aladin travaillait avec une résolution de 7 km. Avec le modèle Arome mis en production en 2008, la résolution atteint 2 km et en 2015 Météo-France atteint une résolution de 1.3 km.

La résolution spatio-temporelle d'un modèle dépend également du phénomène étudié et de sa cyclogénèse (son cycle de vie) qui obéissent aux lois de la thermodynamique. S'il est possible de simuler le comportement d'un cyclone dont la dimension horizontale peut dépasser 500 km de diamètre et sa durée de vie dépasser un mois, simuler une tornade dont le diamètre maximum atteint une centaine de mètres avec une durée de vie inférieure à trente minutes est tout a fait exclu actuellement. On en reparlera dans 50 ans.

Les bactéries comme variable météorologique

Ainsi que nous l'avons expliqué dans le chapitre consacré à la faculté d'adaptation, Parisa Ariya, chimiste de l'atmosphère à l'Université McGill au Canada, a découvert que des milliards de micro-organismes peuplaient l'atmosphère jusqu'à plus de 60 km d'altitude.

En tant que météorologiste elle s'est demandé si ces bactéries ne jouaient pas un rôle dans le climat. Jusqu'à aujourd'hui en effet on a sous-estimé le rôle des bactéries en météorologie, or elles sont présentes dans toute l'atmosphère y compris dans les nuages. Comme on l'a vu à propos des précipitations, elles peuvent servir de noyaux de condensation et participer activement à la formation des nuages et des précipitations.

Les chercheurs canadiens effectuent actuellement des études pour incorporer ces micro-organismes dans les modèles climatiques. En effet, il se pourrait que ces bactéries y jouent-elles un rôle prédominant : elles influencent peut-être la dissémination des maladies, la formation des nuages, voir carrément le climat. Si leur présence permet d'affiner les prévisions météos, la preuve sera apportée.

Se greffe sur ce problème le fait que les modèles numériques manquent parfois de précision et qu'ils deviennent de moins en moins fiables à mesure que temps passe, généralement au-delà de J+2 jours. Par ailleurs tous les modèles ne prennent pas en considération  la couverture nuage, les zones de glace ou de neige, la présence des villes et des forêts quand il faut prévoir les températures... Comme les prévisionnistes, quand ils remarquent qu'un modèle dérive, les programmeurs font des corrections et réinjectent des données actualisées puis essayent de corriger les algorithmes de calcul.

Cette opération consistant à fournir à chaque instant la meilleure estimation de l'état de l'atmosphère (en prenant en compte les données les plus récentes) s'appelle "l'assimilation de données". Cette technique est utilisée chez Météo-France dans le cadre du modèle vectoriel 4D-Var. Mais a contrario, ces corrections coûtent plus cher en ressources informatiques, et il n'est pas rare que le temps de traitement dure 3 à 4 fois plus longtemps et atteignent plus d'une heure. Dans une mission opérationnelle, ce délai est inacceptable

Enfin, un modèle n'est pas isolé et doit tenir compte au bord de son domaine de données extérieures, en particulier des prévisions internationales. Pour que le modèle soit fiable il faut l'alimenter avec des informations précises sur le temps qu'il fait partout sur la Terre à cet instant-là, c'est le modèle global qui tient compte des informations apportées par les stations météorologiques, les avions, les radars à pluie et les satellites. Mais étant donné que la couverture de la Terre n'est pas complète, surtout à travers les océans qui constituent 75 % de la superficie du globe, les données manquantes doivent être interpolées à partir des mesures connues. Cette opération, l'assimilation, introduit des erreurs sur les prévisions, qui ne feront que s'amplifier avec le temps.

Les prévisions numériques à 8 jours de la NOAA

Niveau 1000:500 mb - Niveau 500 mb

Température de surface - Géopotentiel au niveau 500 mb

Prévisions pour le niveau 1000:500 mb (les basses couches) et 500 mb (en altitude) du 25 avril au 10 mai 2001. Noter l'ondulation caractéristique du front polaire (en vert foncé bordé de noir) qui apporte régulièrement son lot d'intempéries dans les pays tempérés. Cliquer sur les modèles pour les animer (434 Kb et 1 Mb). Documents NOAA-CDC.

Les sous-modèles et les prévisions locales

Il existe un grand nombre de modèles et ceux utilisés en Angleterre (Modèle unifié) sont différents des modèles français (Arpège) ou américains (MM5). De plus certains modèles sont dédiés aux prévisions à 2-3 jours, d'autres aux dix prochains jours ou à la détermination des vents ou des températures en altitude. Enfin, en climatologie les modèles les plus optimistes essayent d'évaluer le temps à quelques années voire quelques millénaires. C'est ainsi que l'on a pu prévoir la hausse globale de température de l'atmosphère pour le milieu du XXIe siècle.

En 1980, l’influence des océans, des terres, du pouvoir absorbant des végétaux était encore parfois négligée car la puissance de calcul et la capacité des ordinateurs était très limitée. Aujourd'hui les performances des différents modèles est toujours liée aux ressources informatiques.

Les modèles numériques comprennent eux-mêmes des sous-modèles. Ces représentations secondaires permettent d'encapsuler dans le modèle global certains processus physiques bien connus qui participent aux échanges avec l'atmosphère : les différentes couches atmosphériques, les modèles océaniques (profondeur, eaux et ondes de surface), la glace de mer, etc. Ces sous-modèles sont avant tout utilisés pour l'assimilation de données, pour insérer des observations météorologiques actualisées dans les calculs.

Certains de ces modèles auront bientôt des applications concrètes pour nous tous. Dans le cadre des développements réalisés autour d'Aladin, des recherches très prometteuses sont actuellement effectuées sur des modèles capables de prévoir le vent ou les précipitations à l'échelle d'un quartier.

De manière générale, le niveau de détail contenu dans chaque sous-modèle est limité soit par nos connaissances des processus concernés, soit par les coûts du traitement informatique, le fameux "temps CPU". Dans certains cas le prix de la précision n'est pas justifié par l'objectif à atteindre (ou les désirs du client) et une approximation est tout à fait suffisante.

Il arrive également que l'on adapte certains sous-modèles à des occasions particulières, comme la prévision du temps durant les jeux olympiques d'hiver qui nécessite une résolution maximale (elle était de 3.5 km lors des Jeux d'Albertville en 1992 et a été divisée par 3 en 20 ans) ou pour prévoir l'évolution des feux de forêt particulièrement dévastateurs (le modèle Aladin utilisé en Malaisie en 1997 et piloté par Arpège).

Ces sous-modèles sont en général utilisés par plusieurs organisations sous forme de "plugin" qu'il suffit d'adapter aux modèles nationaux. Dans ce but, le groupe EWGLAM a été créé au niveau européen. Il regroupe les chercheurs de 14 pays dont le but est d'échanger des informations scientifiques et d'encourager les collaborations entre chercheurs de différents pays. Le modèle de prévision opérationnelle Aladin fait partie de ceux-ci.

Météorologie et climatologie : quand les variables entrent en jeu

Si la météorologie a pour objectif de prévoir le temps, la climatologie établit également des prévisions mais cette fois d'ordre climatique.

Si cela ressemble à la météorologie, les modélisations informatiques (simulations) des phénomènes météorologiques se différencient des simulations de l'évolution du climat par l'introduction de conditions initiales (le fameux "effet papillon") et de conditions aux limites (les facteurs d'influence extérieurs) fixées dans un état initial particulier dans lequel les variables deviennent... invariantes.

La simulation d'une situation météorologique rejoint le modèle climatique lorsque l'effet papillon et les conditions aux limites prennent tellement d'importance qu'ils déterminent l'état statistique moyen de l'atmosphère, son climat.

Prévisions météos et tendances

Depuis quelques années, des entreprises publiques comme Météo-France ou l'IRM et des entreprises privées proposent des prévisions en ligne, parfois gratuitement.

Parmi les sites gratuits, citons MeteoBlue et Wunderground (géré par The Weather Channel) notamment qui proposent des prévisions à court terme (3 à 5 jours) et des tendances à moyenne échéance allant de 7 à 14 jours assez complètes. MeteoBlue propose également l'évolution détaillée sur 24 heures ainsi qu'un météogramme très explicite comme on le voit ci-dessous.

Notons que les données de MeteoBlue sont calculées en Europe tandis que celles de Wunderground sont calculées sur base de modèles américains. En fonction des modèles, les prévisions à moyenne échéance sont très variables. Ainsi, dans des prévisions à J+10 et J+14, on peut observer une différence de 5°C pour le maximum de température du jour (J+0), preuve que ce type de modèle ne peut calculer que des tendances et ne remplacera jamais un modèle local à court terme.

A voir : Earth, la situation météo en 3D calculée toutes les 3 heures

Consultez le blog pour la courte revue de ce projet créé par C.Beccario

MeteoBlue, J+7

MeteoBlue, J+14

Wunderground, J+10

Prévisions à 24 heures et météogramme de MeteoBlue.

Sélectionnez une image pour vous connecter au site.

Actuellement, grâce aux radars de pluie, les systèmes LIDAR et des modèles régionaux de prévisions à court terme, un service météo comme celui de Brussels Airport est capable de prévoir au cours des trois heures à venir l'arrivée d'une zone de pluie sur l'aéroport, c'est-à-dire localement, pratiquement à la minute près ! Vous pouvez le vérifier avec un chronomètre, c'est très étonnant (même si le système à encore du mal à différencier les virgas de la pluie qui atteint le sol). C'est un record européen.

Quant au modèle français Arpège de prévision globale, les prévisions générales à 8 heures sont précises à plus de 90% tandis que le modèle Arome offre une précise équivalente mais cette fois pour les prévisions locales ! En clair, pour certains services (aéroport, sport, agriculture, mairie, etc), le personnel peut planifier les activités à la minute près sans craindre les nuages ou les ondées !

Les superordinateurs vectoriels

On comprend aisément que de tels modèles (d'une situation météorologique ou climatique) ne tournent évidemment pas sur des ordinateurs domestiques, quoique (voir plus bas) mais sur des superordinateurs "gros comme un camion" ! Rassurez-vous, ils se pilotent toujours avec un simple terminal (et plus souvent avec un PC offrant les mêmes fonctions) comme on le voit sur les photographie présentées ci-dessous.

Longtemps, les centres météos ont travaillé avec les fameux ordinateurs IBM 360, 370, et autre 3090. Ces systèmes étaient plusieurs centaines de fois plus rapides que les PC domestiques les plus performants. Mais dans le cas des modèles d'IBM, à l'image du fameux Eniac de 1946, leur encombrant était à la hauteur de leurs performances. Voici à quoi ressemblait un IBM RS/6000 SP Asci White de 12 TFLOPS[1] en 2000 : il occupait tout un local pour prétendre être l'ordinateur le plus rapide du monde ! En 2007, il fut porté à 100 TFLOPS, devenant trois fois plus rapide que l'IBM Blue Gene/L (36 TFLOPS).

Les superordinateurs utilisés en météorologie comptent parmi les plus puissants du monde. Il y a dix ans ils étaient de la série CRAY-XMP, aujourd'hui il s'agit de Fujitsu VPP 5000 (à gauche) ou de NEC SX-5 (au centre). En 2005, ces superordinateurs offraient des prévisions à 4 jours aussi précises que celles à 24 heures en 1990 ! Notez à gauche, comparé au Fujitsu, la taille minuscule de l'ordinateur domestique au fond de la salle. A droite les simulateurs de vol professionnels ont tiré profit de leur haute technologie pour créer des environnements météos virtuels dits "photo-réalistes". Côté amateur, les liaisons Internet à haut débit aidant, même un programme comme le fameux "Flight Simulator" de Microsoft les utilise, créant des conditions de vol basées sur des conditions météos réelles extraites des bulletins météos diffusés par les aéroports régionaux. Documents Fujitsu, BOM et SWRI.

Mais comme on dit "small is beautiful". Ainsi qu'on le voit ci-dessus, les IBM ont rapidement été remplacés par des modèles CRAY-XMP puis Unisys, Fujitsu et NEC nettement plus compacts et plus rapides. Mais leur mémoire de masse occupe malgré tout plusieurs dizaines de mètres cubes.

Un superordinateur de type Fujitsu dont la résolution spatio-temporelle atteint 7 km dispose d'une puissance de calcul d'environ 1 TFLOPS, équivalente à celle de 1000 ordinateurs domestiques cadencés à 1 GHz. Mais c'est insuffisant car trop lent pour établir des prévisions dans un délai raisonnable avec une résolution de 2 km.

Depuis 2013, Météo-France dispose d'un superordinateur BULLX DLC B710. Sa puissance de calcul dépasse 1 PFLOPS.

Depuis 2011, le record de vitesse est détenu par le superordinateur vectoriel Fujitsu K Computer SPARC64 qui atteint une vitesse (pic) de 8773 milliards d'opérations par seconde, soit 8.7 PFLOPS ! SGI est également bien placé. Son superordinateur PLEIADES utilisé par les chercheurs de la NASA arrive en 7eme place avec une vitesse de 1.3 PFLOPS. Quant au NEC SX-9 équipé de 512 noeuds comprenant chacun 16 processeurs, il atteint 839 TFLOPS.

Précisons que NEC n'est pas n'importe quel fabricant. La société nippone est entrée en force sur le marché des superordinateurs en 1983 en proposant déjà à cette époque un système de 1 TFLOPS alors que les PC balbutiaient encore à 4400 FLOPS (PC XT cadencé à 4.4 MHz) !

On n'est donc pas surpris d'apprendre que le 31 mai 2007, Météo-France inaugura le NEC SX-8R dans ses bâtiments du Météopôle de Toulouse (il se louait 3.7 millions d'euros/an plus frais d'infrastructure). Sa puissance de calcul fut multipliée par 21 par rapport à l'ancien système Fujitsu VPP5000 ! 

Mais pour maintenir la qualité de ses services et offrir des prévisions toujours plus précises, en 2013 Météo-France remplaça cette installation par un Bullx DLC B710 d'une puissance de calcul dépassant le PFLOPS; il est 12 fois plus puissant que le précédent modèle. Le projet coûta plus de 30.5 millions d'euros.

Ceci dit, les ordinateurs domestiques ont rattrapé une partie de leur retard en terme de vitesse pure. Ainsi, pendant que le SX-8 fanfaronnait à 65 TFLOPS et battait un nouveau record de puissance de calcul, en 2004 le processeur le plus rapide équipant un micro-ordinateur (en utilisant une seule carte-mère) était cadencé à 3 GHz et pouvait exécuter 3 milliards d'opérations par seconde. Aujourd'hui ce record est déjà battu par la société italienne Eurotech avec son superordinateur apeNEXT de 15 TFLOPS ! Bientôt les employés de Météo-France pourront travailler sur des ordinateurs... à domicile !

Et ce n'est pas une boutade car il faut rappeler qu'une application distribuée comme Einstein@Home présentait en 2015, grâce aux 4 millions d'ordinateurs mis à son service, une puissance globale de calcul supérieure à... 680 TFLOPS ! Il existe également des applications distribuées consacrées à l'étude du climat, weather@home et Climateprediction dont voici l'image au cours d'un traitement sur l'ordinateur de l'auteur.

Les avantages de la puissance

Pourquoi Météo-France a-t-il acquis un nouveau superordinateur ? Un exemple simple suffit à compendre cette décision. Les 8 et 9 septembre 2002, un orage violent déversa plus de 300 litres d'eau par mètre carré (l/m²) sur la moitié du département du Gard, provoquant d'importantes inondations. Météo-France avait bien donné l'alerte, mais n'avait annoncé que 80 l/m² sur base du modèle Aladin. "Cet épisode exceptionnel illustre parfaitement les difficultés qu'ont nos modèles météorologiques actuels pour appréhender ce type d'orage", explique Alain Ratier, directeur adjoint de Météo-France. "En revanche, en reprenant la même situation de départ qu'en 2002, notre nouveau modèle Arôme annonce le bon chiffre de 300 l/m², et cela sur la bonne zone du Gard", a-t-il annoncé.

Photo satellite de l'Europe prise le 10 août 2003 par le satellite MSG-1. C'était la canicule avec des températures largement supérieure à 30°C durant plusieurs jours qui feront plus de 10000 victimes, notamment en France. Document Eumetsat.

Contrepartie de sa meilleure précision, "le modèle Arôme est aussi 300 fois plus gourmand en temps de calcul que le modèle actuel, Aladin", remarque Emmanuel Legrand, directeur adjoint au Météopôle. Pour faire face à ces ressources, Météo-France n'avait pas d'autre choix que de changer son ancien supercalculateur. Et le même problème se répète tous les 5 ans.

Avantage du nouveau système, le modèle Arome tient compte des conditions locales de manières plus réaliste qu'Aladin, non seulement des données météorologiques classiques (température, humidité et pression) mais également de l'effet des montagnes et de la végétation pour offrir des prévisions numériques (simulations) plus précises, tant sur la quantité de nuages que les précipitations ou les turbulences. Le modèle Arome pourra même prévoir les pluies torrentielles, les orages violents ou les brouillards.

Si les prévisions sont dorénavant plus précises, en revanche, leur échéance ne porte que sur deux jours maximum, même si en théorie les prévisions numériques sont fiables jusqu'à une échéance de 10 jours.

Le modèle Arome, fruit d'une coopération entre les chercheurs et 17 services météorologiques européens, sera, dans un premier temps, exploité sur le territoire et domaine maritime français avant d'être couplé aux modèles Arpège et Aladin qui réalisent des prévisions à l'échelle régionale.

Notons enfin que le superordinateur Bullx est également utilisé pour étudier les effets du réchauffement climatique et les effets des reliefs, des côtes et de la profondeur des mers sur la dynamique de l'atmosphère et des océans.

L'avenir

L'informatique, que ce soit le matériel ou les logiciels évoluent sans cesse. Les superordinateurs vectoriels très performants en 2010 (de 100 TFLOPS) sont déjà dépassés. La nouvelle génération est 10 ou 20 fois plus rapide ! Ainsi le Cray XC30 "Anemos" installé au centre météo de Reading (ECMWF) fin 2013 dépasse 1790 TFLOPS en crête. Il comprend plus de 83000 coeurs de processeurs Intel Xeon de 2.7 GHz (comparé aux 4 ou 8 coeurs de processeurs d'un ordinateur domestique !).

Le Cray XC30 "Anemos" installé fin 2013 au centre ECMWF de Reading (Perf.crête de 1796.3 TFLOPS).

Concernant les logiciels, aujourd'hui les prévisions à 4 jours sont aussi précises que celles à 24 heures en 1990 ! Globalement, depuis 1975 l'échéance des prévisions générales est passée de 5 à 10 jours. Nous gagnons ainsi progressivement un jour d'échéance tous les dix ans.

Ceci dit, aujourd'hui une prévision météo n'est fiable à 100 % que quelques heures avant l'évènement. Passé un délai de 7 jours les prévisions deviennent moins précises et on parle plutôt de tendance.

Vers 2050, grâce notamment à l'utilisation intensive des satellites, des radars et des données synoptiques, on estime pouvoir établir des prévisions fiables à plus de 90 % à 14 jours et des prévisions locales à échéance de 8 heures fiables à 99 %. Autrement dit, vous pourrez consulter la météo pour savoir avec précision si vous pouvez faire un barbecue dans votre jardin entre 13 et 14h ou si vous pourrez pratiquer une activité en plein air dans 5 jours à 30 km de chez vous sans risquer l'averse ! Ces modèles vous permettront également de mieux comprendre pourquoi il pleut ou vente plus souvent chez vous que dans un autre quartier, car telle est la réalité !

Deuxième partie

L'expertise humaine

Page 1 - 2 -


[1] 1 teraFLOPS ou TFLOPS = 1 milliard d'opérations en virgule flottante par seconde (ou 1000 Mips) = 2500 CPU Pentium cadencés à 450 MHz. Un PC cadencé à 1 GHz présente une capacité de calcul d'environ 1 GFLOPS mais la progression n'est pas strictement linéaire car elle dépend des performances des caches du processeur. Seuls des benchmarks peuvent déterminer les performances de calcul de votre ordinateur. Bien qu'on trouve dans la littérature "flop" au singulier - c'est devenu un néologisme - le terme devrait toujours s'écrire "FLOPS", avec "s", car c'est le diminutif de "seconde" (FLoating-point Operation Per Second) et en majuscule puisqu'il s'agit d'un acronyme. Le pluriel devrait s'écrire "FLOPSs" mais il est très peu utilisé (et je ne l'utilise pas non plus) et discutable avec les acronymes.

Notons qu'une simple calculatrice de poche réalise en théorie une seule opération par seconde. Nous avons rarement besoin d'un temps de réponse plus rapide. Subjectivement, nous considérons que toute réponse affichée en moins de 0.1 seconde est instantanée. Cela permet d'attribuer aux calculatrices une performance d'environ 10 FLOPS. Quant au méthodes de calculs manuelles (une division difficile), notre performance tombe en général à environ 1 milliFLOPS. Ces performances sont bien sûr très différentes de celles de nos facultés neuromotrices.


Back to:

HOME

Copyright & FAQ