Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Nos outils pour sonder l'univers

Document John Dubinski, http://www.cita.utoronto.ca/~dubinski/tflops/

Simulation de la collision entre la Voie Lactée et M31. Aspect du système galactique 800 millions d'années après leur collision. Cliquer ici pour lancer l'animation. Fichier MPEG de 10 MB préparé par John Dubinski/U.Toronto.

L'informatique (VI)

L'informatique n'est pas à proprement parlé un outil pour sonder l'univers mais depuis quelques décennies cette technologie s'avère indispensable pour assister l'astronome dans le guidage des télescopes, le traitement des images ou des signaux, la gestion des données et les simulations des phénomènes cosmiques.

A l'ère de l'électronique, de l'intégration à l'échelle atomique et de l'informatique qui est en train d'envahir notre quotidien, l'astronome et le physicien au sens large font un usage intensif des superordinateurs vectoriels pour comprendre les principes directeurs de l'Univers.

Les superordinateurs

Les superordinateurs utilisés en science sont les machines les plus performantes. Elles exploitent les technologies HPC (High Performance Computing), GPU (Graphics Processing Unit), les grappes ou clusters d'ordinateurs et des noeuds ou concentration d'unités de coeurs de processeurs, de mémoire, d'unité de stockage, etc.

L'avantage de ce type d'architecture est d'offrir des systèmes massivement parallèle et modulables dont les traitements sont distribués entre les différentes unités spécialisées afin d'obtenir un système global plus performant qu'un seul gros système équivalent, pour un prix relativement inférieur (environ 100 000€ pour une machine de 1 PFLOPS).

Ces superordinateurs offrent une vitesse de calcul qui s'exprime actuellement en milliards ou milliers de milliards d'opérations en virgule flottante par seconde, c'est-à-dire en teraFLOPS (TFLOPS) ou  petaFLOPS (PFLOPS). Leur mémoire vive (RAM) se calcule en milliers de gigabytes (en terabytes ou TB) et leur capacité de stockage sur disque ou tape en multiples de petabytes (PB) !

Ainsi qu'on le constate les performances d'un superordinateur de dernière génération est équivalente à celle de centaines de milliers de PC mis en parallèle.

Pourquoi une telle puissance ? Pour effectuer des simulations et traiter des données dans un délai raisonnable voire en temps réel, un ordinateur a besoin d'importantes ressources matérielles : d'un microprocesseur (et même de milliers de microprocesseurs) pour effectuer les calculs et d'espace mémoire (RAM et disque) pour contenir à la fois son programme et l'ensemble de ses données, les variables et certains résultats. Moins il a de contraintes d'ordre physique (vitesse CPU, espace mémoire ou disque, bus d'entrée-sortie) moins il sera limité par ses ressources.

Plus l'ordinateur est capable de traiter rapidement de grands volumes de données (Big Data), plus facilement les programmeurs pourront l'utiliser pour développer des modèles numériques complexes tenant compte de très nombreuses variables.

Plus les modèles numériques seront complets (détaillés et offrant une granularité très fine) et précis, plus facilement les utilisateurs pourront simuler des processus aussi proches que possible de la réalité. Finalement les projets et la recherche avanceront d'autant plus vite que le système fournira rapidement des résultats.

Aidé par la loi de Moore et les nouvelles technologies, il n'est donc pas étonnant d'apprendre régulièrement qu'un centre de recherche s'est équipé d'un nouveau superordinateur, deux fois ou dix fois plus puissant que l'ancien modèle.

Voici quelques exemples d'infrastuctures informatiques à haute performance qu'utilisent les scientifiques et de plus en plus d'enterprises publiques et privées.

Le Pr Stephen Hawking en compagnie des responsables du superordinateur SGI Altix COSMOS du DAMTP dans sa version 2010.

La Faculté de Mathématiques que préside Stephen Hawking à la prestigieuse Université de Cambridge (DAMTP) abrite depuis 1997 le superordinateur national de cosmologie COSMOS.

Il s'agit d'un superordinateur Silicon Graphics Altix UV2000 qui fut upgradé à différentes reprises. Depuis fin 2012, le COSMOS Mark IX présente une vitesse de calcul de 38.6 TFLOPS; il effectue 38.6 milliards d'opérations par seconde.

Utilisé par le Consortium de Cosmologie Informatique (Computational Cosmology Consortium ou UK-CCC), COSMOS permet aux théoriciens anglais de modéliser l'histoire de l'univers depuis les premières fractions de secondes après le Big Bang jusqu'à aujourd'hui, soit environ 13.8 milliards d'années d'évolution.

Selon Hawking, responsable de l'UK-CCC, "L'ordinateur COSMOS [permet] de calculer ce que nos théories sur l'univers primordial prédisent et de les tester par rapport aux nouveaux résultats observationnels qui sont à présent encodés".

En parallèle, les physiciens disposent du superordinateur du Grand Challenge Cosmology Consortium (GC3). Ce projet américain qui vit le jour en 1993 et qui fut dirigé par Jeremiah Ostriker de Princeton rassemble des chercheurs, physiciens et informaticiens de six universités et plusieurs centres privés de recherches.

A l'époque, les chercheurs disposaient d'un superordinateur CRAY T3D de 19 GFLOPS installé au MIT. Aujourd'hui, ils utilisent un Cray UV deux mille fois plus puissant, de 37 TFLOPS. Grâce à cette machine, les chercheurs espèrent mieux comprendre comment se forma la structure de l'Univers à grande échelle et notamment l'influence de la matière sombre sur la formation des galaxies et des étoiles.

Depuis 2008 et le Cray XT5 Jaguar, nous sommes entrés dans l'ère du petaFLOPS. Ainsi, dans les domaines de l'ingénierie spatiale et l'astronautique notamment, les chercheurs de la NASA (NAS Division) disposent depuis décembre 2008 du superordinateur PLEIADES, un Silicon Graphics Altix ICE qui fut upgradé à plusieurs reprises et atteint aujourd'hui (fin 2013) une vitesse de calcul de 1.24 PFLOPS (pic de 2.87 PFLOPS).

Pour certains projets, les chercheurs disposent du Cray XC30 dont la vitesse de calcul varie selon la configuration entre 1.6 PFLOPS et plus de 100 PFLOPS (celui de la NSA) ! Notons que la NSA envisage de franchir l'exaFLOPS vers 2018.

Les chercheurs européens disposent également de plusieurs superordinateurs HPC dont le Bull Curie du CEA installé à Bruyères-le-Châtel, dans l'Essonne (F) qui fut inauguré en 2012. Ouvert aux scientifiques européens dans le cadre du projet PRACE, Curie est l'un des superordinateurs les plus rapides. Il dispose de 92000 coeurs de processeurs et atteint une vitesse de calcul de 2 PFLOPS.

Curie dispose de 360 TB de mémoire RAM, de 15 PB d'espace disque avec un cache de 1 PB et une bande passante de 250 GB/s, permettant de stocker l'équivalent de 7600 ans de musique (fichiers MP3) !

Curie est utilisé dans divers domaines scientifique, notamment en physique, en chimie, en astronomie et en médecine.

A lire : TOP500 Supercomputers

Le superordinateur Bull Curie de 2 PFLOPS installé au CEA en 2012 utilisé dans le cadre du projet européen PRACE.

Grâce à ces outils très performants, régulièrement nous découvrons dans les magazines des simulations sur ordinateur représentant les fluctuations quantiques des champs scalaires, l'influence de la matière sombre, sur la concentration de matière visible dans l'univers, la simulation de la densité d'énergie à différentes époques primordiales, 380000 ans ou 2 milliards d'années après le Big Bang, les intenses jets de rayonnement émis par les radiogalaxies ou les quasars voire carrément les propriétés hypothétiques des cordes cosmiques deux heures après le Big Bang ou des trous noirs tel celui probablement caché dans le système Cygnus X-1.

Toutes ces simulations doivent aider les théoriciens à visualiser des états et des objets de l'univers autrement inaccessibles à leurs investigations. Ces modèles, comme les ombres de la réalité sont comparés aux résultats expérimentaux, le verdict de dame Nature tranchant souvent brutalement la question de leur conformité avec la réalité.

La Faculté de Mathématiques de l'Université de Cambridge maintient également un groupe de recherche spécialisé dans la relativité générale et la gravitation (GRG). Elle s'intéresse de près à la supergravité, aux défauts topologiques ainsi qu'aux autres théories cosmologiques exotiques qui pourraient éventuellement déboucher sur une théorie unifiée (théorie des cordes, etc).

Le traitement d'image, de Big Data

Discutant informatique, les ordinateurs sont bien sûr utilisés pour reconstituer les images enregistrées par les observatoires, qu'ils soient terrestres ou orbitaux, les sondes spatiales ainsi que pour construire des images à partir les signaux radios captés par les radiotélescopes.

Un télescope spatial dispose d'un capteur constitué d'une caméra CCD (Dispositif à Transfert de Charge) refroidie près du zéro absolu pour réduire le bruit électronique. Elle contient des photosites (pixel) qui convertissent le rayonnement en signaux électriques qui sont stockés dans un espace mémoire. Le signal est ensuite transmis au sol par ondes radios ultra-courtes à l'une des paraboles du réseau DSN ou directement à une institution en charge du projet. C’est ensuite un programme de traitement de signal qui se charge de le convertir sous forme d’une image à l’écran.

Gros-plan sur l'un des "Piliers de la Création" de la nébuleuse M16 du serpent. A gauche, l'image brute telle que l'a enregistrée la caméra WFPC2 dans l'un des trois canaux monochromes du Satellite Spatial Hubble le 1 avril 1995. Au centre et à droite, le résultat après combinaison des trois images RGB et traitement numérique. Documents NASA/ESA/STScI traités par J.Hester et P.Scowen.

Aujourd'hui, ainsi que nous l'avons expliqué, les professionnels disposent d'infrastructures informatiques et notamment de cartes graphiques très performantes contenant des milliers de coeur de processeurs graphiques (GPU) sans lequels ils ne pourraient plus traiter les images, tellement leur taille est importante.

Ne mentionnons que trois exemples. Les images prises par la sonde spatiale MRO en orbite autour de Mars font chacune 120 MB, celles du VST de l'ESO font 368 MB.

En 8 ans (2000-20008), le Sloan Sky Digital Survey (SDSS), le plus vaste programme d'observation astronomique, a enregistré 140 TB d'images. Grâce à l'aide de superordinateurs, il a permis aux astronomes d'explorer l'univers profond en 3D jusqu'à 1.3 milliard d'années-lumière (z=0.1). Le projet se poursuit aujourd'hui dans le cadre du SDSS III avec l'analyse spectroscopique massive, y compris des quasars.

Nous prendrons le temps de détailler ces gigantesques volumes de données, les débits qu'ils requièrent et comment ils sont gérés dans l'article consacré aux Big Data.

A voir : A Flight Through the Universe, by the Sloan Digital Sky Survey

L'univers de 400 000 galaxies jusqu'à 1.3 milliard d'années-lumière en 3D

Entourant une image de la Grande Tache Rouge de Jupiter prise par Voyager 1 le 6 juin 1979 et restituée en couleurs représentatives pour accentuer les détails atmosphériques, deux images de l'extraordinaire nébuleuse planétaire dite de l'Oeil de chat, NGC 6543, respectivement en couleurs naturelles (gauche) et en version accentuée de la partie centrale (droite). Documents JPL et NASA/ESA/STScI.

Le traitement d'image est une spécialité à part entière. Les images prises par le Télescope Spatial Hubble par exemple sont enregistrées en noir et blanc à différentes longueurs d'ondes comprises entre 110 à 1100 nm (200-400 nm pour le ciel profond) à travers trois filtres colorés, respectivement bleu, vert et rouge. C’est au cours du traitement d’image effectué au sol que l’image couleur est obtenue par synthèse additive des trois mêmes couleurs fondamentales.

La véritable couleur d’un objet céleste est très difficile à rendre, on y reviendra dans l'article consacré à la vision des couleurs. Si l'image a été prise dans le spectre visible, elle dépend de la sensibilité spectrale du détecteur mais également de l’indice de couleur de l’objet considéré et de la sensibilité rétinienne de l’observateur.

Quand l’image est enregistrée à partir du sol, se greffe sur cette difficulté celle de l’effet de la pollution lumineuse et de la brillance du ciel engendrée par les aurores et d’autres phénomènes naturels produisant des raies d’émission que la caméra CCD peut détecter.

Enfin, on assume que l’écran de l’ordinateur présente une température de couleur relativement neutre, proche de 9500 K; trop basse (~6500 K) l’image blanche aura une dominante jaune, trop élevée (> 10000 K), elle présentera une domaine bleue. Des sondes de calibration peuvent bien sûr être utilisées pour équilibrer les canaux RGB.

A gauche et au centre, processus de traitement d'une image de Saturne enregistrée en N/B par Hubble dans le proche, moyen et lointain infrarouge et convertie en couleurs représentatives. L'image couleur résultante permet de découvrir des détails invisibles en couleurs naturelles ou accentuées. A droite, même traitement d'une photo du pôle Sud de Jupiter prise par Juno le 11 décembre 2016 à 52200 km du sommet des nuages révélant toute la complexité de la circulation atmosphère. Documents NASA/ESA/Hubble Site et NASA.

La couleur joue un rôle important en astrophotographie. Elle est utilisée dans trois cas particuliers :

- Pour décrire l’aspect naturel des objets célestes

- Pour détecter des détails invisibles en lumière blanche

- Pour accentuer certains détails.

La couleur naturelle obtenue par synthèse additive permet de simuler les couleurs de l’objet comme si nous l’observions dans l’espace. Mais étant donné que généralement personne n'a été constater la conformité des couleurs in situ, parfois, au bout de quelques années, après avoir analysé des milliers d'images du même astre, les experts en traitement d'image du laboratoire MIPL du JPL finissent par modifier la balance chromatique des anciennes images pour les rendre a posteriori plus conformes à la réalité, sans pour autant pouvoir l'affirmer. Ce fut notamment le cas pour les images de Mars prises par la sonde Viking et de Io prises par les sondes Voyager qui ont perdu 30 % de leur saturation dans certaines couleurs.

Notons à ce sujet que la couleur réelle des paysages martiens n'est pas orange-brun clair et contrastée comme le montrent en général les photos prises par les rovers d'exploration mais tirent franchement sur le brun-vert-olive et sont ternes comme le montre les deux images suivantes prises par le rover Curiosity en 2014 avant et après correction des couleurs; la NASA a décidé de leur donner une couleur comparable à la lumière du jour sur Terre plutôt que la couleur réelle, à laquelle le public n'est pas habitué et visiblement moins agréable. Toutefois, sur certaines images récentes comme le selfie de Curiosity publié en 2013, la dominante est 20 % plus verte que par le passé, à se demander si les analystes du JPL ont de la suite dans les idées et suivent toujours la même logique !

A lire : JPL's Image Processing Laboratory History

Quelle est la véritable couleur de Mars et comment faut-il la reproduire ? Même le JPL se pose la question. A gauche, un e panoramique de la surface de Mars et notamment d'une petite dune de sable que traversa le rover Curiosity le 9 février 2014 (538e sol). Sur cette image, la balance des couleurs a été établie sur une lumière blanche, similaire à celle qu'on observe sur Terre tandis qu'au centre, la dominante orangée-vert olive n'a pas été rectifiée; les couleurs sont conformes à ce qu'on observe sur Mars. A droite, un selfie ou autoportrait de Curiosity réalisé le 27 avril 2014 au 613e sol. Cette image résulte du compositage de 75 photographies. Les couleurs ont une nouvelle fois été rectifiées différemment et tendent beaucoup plus vers les couleurs naturelles, la luminosité en plus. Documents NASA/JPL/MSSS et NASA/JPL/MSSS.

Les couleurs représentatives ou fausses couleurs permettent aux scientifiques de visualiser des détails de l'astre qui seraient autrement invisibles du fait qu’ils rayonnent l’essentiel de leur énergie en dehors du spectre visible (infarouge, radio ou rayons X par exemple).

Enfin, les couleurs accentuées permettent par définition d’amplifier les couleurs d’une image afin d’accentuer le contraste de certains détails. On utilise notamment cette technique lorsqu'on prend des clichés sous filtres colorés bleu+rouge, comme cet exemple de la petite tache rouge junior de Jupiter, et plus rarement en RGB.

L’utilisation de filtres additionnels à bande passante plus ou moins étroite permet également d’isoler certains rayonnements ou mode de propagation dans lequel l’astre présente une activité importante (hydrogène alpha, lumière polarisée, etc.).

Saturne photographiée par le Télescope Spatial Hubble. A gauche, une photo le 7 juin 2001 en couleurs naturelles. A droite, une photo prise en 2003 en couleurs accentuées qui révèle beaucoup plus de détails. Documents NASA/ESA/Hubble Site.

Le traitement d'image permet enfin de rectifier des prises de vue de mauvaise qualité, voire carrément floues grâce à des algorithmes appliqués à l'image numérique. La technique la plus connue est le masque flou numérique et les technique de déconvolution. Développées pour extraire l'information ultime contenue dans les photographies d'espionnage puis appliquées aux applications civiles (astronomie, sécurité, etc.), on les retrouve aujourd'hui dans tous les bons logiciels de traitement d'image (Photoshop, Maxim DL, Iris, etc).

Du cosmos à l'infinement petit

Pour comprendre l'univers, comme le physicien, l'astronome a besoin d'étudier le microcosme de l'infiniment petit. En effet, le Soleil, une galaxie ou un trou noir obéit aux lois de la physique, des propriétés de la matière jusqu'à son niveau le plus élémentaire.

Ainsi pour comprendre le rayonnement des quasars et les gigantesques lobes de rayonnement radios ou X qu'ils émettent parfois jusqu'à plusieurs centaines de milliers d'années-lumière, les modèles de la nucléosynthèse stellaire ne sont d'aucune utilité pour l'astrophysicien; ces astres excessivement brillants et actifs n'émettent pas du tout leur énergie comme le fait une étoile ou même une galaxie ordinaire. L'astrophysicien doit faire appel à d'autres théories, des processus non thermiques, impliquant par exemple l'activité d'un trou noir et l'applications de lois qui relèvent de la physique quantrique sous l'effet de champs gravitationnels intenses.

On reviendra sur ces théories plus ou moins unifiées (gravité quantique, cordes, etc) et les découvertes qu'elles ont permises ou leurs prédictions dans les dossiers consacrés à l'astrophysique, la cosmologie et la physique quantique.

En guise de conclusion

Le télescope de Winstone de 500 mm d'ouverture.

Avec tous ces outils hautement sophistiqués à leur disposition, les chercheurs praticiens comme théoriciens peuvent explorer l'Univers jusque dans ses derniers retranchements, à deux pas de la Création. Franchir ce seuil est aujourd'hui utopique faute de moyens et de théories adéquates.

En effet, l'Univers primordial demeure encore inaccessible car l'essentiel du problème réside en-deçà de l'échelle de Planck où nos théories n'ont plus cours faute d'une formulation complètement aboutie.

Observer, écouter, analyser, comprendre et tenter de reproduire l'évolution des objets qui peuplent l'Univers, qu'ils soient proches ou situés aux confins du cosmos, nous permettent de mieux comprendre comment l'Univers est passé d'un état très simple dans le passé à un état si complexe et structuré aujourd'hui.

Grâce à tous ces instruments de haute technologie, nous pouvons retracer l'histoire de cette évolution et écrire les pages de notre Univers. Un jour peut-être nous trouverons dans ce livre de la Création les réponses au pourquoi de l'Univers et de notre présence ici bas, deux questions qui demeurent malheureusement encore du ressort de la métaphysique.

Comme le dit un proverbe turc, "la nuit est enceinte et nul ne connaît le jour qui va naître". Mais une chose est sûre, l'avenir sera passionnant, il brillera du reflet des ambitions humaines qui auront su porter jusqu'au ciel le savoir-faire des hommes pour éclairer nos esprits du savoir de l'Univers si longtemps recherché. Cette quête nous conduira aux confins du cosmos, un lieu inconnu et pourtant si convoité, le Saint Graal de la Création.

Pour plus d'informations

Vidéos

Pourquoi l'Optique Adaptative, ESPCI

L'histoire du HST en 10 chapitres, YouTube

Giant Magellanic Telescope : "A Perfect Mirror", GMT, 2013

Giant Mirrors to Capture the Universe (GMT), U.Arizona, 2012

UA Mirro Lab Casts 3d mirror for GMT, U.Arizona, 2013

Gemini Observatory Intro, Gemini Obs, 2013

Généralités

JPL's Image Processing Laboratory History, JPL

Challenges in modelling and control of Extremely Large Telescopes, R.Bastaits, ULB

Adventures in Science Fiction Cover Art: Futuristic Telescopes and Radar Dishes (1946-1979)

Images de la rotation de la voûte céleste, APOD

Quelques livres (cf. détails dans ma bibliothèque dont la section Histoire)

Livres

Astrophotographie, T.Legault, Eyrolles, 2006/2013

Histoire du télescope, Yaël Nazé, Vuibert, 2009

La conquête de l'espace, Giles Sparrow/Collectif, Flammarion, 2008

L'observation en astrophysique, Pierre Léna et al., EDP Sciences-Savoirs actuels, 2008

La construction du télescope d'amateur, Jean Texereau, SAP, 1951/1961; Vuibert, 2004 (à télécharger)

Les grands observatoires du monde, A.-M.Lagrange/S.Brunier, Bordas, 2002

Apollo Expeditions to the Moon, NASA SP-350, 1975

Observatoires

EHT (Event Horizon Telescope, VLBI)

Around the World in 80 Telescopes

Palomar (5.08 m), Palomar Skies

Subaru (8.2 m)

VLT (4x 8.2 m)

Keck I et II (10 m)

Astrophysical Missions, ESA

The Hubble Heritage Project

1001 liens (Observatories)

Solar Instruments, UCAR.

Retour à l'Histoire de l'astronomie

Page 1 - 2 - 3 - 4 - 5 - 6 -


Back to:

HOME

Copyright & FAQ