Recommended Posts

Bonjour,

 

À la suite de la lecture de pas mal d'interventions sur l'utilisation et la réalisation des Darks, Offsets, Flats et Dark-flats, j'ai écrit un article qui résume, je l'espère, les bonnes pratiques. Cela va parfois à l'inverse des méthodes ancestrales et je m'attends donc à quelques réactions, en particulier sur les ISO des offsets et flats et leur utilité ou quantité.

 

L'article est hébergé sur le site de la Société Astronomique du Havre : https://sahavre.fr/wp/les-dofs/

 

Les sources de ce que j'avance sont multiples, par exemple ici ou encore , mais il y en a plein d'autres...

 

Il reste un point en suspend : si on a un capteur non sujet à ampglow (c'est le cas de la majorité des APN) et qu'on fait du dithering, faut-il continuer avec des darks, offsets et flats, ou bien se contenter de darks, flats et dark-flats et laisser tomber les offsets ? Pour le moment je n'ai pas encore d'avis tranché, même si je commence à me dire que les jours des offsets sont comptés. Ainsi les DOFs (Darks Offsets Flats) deviendraient des DF2 (Darks Flats DarkFlats).

 

N'hésitez pas à commenter !

 

A+

 

Fred

Edited by Fred_76

Share this post


Link to post
Share on other sites
Advertising
By registering on Astrosurf,
this type of ad will no longer be displayed.
Planetary Astronomy
Observing, imaging and studying the planets
A comprehensive book about observing, imaging, and studying planets. It has been written by seven authors, all being skillful amateur observers in their respective domains.
More information on www.planetary-astronomy.com

il y a une heure, Fred_76 a dit :

Il reste un point en suspend : si on a un capteur non sujet à ampglow (c'est le cas de la majorité des APN) et qu'on fait du dithering, faut-il continuer avec des darks, offsets et flats, ou bien se contenter de darks, flats et dark-flats et laisser tomber les offsets ?

 

je vois bien le rapport entre dithering et la possibilité de ne pas faire de dark, mais pas du tout le rapport entre dithering et possibilité de ne pas faire d'offset O.o

 

Encore une fois, sur un APN l'offset est plat et peut se remplacer sans problème par une image synthétique constante de même valeur moyenne. C'est aussi le cas de beaucoup de caméras CMOS actuelles (contrairement à certaines vieilles CCD à long temps de lecture, et qui avaient des offsets qui "penchent", mais ça c'était l'ancien monde :))

 

il y a une heure, Fred_76 a dit :

Les sources de ce que j'avance sont multiples, par exemple ici ou encore , mais il y en a plein d'autres...

 

...et en français, en plus 9_9

 

 

Dans ton article je lis : En tenant compte de la combinaison quadratique du bruit dans l’empilement des images, faire 4 offsets à 100 ISO est aussi efficace que faire 256 offsets à 800 ISO !

 

En fait,le bruit de lecture diminue en montant en iso, donc on ne peut pas donner de chiffre en général. Par exemple, le A7R III a 4,2 électrons de BL à 100 iso et 1,3 à 800 iso.

 

 

Edited by Thierry Legault

Share this post


Link to post
Share on other sites
il y a 50 minutes, Thierry Legault a dit :

En fait,le bruit de lecture diminue en montant en iso, donc on ne peut pas donner de chiffre en général.

En électrons oui, il diminue, mais en ADU il augmente, alors que le signal lui (pour le biais) reste constant en ADU. Je vais ajouter cette nuance.

Share this post


Link to post
Share on other sites
il y a 53 minutes, Thierry Legault a dit :

je vois bien le rapport entre dithering et la possibilité de ne pas faire de dark, mais pas du tout le rapport entre dithering et possibilité de ne pas faire d'offset 


en fait, si on fait des Darks, Flat et DarkFlats, l’offset est contenu dans les darks. On ne prend plus d’images d’offset.

 

L’insertion du mot dithering est effectivement mal venue. Je vais modifier le paragraphe.

 

En pratique, ne pourrait-on pas substituer purement et simplement pour tous les capteurs modernes (i.e. depuis 2010) la méthode DF2 (dark+flat+darkflat) à la méthode DOF (dark+offset+flat), qu’il y ait ampglow ou non ? That is the question.

Share this post


Link to post
Share on other sites
il y a 10 minutes, Fred_76 a dit :

en fait, si on fait des Darks, Flat et DarkFlats, l’offset est contenu dans les darks. On ne prend plus d’images d’offset.

 

l'offset tu en as besoin si tu fais de l'optimisation de dark, et de toute façon tu en as besoin pour tes flats

 

il y a 10 minutes, Fred_76 a dit :

En pratique, ne pourrait-on pas substituer purement et simplement pour tous les capteurs modernes (i.e. depuis 2010) la méthode DF2 (dark+flat+darkflat) à la méthode DOF (dark+offset+flat), qu’il y ait ampglow ou non ? That is the question.

 

moi pas comprendre

 

 

Edited by Thierry Legault

Share this post


Link to post
Share on other sites
il y a 6 minutes, Thierry Legault a dit :

l'offset tu en as besoin si tu fais de l'optimisation de dark

 

Justement, on ne fait pas d'optimisation de dark quand le capteur est sensible à l'ampglow. L'ampglow n'évolue pas de façon proportionnelle au temps de pose ni de la même façon que le signal thermique en fonction de la température. Autrement dit, si l'on optimise les darks, on traite bien le signal thermique, mais pas l'ampglow. Dans ce que j'ai pu lire, donc, le traitement devient :

- faire des darks à chaque session, et un master dark non optimisé

- faire des flats et darkflats à chaque session pour en faire un master flat

- prétraiter les brutes avec uniquement le masterdark et le master flat => les offsets ont disparu de la scène (ils sont en fait cachés dans les darks)

Share this post


Link to post
Share on other sites

Super article en tout cas, simple et compréhensible.

Je vais peut être me forcer à faire des darkflats, pas sur que ça change énormément la donne mais au moins je serai carré. Et pis c'est pas le temps que ça prend à faire.

Share this post


Link to post
Share on other sites
il y a 18 minutes, Fred_76 a dit :

Justement, on ne fait pas d'optimisation de dark quand le capteur est sensible à l'ampglow. L'ampglow n'évolue pas de façon proportionnelle au temps de pose ni de la même façon que le signal thermique en fonction de la température. Autrement dit, si l'on optimise les darks, on traite bien le signal thermique, mais pas l'ampglow. Dans ce que j'ai pu lire, donc, le traitement devient :

- faire des darks à chaque session, et un master dark non optimisé

- faire des flats et darkflats à chaque session pour en faire un master flat

- prétraiter les brutes avec uniquement le masterdark et le master flat => les offsets ont disparu de la scène (ils sont en fait cachés dans les darks)

 

oui, comme j'ai la flemme de recopier, je mets une copie de la bonne page

 

image.png.d83266a2c7d7da22da1daddbc9676964.png

 

je crois qu'il ne faut pas trop faire une fixette sur les darkflats : les capteurs d'aujourd'hui ont quand même un signal thermique bas (surtout s'ils sont refroidis), et la dynamique d'un flat est normalement très remplie (surtout si on fait les flats à iso ou gain mini !), donc à moins de faire des flats super longs avec une dynamique basse et un gain/iso très élevé, un offset ça suffit bien :)

 

Share this post


Link to post
Share on other sites
Il y a 2 heures, Thierry Legault a dit :

je crois qu'il ne faut pas trop faire une fixette sur les darkflats

 

Oui je suis d'accord, tant que le temps de pose des flats est faible, de moins d'une grosse poignée de secondes (voire un peu plus), on peut se contenter d'offsets au lieu de darkflats. Maintenant regardons le côté pratique. Quand on fait un flat,on place une boite à flats, puis on règle les ISO/gain et l'expo puis on prend quelques images. Pour les darkflats, il suffit juste de retirer la boite à flats, de mettre le couvercle sur l'optique et de reprendre des photos, sans rien toucher d'autre. On gagne la (petite) étape du changement de temps d'expo... et ça compte quand on a les doigts gelés et les cernes sous les yeux, enfin je pense.

 

Donc la formule de ton livre devient :

 

Image prétraitée = (image brute - image noire1) / (PLU - image noire2)

 

avec image noire1 faite avec les images noires prises à même iso/gain, temps expo et t° que les images brutes

et image noire2 faite avec les images noires prises à même iso/gain, temps d'expo (et t° mais on s'en fout un peu car le tps d'expo reste court) que les plu

 

Les offsets ont disparu de la formule vu que - c'est dans le tableau de la page 38 - ils sont inclus dans les images noires.

 

Cette méthode ne fonctionne qu'avec les caméras dont la température est régulée, les darks n'ont pas à être optimisés. Par contre avec les APN et les caméras non régulées, la température peut varier en cours de séance et il faut optimiser les darks. Dans ce cas les offsets sont nécessaires. Je pense que je me réponds ainsi à ma question : la méthode DF2 est à réserver aux caméras thermorégulées, la méthode DOF est à appliquer aux APN et caméras non régulées sauf si la luminescence (thermique ou NIR) est un réel problème, dans ce cas il faudra essayer la méthode DF2 et voir laquelle donne les meilleurs résultats. Il semble que certains boitiers Nikon soient sensibles à la luminescence de leur capteur...

 

Edited by Fred_76

Share this post


Link to post
Share on other sites
Il y a 2 heures, Tromat2 a dit :

mais au moins je serai carré

Ça ne sert à rien d'être "carré" pour le principe. Si ça n'améliore rien, ça ne sert à rien !

Share this post


Link to post
Share on other sites
il y a 51 minutes, Fred_76 a dit :

Si ça n'améliore rien, ça ne sert à rien !

C'est pour l'effet placebo ^^

Edited by Tromat2
  • Like 1

Share this post


Link to post
Share on other sites
il y a une heure, Fred_76 a dit :

Par contre avec les APN et les caméras non régulées, la température peut varier en cours de séance et il faut optimiser les darks.

Sauf que ça fout le bordel avec l'ampglow, non ? Je préfère bien corriger ce dernier, plutôt que les points chauds/froids qui sont faciles à supprimer par correction cosmétique et/ou le nombre de pose et le dithering.

Share this post


Link to post
Share on other sites

heu les offset à 100iso...pour les flats oui (avec les bon offset. de calibration)  mais les offsets non, faut les faire au même gain que les images. Sur certains apn et pas mal de caméra l'offset change en fonction du gain.

 

soit tu fais les offsets au même gain que les images, soit tu fais un offset synthétique comme dit Thierry, si ton offset est suffisamment uniforme. Mais faire les offset à un gain différent n'a pas de sens, tu va les multiplier par un coéficient de pondération, ce qui va diminuer artificiellement la correction. Si ton offset n'est pas une constante, tu introduit un défaut. Et si il est constant, ben aucun intérêt de faire des offsets à 100 iso qui vont ajouter du bruit autant prendre une image constante synthétique.

 

Par contre pour les flats oui tu peux changer de gain en callibrant les flats avec des offsets spécifique pris au même gain.

Edited by olivdeso
  • Thanks 1

Share this post


Link to post
Share on other sites

Faire l’offset à 100 ISO permet d’augmenter le RSB (en ADU). Le niveau d’offset ne dépend pas du gain. Les microecarts entre les colonnes non plus. Par contre le bruit est affecté par le gain. Et même si le bruit de lecture en électrons est plus important à bas ISO qu’à haut ISO, quand tu multiplie ça par le gain, il se trouve que le bruit de lecture est plus important en ADU à haut ISO.

 

Or nos images sont exprimées en ADU, pas en électrons...

 

D’ailleurs Thierry le dit bien dans des messages précédents que ça fait des années qu’il prend ses offsets à 100 ISO.

Share this post


Link to post
Share on other sites
Il y a 9 heures, Fred_76 a dit :

Donc la formule de ton livre devient :

 

Image prétraitée = (image brute - image noire1) / (PLU - image noire2)

 

avec image noire1 faite avec les images noires prises à même iso/gain, temps expo et t° que les images brutes

et image noire2 faite avec les images noires prises à même iso/gain, temps d'expo (et t° mais on s'en fout un peu car le tps d'expo reste court) que les plu

 

heu non tu t'en fout pas, sur pas mal d'APN et caméra l'offset ou dark très court,  change aussi avec la température sur certains apn et caméras.

 

Après comme dit Thierry, si c'est une constante, oui la tu t'en fout, mais autant retirer une vraie constante dans ce cas qui n'introduira pas de bruit.

Share this post


Link to post
Share on other sites

 

il y a 11 minutes, Fred_76 a dit :

Faire l’offset à 100 ISO permet d’augmenter le RSB (en ADU). Le niveau d’offset ne dépend pas du gain. Les microecarts entre les colonnes non plus.

 

là je ne suis pas d'accord avec toi du tout. En APN je connais plusieurs canon pour lequels ce n'est pas le cas. Canon ajuste l'offset pour optimiser la dynamique.

sur les caméras même truc. mais ça c'est pas encore trop un problème si c'est une constante sur un apn moderne. Par contre les micro variation d'une colonne ou d'une ligne à l'autre en cmos, là plus embêtant, tu va récupérer une trame.

 

Pour savoir tu fais un master avec 200 offsets à chaque iso et tu soustrait l'un de l'autre. Si pas de trame au résultat, là effectivement ça sera indépendant de l'offset.

Et si pas de trame du tout dans les master offset, pas besoin de faire des offset qui vont ajouter du bruit pour rien. Tu soustrait directement une constante au prétraitement et ça reviendra au même sans ajouter de bruit.

 

Share this post


Link to post
Share on other sites
Il y a 9 heures, olivdeso a dit :

Par contre les micro variation d'une colonne ou d'une ligne à l'autre en cmos, là plus embêtant, tu va récupérer une trame.

 

J'ai vérifié sur un 1000D qui est un exemple un peu extrême question trame. Effectivement, tu as raison, faire des offsets à 100 ISO ne convient pas du tout pour corriger des images à 800 ISO. C'est curieux car avec ce boitier, les masters offsets de diverses séries prises à même ISO ont une trame verticale fixe, d'une série à l'autre. Par contre si on compare la structure de deux masters offsets d'ISO différents, elles ne correspondent plus. Il faut donc faire des offsets à même ISO que les brutes, et beaucoup.

 

J'ai aussi vérifié sur le 6D qui est au contraire bien moins touché par la trame. Il y a une petite différence mais elle n'est pas énorme. Je serais tenté de dire qu'avec le 6D, faire un offset-maître à 100 ISO serait acceptable, voire même un offset synthétique à 2047 ADU et il ne serait juste appliqué que sur les flats, car la structure spatiale de trame qui subsistera sur les brutes est très légère et partira avec le dithering. Encore faut-il faire du dithering...

 

Il faut que je teste sur mon 500D, mais j'ai peur que la débayérisation de son capteur ne fausse vraiment les conclusions.

 

J'ai corrigé le texte sur la page de l'article.

Edited by Fred_76

Share this post


Link to post
Share on other sites
Il y a 9 heures, olivdeso a dit :

sur pas mal d'APN et caméra l'offset ou dark très court,  change aussi avec la température

 

Là par contre je reste septique comme une fosse avec les APNs. J'ai sous la main 3 boitiers, un 1000D, un 500D et un 6D. Les deux premiers se comportent très mal vis à vis de la température et je n'ai pas constaté dans mes mesures de variation notable des offsets en fonction de la température dans mes tests de -20°C (dans le congelo) à +40°C (sous une couverture). Pour les caméras, je veux bien avec les CCD dont le temps de lecture est très lent (plusieurs dizaines de secondes), mais avec les CMOS assez récentes (USB2+), les temps de lecture sont très courts (quelques 1/10e de s).

Share this post


Link to post
Share on other sites
Il y a 10 heures, olivdeso a dit :

 

Par contre pour les flats oui tu peux changer de gain en callibrant les flats avec des offsets spécifique pris au même gain.

A la lecture de ce post , je vois que ces DOF ce n''est pas aussi simple qu'on le pense 

Pour simplifier pour se compliquer la vie et pourquoi ne pas tout faire au même gain ( à savoir celui des brutes ) ? 

 

Et la température du capteur ? si les darks doivent être fait à la température des brutes , qu'en est-il des OF ? 

 

Ph

  • Like 2

Share this post


Link to post
Share on other sites
il y a 9 minutes, airbus340 a dit :

pourquoi ne pas tout faire au même gain ( à savoir celui des brutes ) ? 

C'est ce que j'ai toujours fait :)

Et beaucoup d'autres aussi ;)

Bonne soirée,

AG

  • Like 2

Share this post


Link to post
Share on other sites
il y a 3 minutes, ALAING a dit :

C'est ce que j'ai toujours fait

Et pour la température ? 

 

Ph

Share this post


Link to post
Share on other sites
il y a 17 minutes, airbus340 a dit :

Pour simplifier pour se compliquer la vie et pourquoi ne pas tout faire au même gain


C’est une question de bruit. Quand on monte en ISO, le bruit (en ADU) explose et il faut alors accumuler de très nombreuses images DOF pour arriver à le contenir. Ça a deux conséquences :

- ça prend du temps à la prise de vue et au traitement

- ca use prématurément l’appareil photo

 

D’ou l’intérêt de ne faire que ce qui est nécessaire. Faire simple n’est pas forcément faire efficace (il n’y a qu’à voir PixInsight). Il faut des fois comprendre ce que l’on fait avant de s’avancer dans des recettes toutes faites.

 

Cest en tout cas ma façon de voir les choses.

Share this post


Link to post
Share on other sites

attention à ne pas se faire trop de noeuds au cerveau quand même. Quand on fait un master offset avec beaucoup d'images et en serrant les seuils, on finira toujours par voir une trame horizontale ou verticale, mais la question est : est-ce que c'est gênant en pratique, sur une image finale du ciel ? J'ai eu un capteur CMOSIS 4000 (caméra IDS) qui avait une trame constante très visible (heureusement en grande partie reproductible), à part ça les capteur Sony sont quand même très propres, et les APN aussi, sinon sur les forums photo on verrait des geeks qui se plaindraient des trames à haut iso.

 

Je me souviens d'une discussion avec quelqu'un qui disait : on voit bien que le bruit est plus faible sur un master de 10000 offsets que de 1000. Certes ai-je répondu, mais on ne fait pas de l'imagerie pour regarder ses masters à la loupe, on le fait pour les images du ciel qu'on va prétraiter avec, et il est inutile de se polariser sur les sources de bruit négligeables.

 

Au final, ça n'est pas si compliqué. Si l'offset est bien plat, ce qui est quand même la règle aujourd'hui avec les APN et les caméras, on en fait un, on mesure la valeur moyenne et on utilise ad vitam eternam une image synthétique qui a la même valeur. Pour les flats on peut les faire à n'importe quel iso/gain, avec l'avantage que 1 flat à 100 iso est équivalent à 8 flats à 800 iso. Et pour le "darkflat" (qui se résume à un offset en pose courte) on en fait un et c'est bon, pas besoin d'en faire des douzaines.

 

 

Edited by Thierry Legault
  • Like 2

Share this post


Link to post
Share on other sites
il y a 8 minutes, Fred_76 a dit :

Quand on monte en ISO, le bruit (en ADU) explose

Humm bon chacun fait comme il le sent :) mais je serais curieux de voir le gain réel sur une image ;)

 

En CP et en RAW il n'y a aucune utilité de monter en ISO, au contraire c'est mauvais pour la dynamique.

Dire que ça prend du temps . . . c'est les darks qui prennent du temps et là y a pas le choix de toutes façons !

Une série d'offsets et de flats ça prend à tout casser 10mn ;) 

Bonne soirée,

AG

 

  • Like 1

Share this post


Link to post
Share on other sites
il y a 2 minutes, ALAING a dit :

En CP et en RAW il n'y a aucune utilité de monter en ISO, au contraire c'est mauvais pour la dynamique.

 

Alain c'est pas bon d'écrire sur le forum à l'heure de l'apéro xD

 

Sur un 7S (au hasard), tu passes quand même d'un bruit de lecture de 16 électrons à 100 iso à 1,3 électron à 3200 iso, une paille quoi ! :D

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By banjo
      bonjour,
      comment déterminer la part de turbulence dû aux  éléments extérieurs de celle dû au "tube" en l'occurrence une structure ouverte .
      Pour ma part c'est pour du solaire , donc peut être une plus grande prépondérance de l'effet de sol sur la structure ouverte .
      Laisser ouvert ou  envelopper la structure ?
      Paul

    • By idir
      A la recherche du visage caché d’Hoinga.
      Un nouveau SNR dans le ciel.
       
      Projet de collaboration entre professionnel et amateurs (ProAm).
      Dominique Boutigny, cosmologiste au CNRS travaillant sur le projet Rubin-LSST
      Idir Saci, astrophotographe en Haute-Savoie

      Article co-écrit par Domnique B. et Idir S.

       
       
       
      Imaginez un instant, il y a entre 21 000 et 150 000 ans, une étoile massive rend son dernier souffle lors d’une formidable explosion en supernova.
      Elle se désintègre violement, et éjecte autour d’elle une quantité de matière colossale.
      Son souffle produit alors des ondes de chocs qui se propagent dans l’espace et comprime au passage la matière interstellaire.
      Des structures diffuses et filamenteuses en expansion apparaissent.
      Les dentelles d’Hoinga sont nées !
      Si ce nom ne vous évoque rien, et ne trouve pas écho dans vos mémoires, alors rassurez-vous c’est normal !
      Cet astre a fait l’objet d’une toute récente découverte et n’avait encore jamais été photographié dans le domaine visible jusqu’à ces derniers mois.
       
       
       

       
       
       
      Les fulls : 
      http://www.astrosurf.com/crepuscule/Perso/hoingafull.jpg
      http://www.astrosurf.com/crepuscule/Perso/hoingafullinv.jpg
      http://www.astrosurf.com/crepuscule/Perso/hoingafullinvstarless.jpg
       
       
       
      1- La découverte d’Hoinga
      C’est au début de ce printemps 2021, que le professeur Werner Bercker de l’institut Max Plank de physique extraterrestre (MPE) et ses collaborateurs, font part de leur découverte dans une publication de l’un des plus grands vestiges (rémanent) de supernova jamais observé en rayon X
      https://www.aanda.org/articles/aa/full_html/2021/04/aa40156-20/aa40156-20.html
      https://www.aanda.org/articles/aa/pdf/2021/04/aa40156-20.pdf
       
      Ils lui donnent alors le nom d’Hoinga, en hommage au nom médiéval de la ville natale du découvreur principal.
      La première particularité d’Hoinga est d’être grand, tellement grand, qu’il fait environ 90 fois la pleine lune et s’étale sur un champ de plus 16 degrés carrés !
      Sa position dans la constellation de l’Hydre lui donne une autre particularité : celle d’être « loin et excentré » du plan galactique.

      La découverte d’Hoinga a été rendu possible récemment grâce à l’exploration du ciel dans le domaine des rayons X avec l’observatoire spatial Spekrt-RG(SRG)- eROSITA.
      Un instrument mis en service en 2019 dans le cadre d’une coopération entre la Russie et l’Allemagne.
      eROSITA est le plus puissant dans son genre, il est le successeur d’autres instruments tels que ROSAT, lancé en 1990 ou XMM-Newton, lancé en 1999 et toujours en opération.

      C’est en examinant les résultats du premier relevé de tout le ciel en 2020 (X-Ray All-Sky Survey eRASS1), que Werner Becker et son équipe découvrent un vestige de supernova presque totalement circulaire dans la région de l’Hydre.
      La validité de la découverte est renforcée par des similitudes avec plusieurs images en ondes radio, notamment celles du relevé GLEAM du Murchison Widefield Array en Australie.
       
       
       
                                             
       
       
       
       
       
      2- Les données
      Mi-mars, Dominique Boutigny, par le biais de son métier de cosmologiste prend connaissance de la pré-publication.
      Il relaie l’information sur la liste de diffusion de notre club d’astronomie la SALF et me propose, au vu des caractéristiques de mon setup d’essayer de le photographier.
       
      a) Ne connaissant d’Hoinga que son « portrait-robot » dessiné aux rayons x et aux ondes radio, sa représentation reste donc inconnue de nos yeux et de nos instruments optiques. 
      Nous n’avons pas idée de à quoi il ressemble visuellement, mais en revanche nous savons exactement où il se trouve.
      b) Sa localisation dans la constellation de l’Hydre femelle fait d’Hoinga une cible relativement basse.
      Sa trajectoire dans le ciel, ne culmine guère plus haut que 27° de hauteur par rapport à l’horizon.
      En raison du relief de mon site d’observation, la fenêtre de visibilité de l’objet ne dépasse pas 3h, et malheureusement elle diminue au fur et mesure que la saison avance, pour se réduire en fin de compte à une peau de chagrin.
      c) Dans les éléments positifs, il y a le setup dont les caractéristiques se prêtent bien à la photographie de ce genre d’objet.
      La FSQ106 avec ses 530mm de focale et la CCD Moravian G4 équipée d’un grand capteur 37mmx37mm, nous offrent un champ résultant de 4° x 4°.
      Les filtres Narowband SHO à 5nm nous permettent de sélectionner le signal utile provenant du vestige de supernova.

      Fin mars, la saison des galaxies commence et tout le monde se réjouit, mais pour moi, pas grand-chose à imager avec mon setup.
      Du coup, pourquoi pas m’investir sur un projet qui peut avoir un intérêt pour la science ?
      Oui volontiers ! Et puis ça tombe bien !
      Cela fait plusieurs mois que je fais de la maintenance sur le setup pour optimiser l’automatisation des acquisitions.
      Alors il est temps de se faire plaisir sur une cible originale !
       

       

      3- Les débuts de l’enquête
      Les premières tentatives pour faire connaissance avec Hoinga arrivent dans les tout derniers jours du mois de mars et les conditions ne sont pas simples.
      La lune est montante, présente à 80% et elle n’est pas bien loin de l’objet.
      Elle nous empêche d’avoir ce premier rdv avec un beau ciel étoilé sans pollution.

      Malgré ces mauvaises conditions, je réalise tout de même quelques prises de vue sur la cible.
      Les premières photos souffrent énormément de gradient lunaire et de quelques défauts de flats.
      Aucun signal apparent d’Hoinga sur les images brutes. Déception !
      S’ensuivent quelques échanges téléphoniques avec Dominique B, qui m’invite et me motive à renouveler l’expérience avec des nuits meilleures.
      Je l’écoute et me remets au travail.

      Je commence le prétraitement et fais l’intégration des 2h d’acquisitions avec le filtre Halpha (6x 20min).
      Pourquoi ne l’ai-je pas fait avant ? – peut-être à cause de l’ascenseur émotionnel !  Euphorie puis déception.
      Après un traitement rapide, SURPRISE !!! 
      2 petits bouts de filament du rémanent sont visibles à l’extrémité du champ imagé.
      Mais une question légitime se pose : signal ou gradient ? Il faut en avoir le cœur net !
      En attendant que la lune devienne discrète, une étape de préparation et de réflexion s’impose :
      - refaire proprement les fichiers de calibration.
      - inspecter les différents relevés « All Sky » d’Aladin pour rechercher d’éventuelles traces d’Hoinga.

      La phase de travail sur Aladin est cruciale pour la suite du projet.
      Réunion Zoom avec Dominique B, qui m’oriente vers les relevés suivants dans lesquels Hoinga est visible :
      - En onde radio : Image > Radio > GLEAM 170 – 231
      - En rayons X : Image > X-Ray > ROSAT > RASS -0,1-2,4 keV
      Quand on superpose l’image H-Alpha résolut astronomiquement avec les données précèdentes, alors il y a bien concordances du signal. Enfin une bonne nouvelle !
      Mais aussi vite des questions surgissent : Où est le reste d’Hoinga ?  Pourquoi avoir seulement capturé une partie dérisoire du signal ?
       

      4- Le visage d’Hoinga est démasqué !
      Les jours passent, matin et soir, on pense et respire Hoinga. On a plus que ça en tête.
      On prend le temps pendant des heures à sonder et inspecter les relevés des différents observatoires depuis le portail du centre de données de Strasbourg (CDS).
      Tel deux détectives, on examine la scène du crime à la recherche du moindre indice !
       
      Perdu dans mes pensées je me souviens alors d’un article que j’avais lu un an auparavant dans le magazine Ciel et Espace (N°573).
      Il était question d’ « un étrange filament de gaz qui traverse la grande Ourse ».
      L’article relate l’histoire d’une découverte d’un restant de supernova (SNR) ultra faible.
      Une structure rectiligne et fine qui couvre une longueur d’environ 30° dans le ciel.
      Dans mes souvenirs, j’ai encore cette image d’illustration du SNR qui est visible dans un relevé d’Aladin.
      Mais lequel ??? Je prends alors contact avec Jean-Luc Dauvergne (journaliste du magazine CE) afin de chercher de l’aide sur le sujet.

      Après relecture de l’article, Le relevé magique tant recherché est GALEX !
      Un télescope spatial mis en orbite par la NASA en 2003 pour l’étude des galaxies et la formation des étoiles dans le domaine de l’ultraviolet.
      Très vite je me rends sur Aladin et entre les coordonnées d’Hoinga dans le relevé suivant :
      Rayon UV : Image > UV > GALEX > GALEX GR6 AIS - Far UV

      Une fois l’image affiché sur l’écran, je deviens comme paralysé, un choc émotionnel incroyable !
      Le visage d’Hoinga est démasqué !
      A ce moment-là, je suis bien évidement sur un registre affectif et bien loin du domaine scientifique.
      Mais quand face à vous apparait un astre aux formes isolées et aux structures rappelant l’image des dentelles du cygne et du taureau, n’auriez-vous pas également l’intime conviction qu’il peut s’agir du rémanent (tant) recherché ???



       
       
       

       
       
      5- Acquisition et traitement
      Avant de poursuivre les acquisitions, un recadrage de la cible s’avère nécessaire.
      En effet, depuis le relevé de GALEX, on peut apercevoir que les parties les plus « brillantes » du rémanent se trouvent au bord du champs imageur initialement choisi et centré sur les coordonnées officielle d’Hoinga.
      Donc un réajustement du cadrage s’impose pour bien inclure les zones intéressantes de la cible.

      Arrive enfin la période sans Lune tant attendue (1erquinzaine d’avril) !
      Il est temps de programmer et lancer les acquisitions. Ainsi chaque soir, quand la météo le permet, la lunette pointe sur la cible et emmagasine tous les photons possibles.

      Au fur et à mesures que la campagne d’observation se déroule, je réalise de temps en temps quelques intégrations test et découvre finalement que l’objet est tellement faible qu’il ne faudra pas juste 4 ou 5 heures d’acquisitions mais bien plus que ça !
      Aussi je comprends vite au vu du temps dont je dispose qu’il vaut mieux se concentrer sur des prises d’images dans une seule longueur d’onde pour avoir le meilleur rapport signal sur bruit, que de tenter d’imager en faisant tourner la roue à filtre.
      Tant pis pour cette année, elle tournera l’an prochain !
       
      Au final, il ne fallait pas moins de 18 heures d’acquisitions cumulés (53 x 20min en Ha), pour enfin réussir lors du traitement à détacher le signal du fond de ciel bien bruité.
      Même avec un temps de poses aussi grand, ne vous attendez pas à voir une photo spectaculaire.
      En vu de bien discerner les structures filamenteuses du rémanent d’Hoinga, il est préférable de visualiser l’image à taille réelle, en mode inversé et surtout en version « starless » (sans étoiles).
      Pour vous donner une idée de la faible luminosité du sujet, une comparaison à temps de poses unitaire égale montre que Hoinga est largement plus faible que la nébuleuse planétaire OU4 découverte il y a une dizaine d’année par Nicolas Outters.

      Au niveau traitement, on est bien loin des processus qu’on applique habituellement à nos photos à caractère esthétique.
      Ici seul une montée d’histogramme fortement contrasté a été utilisée.
      En revanche, il fallait apporter beaucoup de soins et de vigilance à la phase de pré-traitement.
      La rigueur était de mise à chaque étape et sans rien négliger : qualité des fichiers de calibrations, tri des images brutes, retrait de gradients, etc.
      Enfin pour optimiser le rapport signal sur bruit, l’aide et les explications de Jean-Baptiste Auroux (auteur du site Photon Millenium) sur le choix d’une formule de pondération des images brutes, a été plus que précieuse.
       

       
       

       
       

       
       

       
       
       
      6- Pourquoi un rémanent aussi faible est-il visible dans le l’ultraviolet ?
      L’astrophysicien Dominique Boutigny, nous explique à propos de l'UV et du Halpha :
      « L’Hydrogène est l’élément le plus abondant dans l’univers.
      Transparent pour les longueurs d’ondes optiques, sa présence peut être mise en évidence lorsqu’il est excité par un rayonnement énergétique.
      Lors d’une telle excitation, les électrons des atomes d’hydrogène peuvent passer temporairement sur des niveaux atomiques supérieurs.
      Lorsqu’ils se dé-excitent pour revenir vers des niveaux d’énergies inférieurs ils émettent des photons dont la longueur d’onde dépend des niveaux de départ et d'arrivée.
      Lorsque les transitions se font d’un niveau supérieur vers le niveau fondamental (n=1) on obtient une série de raies nommées “série de Lyman” dont les longueurs d’ondes associées sont toutes dans l’ultraviolet.
      Lorsque les transitions se font d’un niveau supérieur vers le deuxième niveau (n=2) on obtient la série de Balmer qui comprend notamment la raie Halpha (transition n=3 → n=2).
      L’ultraviolet étant bloqué par l’atmosphère, il est impossible de détecter les raies Lyman depuis le sol. En revanche, le satellite Galex, en orbite, peut repérer les zones d’hydrogène rayonnant dans ultraviolet.
      La plupart du temps, ces zones peuvent aussi être observées via la raie Halpha qui trace également l’hydrogène excité.
      C’est ainsi que l’utilisation du relevé Galex est une très bonne façon d’identifier des zones potentiellement intéressantes pour l’astronomie au sol. »
       
       
      7- Présentation du projet aux chercheurs :
      Dès que les images finales ont été disponibles, nous avons contacté Werner Becker et ses collaborateurs pour leur faire part de notre observation.
      Une réunion zoom a été organisée afin d’échanger sur nos données respectives.
      Nous pensions au départ que ces images en Halpha avaient de bonnes chances d’être les premières et qu’une publication scientifique complémentaire à la découverte d’Hoinga était envisageable.
      Malheureusement Werner Becker nous a annoncé qu’un groupe d’amateurs du MDW Sky Survey https://www.mdwskysurvey.org/  au Nouveau Mexique nous avait coupé l’herbe sous le pied.
      Une publication contenant les observations optiques d’Hoinga était déjà sortie : https://iopscience.iop.org/article/10.3847/1538-4357/ac0ada
      Il est toutefois intéressant de noter que le matériel et l’approche des amateurs américains, notamment l’utilisation du relevé GALEX, étaient très proches des nôtres.
      Le lien est maintenant établi avec l’équipe des découvreurs d’Hoinga, peut-être nous contacteront-ils à l’occasion d’autres observations nécessitant des images complémentaires au sol.
      Ils semblaient en tout cas attendre beaucoup des nouvelles données de e-ROSITA...
       
       
      8- Conclusion
      Les spécialistes estiment qu’il doit exister environ 1200 vestiges de supernovae dans la Voie Lactée.
      À ce jour, seulement 300 ont été identifiés, principalement via des relevés en rayons X.
      Il reste donc plein de possibilités de découvertes et il est clair que les amateurs ont un rôle à jouer dans ces observations.
      Le grand champ associé à des filtres en bandes étroites semble être la combinaison gagnante surtout si celle-ci est associée à un observatoire permettant d’automatiser au maximum les prises de vues.
      C’est en effet des dizaines d’heures d’acquisitions qui sont nécessaires pour espérer mettre en évidence ces très fins filaments.

      Merci de nous avoir lus.
      Bon ciel et bonne observation.

      Idir et Dominique.






       
    • By Mehdi
      Hello
       
      Petit challenge de réglage . sortir une image en moins d'une heure sur 4 filtres ( L,R,G,B) .
      j'ai donc passé 22 min en L puis 10 min sur chaque filtre ( soit 52 min en tout) .
      l'idée c’était de bien regler en amont pour ne pas avoir à jeter de poses et puis essayer de traiter juste ce qu'il faut . J'ai toujours un peu de mal à cette étape , de plus je constate que mes extensions sont un peu faiblardes . le bruit est bien géré par la luminance ( merci le bruit quasi nul de l'ICX 834 )
       

    • By manup
      Bonjour à tous
      je suis parti une semaine sur l'ile de madère en prenant avec moi de quoi faire de la photo grand champ
      je suis revenu avec ces images tous a été fait avec un samyang 14 mm un canon 1000D une monture SA 3D
      100x5" iso 800

       
      100x5" iso 800

       
      100x8" iso 800

      (ici les bords ne me conviennent pas, mais bon je ne voulais pas faire de crop)
       
      100x8" iso 800

       
      à la fin de mon séjour j'ai dû reprogrammer l'arduino de ma SA, car il faisait le suivi dans le mauvais sens
      en espérant que ça vous plait malgré le suivi dans le mauvais sens
      cdt
       
       
    • By Jean-Paul OGER
      Bonsoir à tous, voici la finalisation de la rotation différentielle sur 27 images de Jupiter que j'ai imagé du 18 Juillet au 14 Octobre 2021. Plusieurs heures de travail ont été effectuées pour ces animations. Je tiens à remercier @Christophe Pellier  pour m'avoir donné cette envie de faire ces rotations ( avec rajouts de 3 images pour l'animation avec la GRS "Grande Tache rouge" ) j'espère que vous apprécierez 







  • Upcoming Events