Question

Bonjour à tous,

 

Petit nouveau sur le forum, je ne fais pas d'astro mais je suis concerné par les mêmes problématiques que vous pour le processing des images.

Je cherche à imager un objet 2D par transmission avec une caméra CMOS, avant et après noircissement. Je soustrairai ensuite les 2 images pour avoir le signal "vrai" en ADU, permettant de remonter à l'information que je souhaite.

Je corrige avec un flat où je suis la fameuse règle du 50-70% de saturation max de mon capteur 16 bits, soit une valeur comprise entre 30000 et 45000 (je me pose encore la question si le dark est nécessaire car ma caméra est refroidie, j'ai un fort éclairement et mon temps d'expo est très court, de l'ordre de 15ms, mais c'est une autre question).

Pour un réglage de temps d'exposition donnant un flat de 45000, mon objet avant noircissement à une valeur d'ADU de 25000 environ. Si je divise pixel à pixel, je me retrouve  avec une valeur <1, ce qui réduit très fortement la dynamique. D'autant plus qu'après je dois soustraire par la même chose pour mon objet noirci.

 

Comment gérez-vous les flats? Vous le normalisez par rapport à une valeur moyenne ou médiane pour ensuite diviser votre image raw par ce mapping, afin de conserver une bonne dynamique?

Que me conseillez-vous dans mon cas?

 

Merci d'avance !

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

9 réponses à cette question

Messages recommandés

  • 0

Bonjour,

je ne comprends pas tout.... Si on divise un petit nombre par un grand, des deux étant positifs, on obtient une très petite valeur...positive, jamais négative.

 

Sinon, sur les logiciels astro peu automatisés, comme Iris (excellent ! :x), pour chaque image brute, après division par le flat il y a multiplication par une constante que l'on choisit, en général dans l'ordre de grandeur de la moyenne des valeurs du flat, pour rehausser l'histogramme vers ses valeurs d'origine sur l'image brute.  Sur les logiciels très automatisés où l'on a pas accès à cette constante le soft doit certainement la déterminer lui-même.

Bref, ceci permet, après division par le flat, de conserver la dynamique de l'image d'origine :).

 

MM

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

Bonjour et merci de votre réponse.

 

Oui effectivement c'est bien ce que je dis, on obtient une valeur <1 (sous-entendue petite et positive ! :))

 

Donc il y a bien une histoire de moyenne du flat qui intervient... Pourquoi moyenne et pas médiane par exemple?

Et pourquoi ne pas prendre directement la moyenne/médiane du flat dont on fait la division pixel à pixel par notre image brute? C'est uniquement par commodité logicielle en remultipliant par une constante derrière ?

 

Je dois recaler mes 2 objets avant et après noircissement, de ce fait je travaille entièrement sous Python qui permet de le faire facilement.

Me conseillerez-vous donc de diviser directement l'image brute par la moyenne ou médiane du flat dans ce cas?

 

Merci d'avance !

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

Ben oui..., pourquoi j'ai interprété <0 moi ???? :$, l'âge sans doute....:D

 

Il y a 10 heures, Julien JURCZAK a dit :

Et pourquoi ne pas prendre directement la moyenne/médiane du flat dont on fait la division pixel à pixel par notre image brute?

Hé bien si on divise les valeurs de tous les pixels par une même valeur l'opération n'aurait aucun effet de correction...

 

Pour corriger le vignetage via un flat (le raisonnement est le même pour les poussières), les valeurs des pixels en bord de capteur des images brutes , affaiblies par ledit vignetage, sont divisées par les valeurs des pixels correspondants du flat maître, où elles sont aussi affaiblies par le vignetage, on divise donc une valeur "faible" par une autre valeur "faible".

Au centre du capteur, zone non soumise au vignetage, on divise une valeur "forte" par une autre valeur "forte".

Au final les valeurs aux bords et au centre se retrouvent dans les mêmes ordres de grandeur, mais faibles... On multiplie alors tous les pixels par une valeur  approximativement de l'ordre de grandeur des valeurs du flat pour rehausser l'image à peu près à son niveau de luminosité d'origine. Toutes les brutes étant divisées par le même flat maître puis multipliées par la même constante (c'est un pléonasme ça...:D), l'ensemble des brutes corrigées est cohérent.

 

MM

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

Je me suis peut-être mal exprimé alors xD
Considérons notre flat. On détermine sa valeur moyenne, une valeur unique donc.

Puis on divise pixel à pixel notre flat par cette valeur moyenne. On se retrouve donc avec un « mapping » du flat avec des valeurs pixels à pixels proches de 1.

 

Et on divise notre image brute par cette dernière image.

 

J’espère avoir été plus clair cette fois :)

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

 

Il y a 8 heures, Julien JURCZAK a dit :

Considérons notre flat. On détermine sa valeur moyenne, une valeur unique donc.

Puis on divise pixel à pixel notre flat par cette valeur moyenne.

 

La correction d'une image brute par un flat, opération qui vise à corriger l'image brute des "défauts" d'éclairement du capteur, ne se passe pas comme ça.

 

Voici comment nous (ou les logiciels automatisés) procédons globalement pour nos images astro de ciel profond, tu en retireras ce qui te paraît utile pour ta manip :

- prise des images brutes.

- sans toucher à la mise au point ni à l'orientation du capteur par rapport à l'optique, prise de X flats (PLU) sur une source lumineuse uniforme, temps de pose réglé pour obtenir un histogramme calé vers les 2/3 de la dynamique.

- prise des darks (noirs), avec des paramètres "caméra" identiques à celles des brutes, température incluse, mais dans le noir complet bien sûr.

- prise des offsets (bias) avec des paramètres "caméras" inchangés sauf le temps de pose réglé au mini possible, et là aussi dans le noir.

Puis

- réalisation d'un offset maître, en général par médiane (si on a fait N offsets, chaque pixel de l'offset maître prendra alors la valeur médiane des N pixels situés au même endroit, de mêmes coordonnées sur le capteur si tu préfères).

- réalisation d'un flat maître, d'abord en soustrayant l'offset maître à chaque image flat, puis en  faisant un flat maître par médiane de ces flats corrigés de l'offset. Comme pour les offsets, le pixel 1-1, par exemple, du flat maître aura alors la valeur médiane des X pixels 1-1 des flats corrigés par l'offset.

- réalisation d'un dark maître, même procédure que pour les flats.

Puis

- soustraction de l'offset maître de toutes les images brutes.

- soustraction du dark maître de toutes les brutes précédemment corrigées.

- division de chaque brute (corrigées de l'offset et du dark) par le flat maître (là on réduit furieusement la dynamique).

- multiplication de chaque image corrigée du flat par une constante d'une valeur voisine de la moyenne des valeurs des pixels du flat maître (là on remonte la dynamique aux environs de son niveau d'origine).

Puis

- alignement des images corrigées

- empilement des images alignées

- post-traitement de l'image obtenue.

 

Voilà... :)

 

MM

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

Très bien merci pour toutes ces infos :)

 

Une dernière question et je vous laisse tranquille !

 

Comme je vous disais, je dois photographier mon objet avant et après noircissement à 2 temps t distincts (24-48h). Je vais donc réaliser 2 flat également à la suite pour avoir à chaque fois une image corrigée.

Est-ce qu'en faisant cela, 

1- Je vais bien m'affranchir des fluctuations de l'intensité de la source lumineuse entre les 2 expositions non noircie et noicie réalisées à des moments différents ?

2- Je vais m'affranchir, en plus de mes poussière, sensibilité intrinsèque des photosites... De ma source lumineuse qui n'est pas parfaitement uniforme? 

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

Bonjour,

 

Le flat ne corrige QUE les hétérogénéités de luminosité sur l'image dues au train optique (de l'instrument de prise de vue pour faire simple), écarts causés par des éléments mécaniques, optiques, poussières, salissures. Çà répond à tes deux questions...

 

Bonnes manips ! :)

 

MM

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

Merci beaucoup !

 

Par contre, j'ai beau tourner les choses dans tous les sens, je n'arrive pas à comprendre pourquoi ces 2 points ne sont pas vrais...

Partager ce message


Lien à poster
Partager sur d’autres sites
  • 0

Tu n'as pas encore bien compris ce qu'est un flat...

 

Le 19/02/2020 à 15:16, Julien JURCZAK a dit :

1- Je vais bien m'affranchir des fluctuations de l'intensité de la source lumineuse entre les 2 expositions non noircie et noicie réalisées à des moments différents ?

Un flat ne corrige pas les écarts de luminosité d'une séance à l'autre mais les hétérogénéités de luminosité dans UNE image. En bref il ne travaille pas dans le temps mais dans un espace 2D.

 

Le 19/02/2020 à 15:16, Julien JURCZAK a dit :

2- Je vais m'affranchir, en plus de mes poussière, sensibilité intrinsèque des photosites... De ma source lumineuse qui n'est pas parfaitement uniforme? 

Un flat, normalement obligatoirement réalisé  sur une "surface" de luminosité homogène, va corriger les défauts d'homogénéité de luminosité qui sont présents dans lui-même ET dans l'image à corriger. Les hétérogénéités de luminosité qui ne sont QUE dans l'image à corriger et pas dans le flat resteront intacts, et tant mieux car il s'agit du ou des sujet(s) photographié(s) :).

Cependant, si tu poses tes objets à photographier juste devant un fond clair et que tu images "avec" et "sans" les objets, l'image "sans" (donc juste le fond) peut te servir de flat car elle contiendra, comme les images "avec", les hétérogénéités d'éclairage de ta source, mais que pour la séance en cours. Si tu fais plusieurs séances il faudra faire un flat à chaque fois car rien ne garantit que les hétérogénéités d'éclairement, les poussières, etc..., seront les mêmes et au même endroit d'une sénace à l'autre.

 

As-tu songé à placer (si c'est possible, je ne connais pas ta manip), juste contre l'objet qui va varier de pouvoir réfléchissant d'une séance à l'autre (tu veux mesurer cette variation si j'ai bien compris), un "témoin" qui lui ne variera pas ?... En mesurant, sur tes images, la luminosité du témoin puis celle de l'objet d'étude, puis en réduisant tes données pour ramener à 1 (ou 100%) la "luminosité" du témoin tu obtiendras l'évolution de "luminosité" (de la "noirceur" dans ta manip) de l'objet d'étude, et cela corrigera automatiquement les éventuelles variations d'éclairage dues à ta source d'une séance à l'autre.

 

Sur ce, bonnes manips et bon courage ! :)

MM

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Chani11
      Bonjour,
      Il s'agit d'une extension pour NINA pour gérer le retournement au méridien, qui permet de contrôler toutes les actions contrairement au meridian flip auto.
      Dans les vidéos tutos ou notice de cette extension, il faut installer le DIY meridian flip TRIGGER das lequel on doit mettre toutes les commandes. Hors celui-ci n'apparait pas, juste trois instructions qui ne fonctionnent pas seules. J'ai désinstallé puis réinstallé le pluggin, rien à faire. (mes versions sont à jour)
      Une idée ????
       

       
      Flip, rotate et wait ne peuvent fonctionner que dans M flip trigger, absent ici !
    • Par Bigcrunch
      bonsoir ,

      cette image a été prise la même nuit que le triplet du Lion , en suivant,  mais ce coup ci sans la lune ,  
      toujours avec la FS60 et son correcteur et le Sigma FP refiltré.
      147 poses de 60 s à 1250iso 112 poses retenues Prétraitement et traitement sur PI 
      images présentées : full à 1850 px ; crop à 50%; crop à 100%

      bonne soirée 
       
      Olivier




    • Par Astramazonie
      Bonjour les Astros, 
       
      Petite prise du "CASQUE DE THOR" qui date d'une semaine, que je pensais perdu dans les abysses des clichés mais qui a pu être récupérée, toujours au Seestar 20 minutes de pose.
       
      Merci à @Bob Saint-Clar pour son aide pour le traitement ... et le sauvetage de cette photo.
       

       

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 65,8 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

  • Évènements à venir