• 0
Mikeoo

Flat field image

Question

Bonjour à tous,

 

Petit nouveau sur le forum, je ne fais pas d'astro mais je suis concerné par les mêmes problématiques que vous pour le processing des images.

Je cherche à imager un objet 2D par transmission avec une caméra CMOS, avant et après noircissement. Je soustrairai ensuite les 2 images pour avoir le signal "vrai" en ADU, permettant de remonter à l'information que je souhaite.

Je corrige avec un flat où je suis la fameuse règle du 50-70% de saturation max de mon capteur 16 bits, soit une valeur comprise entre 30000 et 45000 (je me pose encore la question si le dark est nécessaire car ma caméra est refroidie, j'ai un fort éclairement et mon temps d'expo est très court, de l'ordre de 15ms, mais c'est une autre question).

Pour un réglage de temps d'exposition donnant un flat de 45000, mon objet avant noircissement à une valeur d'ADU de 25000 environ. Si je divise pixel à pixel, je me retrouve  avec une valeur <1, ce qui réduit très fortement la dynamique. D'autant plus qu'après je dois soustraire par la même chose pour mon objet noirci.

 

Comment gérez-vous les flats? Vous le normalisez par rapport à une valeur moyenne ou médiane pour ensuite diviser votre image raw par ce mapping, afin de conserver une bonne dynamique?

Que me conseillez-vous dans mon cas?

 

Merci d'avance !

 

 

Share this post


Link to post
Share on other sites

9 answers to this question

Recommended Posts

  • 0

Bonjour,

je ne comprends pas tout.... Si on divise un petit nombre par un grand, des deux étant positifs, on obtient une très petite valeur...positive, jamais négative.

 

Sinon, sur les logiciels astro peu automatisés, comme Iris (excellent ! :x), pour chaque image brute, après division par le flat il y a multiplication par une constante que l'on choisit, en général dans l'ordre de grandeur de la moyenne des valeurs du flat, pour rehausser l'histogramme vers ses valeurs d'origine sur l'image brute.  Sur les logiciels très automatisés où l'on a pas accès à cette constante le soft doit certainement la déterminer lui-même.

Bref, ceci permet, après division par le flat, de conserver la dynamique de l'image d'origine :).

 

MM

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com
  • 0

Bonjour et merci de votre réponse.

 

Oui effectivement c'est bien ce que je dis, on obtient une valeur <1 (sous-entendue petite et positive ! :))

 

Donc il y a bien une histoire de moyenne du flat qui intervient... Pourquoi moyenne et pas médiane par exemple?

Et pourquoi ne pas prendre directement la moyenne/médiane du flat dont on fait la division pixel à pixel par notre image brute? C'est uniquement par commodité logicielle en remultipliant par une constante derrière ?

 

Je dois recaler mes 2 objets avant et après noircissement, de ce fait je travaille entièrement sous Python qui permet de le faire facilement.

Me conseillerez-vous donc de diviser directement l'image brute par la moyenne ou médiane du flat dans ce cas?

 

Merci d'avance !

 

 

Share this post


Link to post
Share on other sites
  • 0

Ben oui..., pourquoi j'ai interprété <0 moi ???? :$, l'âge sans doute....:D

 

Il y a 10 heures, Julien JURCZAK a dit :

Et pourquoi ne pas prendre directement la moyenne/médiane du flat dont on fait la division pixel à pixel par notre image brute?

Hé bien si on divise les valeurs de tous les pixels par une même valeur l'opération n'aurait aucun effet de correction...

 

Pour corriger le vignetage via un flat (le raisonnement est le même pour les poussières), les valeurs des pixels en bord de capteur des images brutes , affaiblies par ledit vignetage, sont divisées par les valeurs des pixels correspondants du flat maître, où elles sont aussi affaiblies par le vignetage, on divise donc une valeur "faible" par une autre valeur "faible".

Au centre du capteur, zone non soumise au vignetage, on divise une valeur "forte" par une autre valeur "forte".

Au final les valeurs aux bords et au centre se retrouvent dans les mêmes ordres de grandeur, mais faibles... On multiplie alors tous les pixels par une valeur  approximativement de l'ordre de grandeur des valeurs du flat pour rehausser l'image à peu près à son niveau de luminosité d'origine. Toutes les brutes étant divisées par le même flat maître puis multipliées par la même constante (c'est un pléonasme ça...:D), l'ensemble des brutes corrigées est cohérent.

 

MM

Share this post


Link to post
Share on other sites
  • 0

Je me suis peut-être mal exprimé alors xD
Considérons notre flat. On détermine sa valeur moyenne, une valeur unique donc.

Puis on divise pixel à pixel notre flat par cette valeur moyenne. On se retrouve donc avec un « mapping » du flat avec des valeurs pixels à pixels proches de 1.

 

Et on divise notre image brute par cette dernière image.

 

J’espère avoir été plus clair cette fois :)

Share this post


Link to post
Share on other sites
  • 0

 

Il y a 8 heures, Julien JURCZAK a dit :

Considérons notre flat. On détermine sa valeur moyenne, une valeur unique donc.

Puis on divise pixel à pixel notre flat par cette valeur moyenne.

 

La correction d'une image brute par un flat, opération qui vise à corriger l'image brute des "défauts" d'éclairement du capteur, ne se passe pas comme ça.

 

Voici comment nous (ou les logiciels automatisés) procédons globalement pour nos images astro de ciel profond, tu en retireras ce qui te paraît utile pour ta manip :

- prise des images brutes.

- sans toucher à la mise au point ni à l'orientation du capteur par rapport à l'optique, prise de X flats (PLU) sur une source lumineuse uniforme, temps de pose réglé pour obtenir un histogramme calé vers les 2/3 de la dynamique.

- prise des darks (noirs), avec des paramètres "caméra" identiques à celles des brutes, température incluse, mais dans le noir complet bien sûr.

- prise des offsets (bias) avec des paramètres "caméras" inchangés sauf le temps de pose réglé au mini possible, et là aussi dans le noir.

Puis

- réalisation d'un offset maître, en général par médiane (si on a fait N offsets, chaque pixel de l'offset maître prendra alors la valeur médiane des N pixels situés au même endroit, de mêmes coordonnées sur le capteur si tu préfères).

- réalisation d'un flat maître, d'abord en soustrayant l'offset maître à chaque image flat, puis en  faisant un flat maître par médiane de ces flats corrigés de l'offset. Comme pour les offsets, le pixel 1-1, par exemple, du flat maître aura alors la valeur médiane des X pixels 1-1 des flats corrigés par l'offset.

- réalisation d'un dark maître, même procédure que pour les flats.

Puis

- soustraction de l'offset maître de toutes les images brutes.

- soustraction du dark maître de toutes les brutes précédemment corrigées.

- division de chaque brute (corrigées de l'offset et du dark) par le flat maître (là on réduit furieusement la dynamique).

- multiplication de chaque image corrigée du flat par une constante d'une valeur voisine de la moyenne des valeurs des pixels du flat maître (là on remonte la dynamique aux environs de son niveau d'origine).

Puis

- alignement des images corrigées

- empilement des images alignées

- post-traitement de l'image obtenue.

 

Voilà... :)

 

MM

Share this post


Link to post
Share on other sites
  • 0

Très bien merci pour toutes ces infos :)

 

Une dernière question et je vous laisse tranquille !

 

Comme je vous disais, je dois photographier mon objet avant et après noircissement à 2 temps t distincts (24-48h). Je vais donc réaliser 2 flat également à la suite pour avoir à chaque fois une image corrigée.

Est-ce qu'en faisant cela, 

1- Je vais bien m'affranchir des fluctuations de l'intensité de la source lumineuse entre les 2 expositions non noircie et noicie réalisées à des moments différents ?

2- Je vais m'affranchir, en plus de mes poussière, sensibilité intrinsèque des photosites... De ma source lumineuse qui n'est pas parfaitement uniforme? 

Share this post


Link to post
Share on other sites
  • 0

Bonjour,

 

Le flat ne corrige QUE les hétérogénéités de luminosité sur l'image dues au train optique (de l'instrument de prise de vue pour faire simple), écarts causés par des éléments mécaniques, optiques, poussières, salissures. Çà répond à tes deux questions...

 

Bonnes manips ! :)

 

MM

Share this post


Link to post
Share on other sites
  • 0

Merci beaucoup !

 

Par contre, j'ai beau tourner les choses dans tous les sens, je n'arrive pas à comprendre pourquoi ces 2 points ne sont pas vrais...

Share this post


Link to post
Share on other sites
  • 0

Tu n'as pas encore bien compris ce qu'est un flat...

 

Le 19/02/2020 à 15:16, Julien JURCZAK a dit :

1- Je vais bien m'affranchir des fluctuations de l'intensité de la source lumineuse entre les 2 expositions non noircie et noicie réalisées à des moments différents ?

Un flat ne corrige pas les écarts de luminosité d'une séance à l'autre mais les hétérogénéités de luminosité dans UNE image. En bref il ne travaille pas dans le temps mais dans un espace 2D.

 

Le 19/02/2020 à 15:16, Julien JURCZAK a dit :

2- Je vais m'affranchir, en plus de mes poussière, sensibilité intrinsèque des photosites... De ma source lumineuse qui n'est pas parfaitement uniforme? 

Un flat, normalement obligatoirement réalisé  sur une "surface" de luminosité homogène, va corriger les défauts d'homogénéité de luminosité qui sont présents dans lui-même ET dans l'image à corriger. Les hétérogénéités de luminosité qui ne sont QUE dans l'image à corriger et pas dans le flat resteront intacts, et tant mieux car il s'agit du ou des sujet(s) photographié(s) :).

Cependant, si tu poses tes objets à photographier juste devant un fond clair et que tu images "avec" et "sans" les objets, l'image "sans" (donc juste le fond) peut te servir de flat car elle contiendra, comme les images "avec", les hétérogénéités d'éclairage de ta source, mais que pour la séance en cours. Si tu fais plusieurs séances il faudra faire un flat à chaque fois car rien ne garantit que les hétérogénéités d'éclairement, les poussières, etc..., seront les mêmes et au même endroit d'une sénace à l'autre.

 

As-tu songé à placer (si c'est possible, je ne connais pas ta manip), juste contre l'objet qui va varier de pouvoir réfléchissant d'une séance à l'autre (tu veux mesurer cette variation si j'ai bien compris), un "témoin" qui lui ne variera pas ?... En mesurant, sur tes images, la luminosité du témoin puis celle de l'objet d'étude, puis en réduisant tes données pour ramener à 1 (ou 100%) la "luminosité" du témoin tu obtiendras l'évolution de "luminosité" (de la "noirceur" dans ta manip) de l'objet d'étude, et cela corrigera automatiquement les éventuelles variations d'éclairage dues à ta source d'une séance à l'autre.

 

Sur ce, bonnes manips et bon courage ! :)

MM

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By frank-astro
      Bonsoir,
      Une image de cette nuit prise avec le Megrez 72 et l'ASI1600MC (35x 4minutes). Siril et Photoshop :
      NGC7023-Megrez72-ASI1600MC_35x4min by Frank TYRLIK, sur Flickr
      Bonen soirée,
      Frank
    • By Loup Lunaire
      Bonjour,
       
      Voilà j'ai tenté Mercure que je n'avais jamais réalisé et cru voir à l'oculaire avec sa surface visible,  avec une magnitude de -0.36 c'est tous petit  à 151 M de km et une illumination à 59%, et pourtant c'est dans la boite.
      Pour la lune c'est comme d'habitude , en ce moment les phases croissantes sont belles à voir , je me suis lécher les babines sur Petavius entre autres....
       

       
       
      Bon ciel lunaire & planétaires
    • By Malik
      Bonjour à tous !
       
      Bon, pour tout vous dire je comptais appeler ce poste : 
       
      « Malik’s Ultra Deep Field Nasa High Résolution Galaxies Cluster 😎» 
       
      mais je me suis ravisé au dernier moment... ça faisait un peu trop.
       
      Alors voilà donc ma dernière prise, après presque 2 mois de confinement.
      Enfermé comme un lion en cage, alors que j’avais du nouveau matériel à tester, alors que de belles nuits s’enchaînaient, et que mon ciel parisien ne me permettait de faire... à peu près rien.
      Autant vous dire que des le lendemain du déconfinement, je m’organisais déjà pour sortir. Mon spot préféré m’attendait (dans le rayon réglementaire de 100km) et malgré la reprise du boulot, j’ai pu y enchaîner 4 nuits ! 
      A 1h de route de chez moi, rentré à 5h30, boulot à 10h...
      Ce fut.... assez fatiguant... 😬
       
      Mais quel bonheur de retrouver le ciel, l’ambiance paisible de la nuit, et toutes les emmerdes de l'astrophoto... alala ça me manquait...
       
      Par contre, j’ai rencontré des nouveaux venus, askiparai qu’on les appelle starlinks... enfin je ne sais pas si c'en etait, ca me parait tot pour en avoir autant.
      Voici les trainées que j'ai ramassé sur 57 poses de 10min 😐
       


       
       
      Aller passons à ce qui nous interesse...
       
       
       
      ABELL 1656
       
      Il s'agit d'un amas de galaxies, dans la Chevelure de Berenice, appelé aussi Coma Cluster
      Il y a plus de 1000 galaxies dans ce champs ! Probablement plus de galaxies que d'étoiles sur cette image (faudrait que je vérifie tiens...)
      On pourrais croire a un phenomene de lentille gravitationelle au centre de la region, mais non NGC4874 et NGC4889 sont deux galaxies super geantes autour desquelles gravitent d'autres plus petites elliptiques.
       
      Traitement particulièrement complexe du coup, notamment pour bien gérer les étoiles, j'ai du m'y reprendre à deux fois.
      En tout cas, je ne pensais clairement pas en tirer ce résultat, c'est un champs assez peu imagé, sur Astrobin, les gars y vont avec des gros tubes, avec de la grosse focale.
       
      Je m'y suis attaqué avec ma lunette 130/780, et l'ASI1600 🙂, pour un échantillonnage à 1'arc/pix
      env 10h de L et 1h de chaque pour les RVB
      traitement PIX et PS
       
       
       
      La full vaut le détour
       

       
       
      A+++
       
       
       
    • By Haltea
      Salut,
      Je viens d'acquérir un ADC zwo , avec niveau a bulle,  pour la saison des planètes.
      Je pense avoir bien compris le fonctionnement des molettes avec ma caméra couleur.
      Seul problème,  j'image avec un newton et il semble que le réglage de l'horizontal pose soucis avec cette formule optique.
      Est ce qu'un planeteux newtonien pourrait m'expliquer comment faire ?
      Merci 
    • By frank-astro
      Bonjour,
      Petit souvenir du passage de la comète C2017t2 "près" de M81 et M82. Cela rentre tout juste dans le cadre de l'ASI1600MC et la Megrez 72.
      M81-82-C2017-T2_Megrez72-ASI1600MC_20200525 by Frank TYRLIK, sur Flickr
      Frank
  • Images