belatrix

faut il continuer a faire des offset ?

Messages recommandés

il y a 27 minutes, jeffbax a dit :

 

Cette lecture génère un petit courant, très faible, qui s'ajoute à ton image. Appellons le le petit parasite.

 

Un biais ou un offset est une image avec un temps de pose quasiment nul, donc sans signal utile. Il contient uniquement ce signal de lecture. Le petit parasite.

Je vais préciser un peu pour que ce soit plus clair. 

L'offset est un signal en effet. On peut dire signal parasite, mais c'est un peu trompeur.

La lecture en elle même ne génère pas un courant. 
L'offset est une précharge du capteur volontaire, le but est d'éviter d'avoir des valeurs négative sur le capteur. 
En raison des bruits à la lecture, un signal avec une valeur de noir absolu pourrait être à 0 ou -1. Et ça ce n'est pas compatible avec un codage sur X bits de valeur entières et positives donc (je rappelle si besoin que 2^0=1 )

 

Et comme tout signal, l'offset est bruité par la lecture, c'est pour ça qu'il faudra en faire des dizaines pour avoir une carte fiable de la précharge, ou simplement appliquer une constante négative (mesurée) à l'ensemble des pixels. 

C'est intéressant à lire en tout cas cette discussion et de voir à quel point ces notions sont confuses. 
Ouvrez des livres les amis, tout est dedans. 

  • J'aime 2
  • Confus 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 45 minutes, Billyjoe a dit :

mais  on parle de bruit de lecture  qui se mesure sur un bias

on peut mesurer le bruit de lecture notamment à partir de bias oui, mais ce bruit de lecture reste imprévisible, et il affecte toutes les images : LDOF.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 15 minutes, jldauvergne a dit :

C'est intéressant à lire en tout cas cette discussion et de voir à quel point ces notions sont confuses. 
Ouvrez des livres les amis, tout est dedans

 

Houla... Confuses pour qui...On redescend, c'est à moi que tu réponds en me citant ?... Pourtant il y avait un léger mieux, tu avais un peu progressé ces derniers jours. On se ressaisit, c'était mieux... 

 

J'ai lu tous les livres qu'il faut apparemment, jette un œil à mes images si elles t'avaient echappées et ça va te sauter aux yeux. 😉

 

La personne à laquelle je répondais était en demande d'explications, apparemment simples (ne pas confondre simple et bête, c'est souvent le contraire). Il a demandé 2 fois.

 

Alors j'ai essayé de lui expliquer de manière imagée et à sa portée, sans objectif de montrer ce que je sais. Mais plutôt dans un esprit de partage... Sinon je sais aussi causer bits, puissances de 2 et ressortir mes anciens cours de maths sup... J'ai une formation d'ingénieur et je cause tout ça très bien (sans tautologie hein...)

 

Quand on veut être compris et ecouté, il peut être intéressant de se mettre à la hauteur de celui avec qui on échange. C'est comme ça qu'on partage, à mon sens... Si on commence ici à lui expliqier qu'il n'a qu'à exploiter les zones d'overscan du capteur pour ses DOF on le perd un peu plus et il ne demandera plus... tu vois ?

 

Maintenant que je te cerne un peu mieux suite aux échanges sur l'autre fil, je pense que c'était une maladresse. Mais ça reste un peu désagréable, même si involontaire. C'est dommage, je pense qu'on peut partager sans faire la leçon.

 

JF 

  • J'aime 1
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 21 minutes, jldauvergne a dit :

C'est intéressant à lire en tout cas cette discussion et de voir à quel point ces notions sont confuses. 
Ouvrez des livres les amis, tout est dedans. 

J'en ai des livres et que j'ai ouverts ;) "guide pratique ccd en astronomie" de  Klotz Alain  par exemple. Alors certes la notion "signal, bruit" peut être confuse mais ça n’empêche pas de pretraiter nos images correctement et simplement (avec prism tu rentre ton bias, ton noir, et ton flat maitre et ça roule.

Après en effet cette histoire d'offset "synthétique" est intéressent pour corriger le signal et ne pas rajouter du bruit (si peu de toutes façons )  j'ai bien bon là ?

Perso bientôt je me lance dans la photométrie et faudra prétraiter dans les règles de l'art :)

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Je vois que tout le monde est un peu nerveux là ;) alors de mon coté je tiens à préciser  que m'a réponse ne se veut nullement agressive et que je me sent pas du tout outragé ;) par les propos de JLD.

A ce village gaulois ;)

Modifié par Billyjoe
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Au fait Jeff un superflat c'est quand c'est Superfulgur qui le fait, c'est bien ça ? ;)

Modifié par Billyjoe
  • Haha 4

Partager ce message


Lien à poster
Partager sur d’autres sites

Ben moi, je trouve que c'est tellement simple de faire des offsets=bias que je ne vois pas pourquoi chercher à les éviter. B|

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 36 minutes, Billyjoe a dit :

Au fait Jeff un superflat c'est quand c'est Superfulgur qui le fait, c'est bien ça ? ;)

 

Exactement, avec des super galères après parce qu'il a mis le bouchon 😅😅😅. Mais on s'aprecie comme ça 😂

Modifié par jeffbax
  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites

 

Les offsets, j'ai jamais su c'était quoi, mais comme c'est super facile à faire, j'aime bien.

 

Par contre, grâce à  SuperBax, j'ai fait sans le savoir mon premier super flat, je suis super content.

 

La technique : "jeté de monture", pour ne surtout pas être en station. Puis poses courtes (10 secondes) à 12 800 ISO pour pas que ça bouge trop, puis recentrage un peu n'importe quand pendant la pose, pour que l'objet se balade dans tout le capteur.

 

Résultat, tata !!!

(Orion, la nuit où j'ai photographié la Lune, à F/12, sur ma terrasse de banlieue. 

 

(Note de bas de page, en vrai, ni flat, ni dark, ni offsets, comme d'hab, c'est Siril qui a fait ce "flat", ça marche bien, raison pour laquelle j'en fais pu :/

 

^_^

 

S

M 42 330 x 10 sec V1-DN.jpg

Modifié par Superfulgur
  • J'adore 1
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Billyjoe a dit :

Après en effet cette histoire d'offset "synthétique" est intéressent pour corriger le signal et ne pas rajouter du bruit (si peu de toutes façons )  j'ai bien bon là ?

Sur le papier oui. Dans la pratique, je ne sais pas si c'est systématiquement une bonne idée. Je pense qu'il y a des cas où l'offset n'est pas isotrope. 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 15 minutes, Superfulgur a dit :

, puis recentrage un peu n'importe quand pendant la pose, pour que l'objet se balade dans tout le capteur.

 

Tu as inventé le dithering manuel post jeté de monture en fait 😜. Un truc très poussé utilisé en poses rapides, avec monture pas exactement en station pour générer une dérive exprès puis des petits coups de raquettes de temps en temps... Excellent 👍 tout ceci est inné chez toi, quel talent 😜

 

 

Modifié par jeffbax
  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites

 

Tu m'étonne que ça le démange Jeff de les soustraire ces Superflat. Et le mec il a un  1 mètre.

Modifié par Billyjoe
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, jeffbax a dit :

Tu as inventé le dithering manuel post jeté de monture en fait

Et après avec ses MAP approximatives il pourra faire de la photometrie. Un scientifique un vrai ;)

  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jeffbax a dit :

Confuses pour qui...On redescend, c'est à moi que tu réponds en me citant ?

Tu montes vite sur tes chevaux à nouveau O.o 
J'ai apporté une précision à ce que tu disais parce que la formulation prête à confusion. 

 

Je pense (j'espère) que tu sais parfaitement ce qu'est un offset, mais dans d'autres interventions il y a de la confusion. Or, c'est fondamental de comprendre ce qu'on fait et pourquoi on le fait. Si on corrige des offsets sans comprendre ce que ce signal fiche là dans le capteur, je pense qu'on peut vite faire n'importe quoi. Le n'importe quoi le plus fréquent étant probablement de diviser par un flat qui contient son offset par exemple.

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 3 minutes, jldauvergne a dit :

Tu montes vite sur tes chevaux à nouveau O.o 
J'ai apporté une précision à ce que tu disais parce que la formulation prête à confusion. 

 

Je pense (j'espère) que tu sais parfaitement ce qu'est un offset, mais dans d'autres intervention il y a de la confusion. Or, c'est fondamental de comprendre ce qu'on fait et pourquoi on le fait. Si on corrige des offsets sans comprendre ce que ce signal fiche là dans le capteur, je pense qu'on peut vite faire n'importe quoi. Le n'importe quoi le plus fréquent étant probablement de diviser par un flat qui contient son offset par exemple

 

Merci de préciser, c'est sympa. Et désolé si j'ai démarré, mais chat échaudé...et oui, l'offset sera toujours indispensable au moins pour le flat, tu as raison.

Modifié par jeffbax

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 16 heures, jldauvergne a dit :

C'est intéressant à lire en tout cas cette discussion et de voir à quel point ces notions sont confuses. 

 

En effet. 

J'ai fait l'innocent plus haut pour voir où on en était. Ca vaut la peine de commenter un peu. 

 

L' offset n'est pas  vraiment un signal. Le noir ("dark") et la pleine lumière (''flat") sont eux des signaux. Je m'explique:

 

Un CMOS, essentiellement, produit des électrons à partir du flux de photons (lumière) qui l'éclairent, l'énergie de chaque  photon étant absorbée dans un atome de silicium qui libère alors un électron.  Ces électrons constituent un certain nombre de charges par seconde, autrement dit un courant électrique. Celui-ci est ensuite amplifié et converti en une tension mesurable dans une échelle numérique qu'on peut manipuler.

 

La très bonne linéarité du CMOS (je n'entre pas dans les détails) fait que cette échelle (représentable graphiquement par une droite) est définie par seulement deux nombres: le gain de l'ampli de sortie, et le zéro de référence quand la caméra ne reçoit pas de lumière. Ce zéro de courant a en principe la valeur numérique 0, - c'est l'offset ou biais -, mais en peut le régler  et on va voir pourquoi ci-dessous. 


L'offset est donc un simple décalage de la tension de mesure qui ne modifie en rien les autres signaux physiques qui interviennent dans le fonctionnement de la caméra.
Comme ce que je viens de décrire est propre à chaque photo-capteur individuel (pixel), on pourrait penser que la tension d'offset pourrait ne pas être uniforme sur l'ensemble du capteur. Je pense que ce n'est pas le cas (jusqu'à plus ample informé), mais que sa valeur est commune à tous les pixels (et fixée dans le dernier étage de sortie de la caméra). 

 

Ce qui vient un peu compliquer les choses est que le CMOS n'est pas complétement passif en l'absence de lumière, il génère en interne un signal d'agitation thermique comme tout circuit électronique.  Celui-ci contribue et se superpose au signal mesuré en présence d'éclairement: c'est le "dark", ou courant d'obscurité.
Et comme pour tout signal physique, le courant d'obscurité est variable à très courte échelle de temps à causes de phénomènes microscopiques qui dépendent de sa nature physique, mais sa valeur moyenne est constante, avec une dispersion dans laquelle les valeurs déviantes sont d'autant plus rares qu'elles sont larges. C'est ce qu'on appelle le bruit de mesure du signal en question.
Le processus de "lecture" de la caméra (ce qui se passe entre la production d'électrons et la production de la tension de sortie) est lui même bruité; c'est le "bruit de lecture" (RON). Le signal lumineux provenant du télescope est lui aussi affecté d'un  bruit intrinsèque (bruit photonique) mais de statistique un peu différente.

 

Sur les caméras CMOS modernes, le courant d'obscurité est devenu négligeable, même s'il dépend toujours de la température de fonctionnement (c'était le thème du précédent fil initié par @frédogoto). Par exemple, sur l'IMX533, il vaut 0.001 el/sec  à 0°C et encore seulement 0.1 el/sec à 30°C. Avec un gain standard de 1 el/adu, il faut donc poser au moins 1000 secondes pour que le ''dark'' diffère de l''offset  par 1 adu.
Pratiquement, sa valeur moyenne diffère si peu de celle de l'offset qu'on peut raisonnablement confondre les deux:  dark = offset.
Au moins dans le monde astram, où le % d'imprécision n'est pas critique.
C'est d'ailleurs comme cela qu'on peut mesurer le courant d'offset, en enregistrant un "dark" de durée quasi nulle (donc sans courant d'obscurité appréciable).

 

Pour étalonner l'observation et obtenir des valeurs physiques indépendantes de l'instrument, - comme il a été précisé plus haut par plusieurs intervenants - , il faut donc appliquer la formule :
    ciel(physique) = (ciel(adu) - dark(adu))/(flat(adu) - dark(adu))
dark(adu) étant la valeur de référence en adu, et 1/(flat(adu) - dark(adu)) une estimation du gain pour chaque pixel sur un champ uniforme de pleine lumière.

 

Il reste deux questions me semble-t-il: 1) comment évaluer au mieux le "dark" (ou l'"offset"), 2) pourquoi faut-il un offset et comment le régler (s'il est réglable, car sur certaines caméras il est imposé) ?

 

Réponses: 

1) soit traditionnellement, en faisant une moyenne ("superdark") de darks individuels. 
Plus simplement, en utilisant la valeur de réglage de l'offset (offset ou dark dit "synthétique") qu'il est possible d'étalonner une fois pour toute. Donc en ne faisant rien de particulier.
On m'objectera qu'un "dark" est nécessaire pour éliminer les "pixels chauds", les valeurs aberrantes de certains pixels. Je pense le contraire. Dans le cas des CMOS, c'est le bruit de télégraphe qui domine; celui-ci n'est pas très sympathique, car la valeur moyenne des pixels touchés n'est pas significative ni stationnaire. Il vaut mieux éliminer ces valeurs aberrantes autrement (détection, filtrage median, etc...).  

 

2) pourquoi un offset ?
Justement parce que le signal mesuré est affecté d'un bruit de mesure qui fait qu'une partie (en gros la moitié) de ses valeurs observables sont inférieures à sa valeur moyenne, celle qui nous intéresse. Ce phénomène est bien illustré par l'histogramme que la plupart des logiciels d'acquisition permettent de visualiser en temps réel. Si l'on garde l'offset à 0, les valeurs inférieures (négatives) vont être remplacées par 0, avec comme conséquence une erreur (surestimation) sur la valeur moyenne recherchée et une détection par accumulation de poses moins efficace. 
L'offset se règle donc en veillant à ce que tout l'histogramme soit au-dessus de 0. Mais pas au-delà, sinon on perd en intervalle dynamique utile.
Comme la largeur de l'histogramme dépend du réglage du gain, on voit que cette valeur d'offset doit être ajustée en même temps que le gain.

 

Voilà, j'espère ne pas avoir été trop long et que ça peut aider certains.

alx.
 

Modifié par alx
  • Merci 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour rappel

Une caméra refroidie à base de CMOS Sony (version du capteur n'ayant pas de glow) n'a pas une réponse linéraire sur les dark (et en pleine lumière sur des poses très courtes).

De ce fait :

- le temps de pose des flats doit être supérieur à plusieurs 100aine sde millisecondes (d'ailleurs ZWO le précise bien)

- Les images ne doivent pas être corrigées avec un dark calibré (donc pas de masterdark réalisé avec des dark soustraits d'un masterbias) et le dark ne doit pas être optimisé. Il faut avoir des dark du même temps de pose et même température. 

- les dark de flat.... à mois de faire des flats de 10 minutes, ça sert à rien... utiliser le masterbias (ou un bias synthétique voire une valeur fixe)

 

Pour les darks ?

A cette question, et vu la longueur du fil, je me pose une question : Pourquoi les personnes ne prendraient pas leurs images et les corrigeraient avec un masterdark puis ensuite refaire la manip avec seulement un masterbias (et bien sur les flat dans les 2 cas) et à la fin comparer les 2 images obtenues ???... 

Quand j'ai un doute, j'essaye de faire les différentes méthodes (en restant dans le classique) et j'analyse les résultats et j'adopte la méthode qui me convient le mieux. 

Après, j'utilise entre autre, des CMOS Sony Gpixel et E2V. 

Les méthodes diffèrent beaucoup.

 

Modifié par Philippe Bernhard

Partager ce message


Lien à poster
Partager sur d’autres sites

Super ce fil, merci.

 

Mais il y a un coin que j'aimerais éclaircir. Je comprends que l'on parle de soustraire  un dark ou un offset, mais je ne pige pas pourquoi on parle de division pour un flat. Dans mon esprit, on retire/soustrait le flat pour uniformiser les coins à cause du vignetage ou des poussières.

Si quelqu'un pouvait éventuellement m'expliquer rapidement ce serait sympa, après j'irais réviser mes math de primaire promis ^_^

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est bien une multiplication /division. Le flat permet de mesurer pour chaque pixel la proportion  de lumière transmise par rapport à un éclairement uniforme.

Sur une optique parfaite, chaque pixel devrait attendre 100% de sa luminosité théorique face à une source uniforme.

Si je prends un pixel dans un coin (vignetté) , en supposant qu'il ne reçoit que seulement 80% de son éclairement théorique à cause du vignettage , le flat va mesurer cette valeur de  80%.

Et au traitement on va diviser la luminosité du pixel par 0,8 , ce qui revient à le multiplier par 1.25,  pour compenser le vignettage.

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Skyraph a dit :

Si quelqu'un pouvait éventuellement m'expliquer rapidement ce serait sympa, après j'irais réviser mes math de primaire promis

D'accord pour les maths :D

 

Soit le flux lumineux X fourni par le télescope en unité physique (photon/sec).
Je le mesure à xi au pixel i  dans une échelle (en adu) proportionnelle à l'échelle physique, avec un courant d'obscurité di : 
    xi = Gi.X + di
Gi est ce qu'on appelle un gain, di un offset (en l'occurrence le courant d'obscurité).
Il faut résoudre:     X = (xi - di)/Gi
Si je n'ai pas de vignettage, je n'ai pas vraiment besoin de l'indice i, Gi est constant, et X est bien représenté à un facteur commun près par (xi - di) en chaque pixel i.


Mais si j'ai du vignettage (ou des poussières sur la caméra), les Gi et les xi vont être différents de pixel à pixel, même si le signal X en entrée du télescope est uniforme.
Si donc je sais que Y est uniforme, et pour simplifier vaut 1, j'obtiens le flat yi  par  yi = Gi.Y + di = Gi + di, 
c'est à dire Gi = yi - di 
En reportant dans la première équation, j'ai   X = (xi - di)/(yi - di)

Le facteur correctif est bien une division par (yi - di), c'est-à-dire par  (flat - dark)


J'obtiens bien une une représentation de X corrigée du vignettage (ou de l'obstruction par les poussières).


Evidemment, cela ne donne pas X en valeur absolue: il resterait à déterminer la valeur de Y, mais c'est une autre histoire (photométrie). 

Modifié par alx
  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci à vous deux, j'ai tout compris.

Et te comprends mieux pourquoi j'ai redoublé mon CM2 xD

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant