emmanuel fontaine

De l'utilité de faire des darks et des bias - grosse remise en question

Messages recommandés

Ne jamais oublier que tout ce joue très majoritairement sur le télescope. L'importance du "traitement" logiciel est toujours marginale. Ce dernier peut permettre de révéler une information (souvent au détriment d'autres) mais jamais il n'en crée une. Le traitement d'image c'est de l'affichage, de la mise en forme en fait - ce qui est utile pour interpréter et analyser, il n'est pas question de le nier bien sur.  Le "big learning" et consort sont des domaines de recherche importants, des outils utiles pour le physicien, mais qui ont aussi leurs limites dans ce quelles peuvent révéler dans les données. Entendre que le passage au XXI siècle à subitement changé la donne est quelque peut exagéré et piégeant. Il n'y a pas de méthodes miracles pour corriger les erreurs ou insuffisance d'observation, où encore aller au delà de ce que permet la physique.

 

Si l'on sent moins le besoin de corriger les pixels "chauds" (le dark) dans les images brutes c'est bien que la technologie des détecteurs à progressé ces dernières années (ils sont moins affectés par le signal thermique) ou que les techniques d'acquisition sont plus rationnelles. Le logiciel, auquel on attribue bien trop de vertus miraculeuse parfois, n'y est pour pas grand chose. Une fois de plus, c'est au moment de l'observation que cela se passe, par exemple car on utilise une caméra ayant un signal thermique plus bas qu'une autre dans mon exemple.

 

Comme certains l'on dit, tout est une question de domaine d'application. Si avec un détecteur CCD ou CMOS moderne on cherche à pré-traiter des clichés exposés une fraction de seconde, voire quelque secondes, il est clair que le signal thermique sera souvent plus discret que d'autres sources de bruits et de bais, et on pourra se passer à la rigueur de faire ce type d'étalonnage en obscurité. Mais le diable se cachant parfois dans les détails (l'électroluminescence, la sommation d'un très grand nombre d'images élémentaires, ...), la sagesse veut que l'on n'oublie pas les bonnes règles, XXI siècle ou pas.

 

Christian Buil

  

 

Modifié par cbuil
  • J'aime 4
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 17/02/2018 à 12:11, Lucien a dit :

 

Tiens, pourquoi ne pas lisser un peu son Flat Maitre ( très léger flou gaussien ), afin de ne pas dégrader le rapport signal-bruit dans certains cas de figure ?

Par exemple, cette question à elle seule est un vrai sujet et on peut argumenter de façon constructive, loin des débats généralistes du sexe des anges.

 

C'est aussi un tantinet hors sujet, mais j'avais cette idée en tête depuis un moment, alors je saute sur l'occasion.

Des deux fonctions du flat (vignetage et poussières),  la seconde n'est-elle pas trop cher payée en terme de grain ?

Pour une utilisation non scientifique, n'est-ce pas plus simple de nettoyer raisonnablement son capteur,

et de lisser comme un malade le grain du flat ? GENRE FAIRE UN SEUL FLAT PAR SERIE DE PHOTOS, PUIS LE TRADUIRE PAR UN MODELE POLYNOMIAL ?

 

Modifié par FroggySeven

Partager ce message


Lien à poster
Partager sur d’autres sites

Le flat même unitaire a un RSB qui ne dégradera que très peu la pose.

Ce n'est pas le cas des darks et offsets

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

On divise avec le Flat.

On soustrait le dark.

Normalement le dark a un niveau sensiblement plus faible que le niveau moyen du flat.

Si l'on prend une incertitude de 1% sur le flat et idem pour le dark.

Résultat final...

 

Lucien

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

un flat normalement constitué a un haut niveau de signal donc un très bon rapport signal/bruit, bien meilleur que les brutes à corriger. Dès lors, quel peut être l'intérêt de le flouter ? O.o

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Le flat sert aussi a éliminer les défauts ponctuels que tu peux rencontrer : tâches d'eau, poussières. Si c'est juste pour gérer le vignettage, tu en fais une série et basta, tu les gardes.

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, lyl a dit :

Si c'est juste pour gérer le vignettage, tu en fais une série et basta

Oui mais ça dépend aussi de l'orientation du capteur et de la config' (tirage), non ?

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Du tirage, je comprends bien, mais de l'orientation moins. J'en ai fait trop peu pour être experte.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, lyl a dit :

Du tirage, je comprends bien, mais de l'orientation moins

ça suppose que le flat est parfaitement centré et symétrique, or qui peut être certain que tout son train optique et mécanique (ex : miroir secondaire, bagues et colliers divers, filtres, po...) est parfaitement centré ? 9_9

 

C'est facile à vérifier : faire un flat puis faire tourner l'appareil de 180° puis refaire un second flat que l'on corrige avec le premier. Et on regarde si le resultat est bien plat ou pas...

Modifié par Thierry Legault
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

tout est une question de domaine d'application

Exactement, sous certaines conditions (temps d'acquisitions relativement courts par exemple), on peut réaliser des prétraitements par logiciel et après on pourra toujours comparer les différentes approches.
 

Citation

 Le "big learning" et consort sont des domaines de recherche importants, des outils utiles pour le physicien, mais qui ont aussi leurs limites dans ce quelles peuvent révéler dans les données.

Je ne crois pas dans l'immédiat au "big learning" qui est trop consommateur de ressources à moins de posséder un supercalculateur.
Par contre de nombreux problèmes inverses (dé-bruitage, dé-floutage, vignetage, inpainting, defogging, dispersion atmosphérique, ...) sont accessibles en quasi temps réel (calcul par le GPU).

La principale difficulté c'est d'estimer avant de restaurer (les algorithmes de restauration sont assez nombreux et bien connus).
Plutôt que le "big learning", une boîte noire permettant de traiter en quasi temps réel la plupart des problèmes inverses par une approche statistique.

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant