Roch

En finir avec la trame ?

Messages recommandés

Bonsoir tout le monde :)

Le post est assez long, donc j'ai mis l'essentiel en gras pour plus de lisibilité ;)
 

Ceux qui me connaissent le savent, j'ai souvent quelques soucis de trame sur mes images ciel profond en poses rapides. Derniers exemples en date, mes images de M1 et B33 postées il y a deux semaines dans la galerie.

Beaucoup d'entre vous ont adopté des approches diverses et variées pour solutionner le problème. Les uns pratiquant le dithering, mais le procédé a ses limitations en poses courtes et ses contraintes. D'autres ( comme moi ) décalent volontairement leur mise en station pour que l'image se "balade" sur le capteur. Certains essaient d'optimiser un maximum les darks, les offsets, et autres flats et darkflats...
 

Seulement voilà, l'autre soir, ma mise en station était parfaite, et là je me suis dit : c'est quand même trop nul de devoir volontairement sacrifier une mise en station si réussie. En plus ça signifiait des recadrages fréquents, donc sortir dehors dans un froid polaire...

Bref. J'ai beaucoup réfléchi à la question, et j'ai eu une idée.
 

Donc afin de capter pleinement votre atention ;) , une démonstration valant tous les discours du monde, j'ai voulu mettre mon idée en application.

Voici une première image de M1, seuils tirés, constituée d'une somme de 500 brutes de 2s sans retrait du dark. Juste une correction cosmétique légère sur les pixels les plus "chauds".


NODARK.jpg.eb6e043c63b9dc830d7ce47dba4f32d2.jpg

Une deuxième image constituée des même 500 brutes, auxquelles j'ai soustrait un dark acquis de manière classique. Pas d'offset, celui-ci étant "inclus" dans le dark.
La caméra est non-refroidie, donc c'est toujours délicat d'obtenir le dark à la bonne température... ce dernier a été réalisé à la suite des acquisitions, soit environ 3h après ces 500 images qui sont au début d'une longue série.
Comme pour la première, une légère correction cosmétique est ajoutée ensuite pour se défaire des pixels "extrèmes". 


DARKA.jpg.5f65186fd105ae7b5f7c4355b955db74.jpg

Et enfin, une image constituée des même 500 images brutes auquel j'ai soustrait un dark fabriqué maison, avec ce que j'appellerai désormais, en toute modestie, la "méthode Roch" ;)
Toujours la même correction cosmétique appliquée ensuite.


DARKB.jpg.c197bde4bf45df5c19d88bab5c8689e0.jpg

Comme vous pouvez le voir, le résultat se passe de commentaires... notamment sur le fond de ciel. Il y a encore une trame bien présente sur quelques zones plus brillantes, et également dans les coins, mais c'est un problème qui devrait être réglé avec la "méthode Roch 2.0" ;)

Là, normalement, vous vous dites : "bon il commence à nous bassiner celui là, avec ses grands airs et sa méthode machin, elle est ou l'arnaque ?"

Alors voilà, laissez moi vous expliquer le principe de la "méthode Roch" ;)



En réalité, c'est pas bien compliqué. Par contre, pour la réalisation, pour le moment, faute de logiciel adapté, c'est l'USINE A GAZ !
D'ailleurs je ne suis certainement pas le premier à expérimenter ça. Mais bon, comme je n'en ai jamais entendu parler d'un tel procédé jusqu'à présent, zut à la fin. C'est vrai quoi, de nos jours on ne peut plus rien inventer, alors je rendrai la "méthode Roch" à César si besoin est plus tard.
 

Je suis parti du postulat suivant, qui me semble assez logique : Une image de calibration parfaite ne devrait engendrer aucune trame.

Vous imaginez ? Ce serait génial non ? Plus besoin de se geler toutes les demi-heures pour recadrer le machin, plus besoin de dithering qui plante parce que "yavait un nuage"... etc.
Sauf que pour avoir un dark parfait, il faudrait le réaliser dans les conditions EXACTES de l'acquisition, ce qui parait impossible... 

...à moins d'utiliser directement les images d'acquisition pour le prétraitement.


Parce que si on y réfléchit quelques minutes, la plupart du temps, une majeure partie de nos chères images est constituée... de fond de ciel, ce qui équivaut à une image de calibration parfaite, combinant offset, dark et flat. 

Pour se servir convenablement cette proportion "utile", il suffirait donc d'isoler sur chaque image la partie en question, et de s'arranger pour qu'en utilisant un nombre important d'images, toute la surface du capteur soit couverte à un moment ou à un autre.

Cela tombe bien, en poses courtes, on dispose d'un nombre de brutes conséquent. Si l'image gigote suffisamment dans le champ, il paraît possible de réaliser une "carte" sur toute la surface du capteur.


Allez, on liste rapidement quelques avantages que cette solution apporte

- Plus besoin d'images de prétraitement spécifiques
- On peut même traiter les anciennes images qu'on trouvait toutes tramées à postériori
- On peut réaliser une image de calibration évolutive sur la soirée. Par exemple se baser sur les 500 premières images pour prétraiter les 500 premières images, puis les 500 suivantes pour les 500 suivantes, etc, etc.
- Et si ça ne suffit toujours pas ( ce dont je doute fort ), on peut même réaliser une carte "glissante" en utilisant, pour chaque image à calibrer, par exemple les 50 précédentes et les 50 suivantes.


Bon alors évidemment, on note deux gros inconvénients à résoudre. 

Le premier c'est qu'il est fort possible de n'avoir que très peu de fond de ciel disponible au sein d'une image... mais je reviendrai là dessus dans un autre post, on peut tout à fait contourner le problème.


Le deuxième problème, et non le moindre, c'est que le procédé n'est absolument pas viable dans l'état actuel des logiciels de traitement.
L
a démarche que j'ai suivie est extrèmement fastidieuse, et ce d'autant plus que le nombre d'images a traiter est élevé ; ça demande du bidouillage de haute volée, et certains comprendront peut être pourquoi j'utilise encore IRIS, et pas Siril par exemple... tout simplement parce qu'il permet vraiment tous les bidouillages possibles et inimaginables ;) .


Voici la démarche suivie, étape par étapes. Je ne rentre pas vraiment dans les détails puisque c'est vraiment trop long à faire, c'est juste pour que vous ayez une idée.

- Alignement des images non prétraitées
- Empilement des 500 images en question 
- A l'aide de l'image obtenue, création d'un masque défini par une valeur maximale des pixels. ( commande BIN_DOWN )
-Alignement du masque sur les 500 images ( commandes MIRRORX puis MIRRORY pour retourner l'image, puis FILE_TRANS pour réaliser un décalage de l'image avec les mêmes paramètres que pour l'image précédente ; enfin, de nouveau MIRRORX et MIRRORY )
- Application du masque sur l'ensemble des images, chacune ayant son propre masque aligné sur l'objet. C'est là où ça a été le plus long, je n'ai pas trouvé de commande permettant de soustraire une séquence d'images à une autre séquence ; j'ai donc dû y aller "à la main", image par image
- Normalisation de tous les pixels rejetés par le masque sur la valeur moyenne du fond de ciel ( commande CLIMPIN )
- Empilement des 500 images de prétraitement ainsi obtenues.

Tout cela me donne mon image de prétraitement maître, que je peux utiliser pour poursuivre un prétraitement/traitement classique a partir des images brutes.


Note : En premier lieu, j'ai voulu réaliser une médiane des images de prétraitement, pensant que le résultat serait meilleur... ce n'est pas le cas, loin de là. Pourtant, d'après mes connaissances, si le bruit associé à notre signal de dark/offset/flat est réellement aléatoire, une médiane devrait donner un résultat similaire à une moyenne ( ça doit avoir un rapport avec la loi de poisson ou quelque chose comme ça )
Sans trop vouloir tirer des plans sur la comète, il me semble que cela va donc dans le sens d'une distribution non aléatoire des valeurs, que certains ici pourraient peut être m'expliquer ;)

Mais bon, je me suis donc résolu à utiliser la moyenne. Cela implique que la carte finale de prétraitement n'est réellement efficace que sur les zones couvertes par du fond de ciel 100% du temps ; en effet, puisque j'ai remplacé les zones "inutilisables" par une valeur fixe sur chaque image, cela doit nécessairement réduire la précision de la correction de certains pixels chauds par exemple.
D'ailleurs, au centre de l'image, M1 étant toujours dans les parages, la zone n'est jamais utilisable, ce qui explique la trame bien apparente sur la nébuleuse. On voit également bien la trame dans le coin supérieur droit ou l'amp-glow commence à faire des siennes.

Pour pallier en partie au problème, plutôt que de remplacer les zones inutilisables par une valeur moyenne, il faudrait tout simplement les écarter du calcul. Par exemple, si un pixel est situé à l'emplacement d'une étoile brillante sur 50 images, on pourrait donc écarter complètement ces 50 images du calcul final pour le pixel en question, et donc faire la moyenne des 450 autres. Mais ça, je ne pense pas que ce soit faisable avec IRIS.


Ce qui m'amène au but final de ce post.


Pour  moi il y aurait énormément à gagner en poussant plus loin les logiciels de traitement actuels. Même si on a d'anciens logiciels qui ont fait leurs preuves ( IRIS ou autre ) et de nouveaux logiciels intéressants ( SIRIL, AS3 ) ; pour moi aucun n'est réellement adapté à l'immense étendue de prétraitements et traitements possibles qu'offre, notamment, la prise de vue en poses courtes. Je pense qu'il ne se passe pas un mois sans que me vienne à l'esprit une nouvelle idée pour améliorer la chose ; je peux mettre en oeuvre certaines avec IRIS mais le logiciel vieillit et commence à montrer ses limitations sous des aspects très différents.
Donc l'idée c'est d'essayer de faire évoluer un peu tout ça. De quelle manière ? Je ne sais pas encore, mais en attendant je vais continuer les petits essais dans mon coin et voir ce que vous en dites ;)


Je prépare un traitement de mon autre image récente toute tramée, la tête de cheval, avec la "méthode roch 2.0" ;) qui devrait régler l'ensemble des problèmes de trame résiduels sur celle-ci. Ça va me demander un temps fou, mais je pense que ça vaut la peine de montrer ce que l'on pourrait obtenir avec un logiciel de traitement à son plein potentiel ;)

En attendant, je suis ouvert à toutes les remarques... n'hésitez pas.

Merci à ceux qui m'ont lu jusqu'au bout :)


Romain
 

Modifié par Roch
  • J'adore 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Ben j'ai lu jusqu'au bout et je salue le travail effectué :)

Il est vrai et pas seulement en poses courtes que le tramage est un problème de l'imagerie numérique et que les moyens de l'éliminer proprement restent encore du domaine de la bidouille informatique :)

Quoi que en poses longues, le dithering résoud assez bien le problème.

En fait, le seul vrai remède pour l'instant à l'élimination des trames consiste à revenir à l'argentique ;)

Mais . . . c'est pas aussi simple ;)

Bonne soirée,

AG

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, Roch a dit :

Beaucoup d'entre vous ont adopté des approches diverses et variées pour solutionner le problème. Les uns pratiquant le dithering, les autres ( comme moi ) décalant volontairement leur mise en station pour que l'image se "balade" sur le capteur. Certains essaient d'optimiser un maximum les darks, les offsets, et autres flats et darkflats...

Je pense que la technique du dithering n'a rien à voir avec le décalage de la mise en station. En effet, une "mauvaise" mise en station fait dériver la cible, vers le nord ou le sud, mais de manière régulière. Cette dérive s'ajoute à celle, éventuelle, en ascension droite (vitesse du moteur, réfraction atmosphérique etc...) mais le résultat est le même : la cible dérive petit à petit dans la même direction et les imperfections du prétraitement laissent des trainées sur le compositage final.

Le dithering, lui, consiste à déplacer la cible de manière aléatoire sur le capteur, de sorte que les imperfections de prétraitement forment un "nuage"  que n'importe quel logiciel de traitement fera disparaitre à l'empilement.

En ce qui concerne l'optimisation des offsets, darks, flats et darkflats, c'est la base du traitement CCD, nommé le pré-traitement : il n'y a guère que toi pour avoir d'aussi bons résultats sans passer par eux :)

D'ailleurs, tu avais bien trouvé une solution à la trame sur ton post sur le Quintet, avec une image époustouflante à la clé! (et tu sais à quel point j'en suis fan ;) ). Comment avais-tu procédé alors?

Nathanaël

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci pour les réponses :)

Bon j'ai édité mon sujet pour mettre les passages importants en gras, mais on voit à peine la différence, c'est malin... :D

 

T450, merci encore pour ton appréciation ;)
 

Concernant le "faux dithering" par décalage de MES j'en avais déjà parlé là :
https://www.webastro.net/forums/topic/163194-problème-de-trame-heelp/

Cherche le post ou j'ai fait un magnifique dessin ;)

Peut être n'es-tu pas convaincu mais de mon expérience, la trame n'apparaît que lorsque ma MES est parfaite ou décalée dans le "mauvais sens"

Le pré-traitement, je le réalise comme tout le monde ( bon je ne fais pas de flats, mais avec un si petit capteur, c'est assez inutile. Et j'ai quand même essayé quelques fois. ) Simplement, en poses courtes le ratio Signal utile / signal parasite est moins élevé qu'en poses classiques, il est donc logique que les défauts se voient plus rapidement.
On ne peut pas optimiser les darks en poses courtes, car il y a le problème de l'amp glow à gérer aussi. Si on optimise les darks, l'amp-glow se retrouvera sur-corrigé ou sous-corrigé, ce qui donne un résultat absolument affreux ;)

J'ai des images sans trame, comme le quintette. Il s'agit des images pour lesquelles l'objet se déplace suffisamment dans le cadrage pour que la trame demeure invisible. Cependant, c'est aussi les images qui me donnent le plus de mal à l'acquisition ( il faut recadrer très fréquemment ) et au traitement ( mon champ déjà restreint est encore réduit, parfois l'alignement dérape... )

Bref, c'est pas vraiment le sujet. Si mon procédé fonctionne, je pourrais avoir une image de prétraitement parfaite, ce qui permettrait une MES parfaite et rendrait le dithering inutile. Mais pour ça, il y a du chemin à faire niveau logiciels.
Je suis en train de traiter B33 avec cette méthode, je pense que le résultat sera concluant.

Romain

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Astramazonie
      Bonjour les Astros, 
       
      Petite prise du "CASQUE DE THOR" qui date d'une semaine, que je pensais perdu dans les abysses des clichés mais qui a pu être récupérée, toujours au Seestar 20 minutes de pose.
       
      Merci à @Bob Saint-Clar pour son aide pour le traitement ... et le sauvetage de cette photo.
       

       

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 65,8 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

    • Par XavS
      Bonsoir tout le monde,
       
      Enfin, je peux poster quelques images.
       
      Première sortie de l'année sur mon site de l'été à 1 000 M d'altitude. Malgré un voile présent en altitude je ne me suis pas gêné pour photographier le ciel
       
      La cible était la galaxie NGC 4051. C'est une galaxie spirale intermédiaire située dans la constellation de la Grande Ourse. NGC 4051 a été découverte par l'astronome germano-britannique William Herschel en 1788. Elle est située à environ ∼44,5 millions d'A.L.
       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 70 x 300s
      Darks : 7 x 300s
      Offsets : 29 x 1ms
      Flats : 29 x 120ms
      Total : 5 h 50
      Traitement : Sirilic, Siril et Gimp
       
      Et comme à mon habitude, voici un joli quartier de Lune présenté en deux versions.
       

       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 57 sur 231 x 1s
      Traitement : AS4, Astrosurface et Gimp
       
      La galaxie ne me plaît pas trop. Je ne saurais dire pourquoi. Par contre pour mon quartier de Lune, je l'adore
       
      Vos commentaires sont la bienvenue.
       
      Bon ciel à toutes et tous.
       
      XavS
       
    • Par Romain Guillou
      Un ciel laiteux, mais que cela ne tienne, on voit quand même les étoiles, donc s'est repartie pour une cible bien connue :

      M81 et M82, La galaxie de Bode et du Cigare.

      Exifs :
       
      145x120s à 1025iso DOF (20 chacune) + Autoguidage Lunette 60mm Canon 60D Défiltré + CLS SW Quattro 250P et EQ6 r pro Traitement Siril + PS
        Faite à Ronsenac (Charente) depuis mon jardin le 13/04/24


  • Évènements à venir