Bonjour à tous,
ce petit post pour partager avec les "poseurs rapides" ou ceux qui voudraient s'y mettre une solution que j'ai expérimentée pour combattre la trame générée par les capteurs CMOS lorsqu'on les utilise en poses rapides, sans autoguidage.
La suite est un peu rébarbative si vous n'êtes pas concerné par le problème, mais j'espère que ceux qui le rencontrent y trouveront 1 ou 2 idées. J'ai mis en gras les étapes importantes si vous voulez passer vite.
Pour illustrer le Pb : voici un stack de 1200 x 1 sec sur M 51 avec les niveaux fortement tirés :
Sur cet exemple, la trame épouse la direction de l'erreur périodique (ASC. droite) + dérive de la MES qui est faible dans ce cas. La multiplication des poses et des darks bien exécutés atténuent largement cette trame, mais jamais complètement et elle limite le traitement.
Cela fait 6 mois que je cherche une solution correcte et reproductible. J'en ai passé plusieurs :
Traitement avec plusieurs outils via photoshop : inconvénient il faut sacrifier le fdc et les objets les plus ténus, car le signal de base est détérioré quoi qu'on y fasse.
Décalage de la MES pour générer une dérive lissant la trame : ça marche à peu près, mais si on veut passer en autoguidage pour faire une couche couleur par exemple, il faut refaire la MES. De plus, cette méthode fait perdre un peu de champ en raison de la dérive sur des capteurs déjà petits.
J'ai même fait de l'autoguidage en poses rapides pour voir, mais ce n'est pas satisfaisant.
Finalement, j'applique maintenant un mode opératoire qui, bien dosé, règle pas mal le problème. Avant toute chose, les darks doivent être faits avec rigueur pour diminuer le phénomène.
Ensuite, l'offset (brightness) de la camera à la prise de vue doit être adapté au gain utilisé.
Ce paramètre est réglable et dépend de chaque camera (cf site de ZWO pour les ASI). Il permet d'éviter le seuillage à zero de certains pixels qui augmente la trame. Par exemple pour l'ASI 290 MM le gain 300 et l'offset 75 conviennent ou 450/150. Les valeurs de base sont implémentées dans les pilotes ASCOM des cameras ZWO et sont accessibles via Sharpcap, par exemple. En 2 ou 3 essais on cerne ces paramètres à la louche (mieux vaut un peu plus).
Il y a un post en anglais ici qui explique bien les effets du gain et de l'offset (assez technique) : http://www.stark-labs.com/help/blog/files/GainAndOffset.php
Enfin, je génère un "pseudo dithering" sous Firecapture qui possède une fonction permettant de décaler, toutes les 10 secondes par exemple, la monture d'un petit chouilla (inférieur au pixel). Il faut que la monture soit sous eqmod et ce réglage se trouve sous paramètres/telescope. Dans mon cas, je décale de 100 ms toutes les 10/20 sec.
En variant la direction de décalage entre chaque série (Est-Ouest-Nord-Sud) et la valeur (en fonction de la dérive observée sur la première série), on obtient des séries avec des orientations de trames différentes. Il y a un petit coup à prendre. L'objet reste globalement au centre si on alterne bien les directions et on perd très peu de champ à l'empilement.
Par exemple sur M 102 :
Décalage 100ms toutes les 10sec.- NORD :
Décalage 100ms toutes les 10sec.- EST :
Au final, les trames sont déjà bien plus discrètes. Elles se moyennent et disparaissent pratiquement à l'empilement.
On peut donc tirer les niveaux jusqu'à aller chercher toutes les tâchouilles. La trame est quasi-inexistante. Le résidu est à peine perceptible au taquet, le fdc variant un poil avec la hauteur de l'objet et le tri des images favorisant parfois une direction. On rajoute la couleur, un peu de cosmétique, et c'est cuit :
Bons ciels,
JF