int77

NGC7380 nebuleuse du Sorcier / IMX224

Recommended Posts

Bonjour les amis,

 

Comme nos planètes préférées deviennent de plus en plus difficiles en ce moment,  je reprends mes études avec le Ciel Profond :) 

Je voudrais vous présenter un petit essai fait avec un capteur IMX224 non-refroidie en poses longues. Deux cas sont comparés: traitement d'une image issue du LiveStask par SharpCap versus empilement et traitement classique par Siril.  Cette technique de  LiveStack est assez impressionnante, l'image que l'on observe en temps réel est très proche du résultat final (les réglages dans SharpCap sont très riches et permettent d’équilibrer les couleurs ), ce qui rend l'expérience encore plus intéressante  et ludique  :) 

 

Côté technique:

Date: 7 septembre 2019

Conditions: ciel Bortle Class 4,  SQM 21.2

Setup: ED80/F=600mm + Altair GPCAM3 224C (filtre UV-IR cut,  échantillonnage 1.3"/pixel) sur HEQ5 Pro

Guidage PHD2 (rms = ~1") avec une lunette de 60mm / F=225mm et une camera  GPCAM2 224C

Capture: poses élémentaires de 75" avec un gain de 5%, FWHM 3"-3.5"

 

Deux cas sont comparés:

A: Traitement de l'image LiveStack:

Calibration par darks en temps réel + LiveStack de 48 poses de 75s dans SharpCap pro suivi par  traitement Siril (etalonnage des couleurs par photométrie) + finition Photoshop CC (réduction sélective du bruit fdc + courbes/niveaux + ajustement fine des couleurs)

NGC7380_LS_09072019_r1.1.jpg.27e296c59622cd9d48a9caa0e2ccc3e0.jpg

Le fichier .fit  LiveStack issu de SharpCap, pour ceux qui veulent jouer avec: NGC7380_LiveStack_16bits_48frames_3612s.fit

 

B: Traitement classique 96x75s:

Siril 0.9.11 (calibration par darks + empilement + etalonnage des couleurs par photométrie),  finition Photoshop CC (réduction sélective du bruit fdc + courbes/niveaux + ajustement des couleurs)

NGC7380_09072019_r1.6.jpg.be91539766c789a2161f91fc21e4cc03.jpg

 

 

Comme toujours, vos conseils/ commentaires  sont  très bienvenus,  je suis toujours en phase d'apprentissage :) 

 

Merci et bon ciel!

 

 

 

Edited by int77
  • Like 7

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com

Salut,  très sympa  comme résultat.

J'ai depuis peu une 385 MC et image en poses courtes. 

Je ne savais pas qu'il était possible de poser aussi longtemps avec ce type de caméra.

  • Thanks 1

Share this post


Link to post
Share on other sites

Très interressant cette comparaison.

Une préférence pour la seconde. Cependant la première méthode pourrait être très bien adaptée à des fins didactiques.

  • Thanks 1

Share this post


Link to post
Share on other sites

C'est vraiment superbe :)

Le traitement traditionnel reste quand même devant, mais le live stack est assez impressionnant ;)

Bonne soirée,

AG

 

  • Thanks 1

Share this post


Link to post
Share on other sites
Il y a 6 heures, Haltea a dit :

Salut,  très sympa  comme résultat.

J'ai depuis peu une 385 MC et image en poses courtes. 

Je ne savais pas qu'il était possible de poser aussi longtemps avec ce type de caméra.

Merci Haltea pour ton passage et commentaire. Effectivement on peu faire de la pose (presque) longue avec ces capteurs CMOS... surtout avec les versions refroidies (ce n'est pas le cas ici). Le souci principal est le bruit important et le 'apm glow' à gérer.

 

Il y a 6 heures, messier63 a dit :

le traitement avec Siril est bcp moins bruité...

Merci Jerome. Il y a deux fois plus de  poses dans l'image classique par rapport à celle du LiveStack, cela explique partiellement cette différence. Cependant il y a probablement une contribution du post-traitement qui n'est pas identique dans les deux cas.

 

Il y a 6 heures, Sauveur a dit :

J'aime beaucoup bravo :)

Merci Sauveur, on s'amuse comme on peu en l'absence des conditions acceptables pour observer nos planètes préférées :) 

 

Il y a 5 heures, Chani11 a dit :

Une préférence pour la seconde. Cependant la première méthode pourrait être très bien adaptée à des fins didactiques.

Merci Chani11. Effectivement, c'est très didactique et ludique en même temps,  les enfants adorent  :)  Il y a quelque chose de  magique dans le fait de voir l'objet se développer sur l’écran en temps réel pendant la session...

 

Il y a 3 heures, ALAING a dit :

C'est vraiment superbe :)

Le traitement traditionnel reste quand même devant, mais le live stack est assez impressionnant ;)

Bonne soirée,

Merci Alain pour ton passage et ton analyse que je partage complètement :) 

Le traitement par Siril reste beaucoup plus propre, surtout en termes d’empilement avec les corrections cosmétiques. Mais c'est juste une question d'implémentation dans cette version de SharpCap. Rien n’empêche de régler ces problèmes dans les versions futures, le code Siril étant open source :) 

 

Bon ciel!

  • Like 2
  • Thanks 1

Share this post


Link to post
Share on other sites
Il y a 10 heures, int77 a dit :

Mais c'est juste une question d'implémentation dans cette version de SharpCap. Rien n’empêche de régler ces problèmes dans les versions futures, le code Siril étant open source

Pas seulement non. Et si sharpcap prend du code de siril il faur respecter la GPL et publier le code correspndant. Pas sûr que ca les intéresse ;).

 

Sinon, non le live ne peut pas obtenir de meilleur résultat qu'un traitement classique. Ce qui fait que le traitement classique est meilleur c'est justement qu'on a tte les photos en amont pour pouvoir faire une normalisation, des rejets de pixels (qui necessitent les stats du stack complet, etc ....), et aussi, choisir une image de référence.

Edited by lock042_CyrilRichard
  • Thanks 1

Share this post


Link to post
Share on other sites

 bonjour ! très belles images et une préférence pour la seconde aussi ! :)

 bonne journée ! :)

 polo

  • Thanks 1

Share this post


Link to post
Share on other sites
Il y a 15 heures, lock042_CyrilRichard a dit :

Et si sharpcap prend du code de siril il faur respecter la GPL et publier le code correspndant. Pas sûr que ca les intéresse

Merci pour cette précision. C'est bien dommage, car cette solution serai la plus efficace pour faire avancer l’intérêt général. Alternativement, il doit être possible d'adapter leur implémentation du liveStack en s'inspirant des idées/algos de Siril sans pour autant utiliser directement le code. Il me semble cette approche est couramment utilisée dans l’industrie.

 

 Sinon, il nous reste l'espoir de voir un jour une implémentation de LiveStack dans Siril :) Genre, SharpCap crache les brutes dans un répertoire, et Siril mouline à coté pour faire du LiveStack à partir de ces brutes ;)

 

Il y a 15 heures, lock042_CyrilRichard a dit :

Sinon, non le live ne peut pas obtenir de meilleur résultat qu'un traitement classique. Ce qui fait que le traitement classique est meilleur c'est justement qu'on a tte les photos en amont pour pouvoir faire une normalisation, des rejets de pixels (qui necessitent les stats du stack complet, etc ....), et aussi, choisir une image de référence.

Ce point me parait discutable. LiveStack permet d'enregistrer les poses élémentaires; je ne vois pas pourquoi on ne peut pas les utiliser en cours de la session (après chaque  pose? )  pour re-évaluer les stats, ajuster les normalisations / seuils de rejet de pixels, changer l'image de référence, voir re-empiler si besoin. En pose longue, on parle de plusieurs dizaines de minutes (voir les heures)  par stack,  cela doit laisser pas mal de la marge pour ce genre d'approche.

 

Il y a 13 heures, polo0258 a dit :

bonjour ! très belles images et une préférence pour la seconde aussi !

Merci polo pour ton passage et ton avis!

 

Il y a 5 heures, teko38 a dit :

Je préfère la 2

Par contre un gain a 5 pourcent, c’est un peu bas pour une Altair GPCAM3 224C

Plutot prendre 25 pourcent pour diminuer le bruit de lecture

https://www.altairastro.com/images/D/Altair_224C3_Gain_Analysis.jpg

Merci Daniel pour ton avis et ce partage d’expérience. J'utilise l'outil SmartHistogram de SharpCap Pro qui permet  de calculer la durée de la pose elémentaire et le gain optimales par rapport aux critères pré-définis, tenant en compte la qualité du ciel et les caractéristiques du capteur. Ici, j'ai fixé le ratio de bruit de lecture dans le bruit total (fdc + bruit thermique) à 5%, et la sensibilité à 1e/ADU.

 

Bon ciel!

  • Like 1

Share this post


Link to post
Share on other sites
il y a 22 minutes, int77 a dit :

Ce point me parait discutable. LiveStack permet d'enregistrer les poses élémentaires; je ne vois pas pourquoi on ne peut pas les utiliser en cours de la session (après chaque  pose? )  pour re-évaluer les stats, ajuster les normalisations / seuils de rejet de pixels, changer l'image de référence, voir re-empiler si besoin. En pose longue, on parle de plusieurs dizaines de minutes (voir les heures)  par stack,  cela doit laisser pas mal de la marge pour ce genre d'approche.

Justement. Si un empilement en temps normal (et même sur des petits capteurs) prend plusieurs heures c'est parce que les calculs sont nombreux et complexes. Or, dans un livestack on en fait beaucoup moins pour gagner en vitesse et garder l'esprit live. Donc non, on peut pas faire qqchose d'aussi bien en live, c'est mathématique. Le livestack se rapproche du "sum stacking" de Siril en terme d'algorithme.

Si après chaque pose on cherche a réévaluer on va très vite s'éloigner du live.

 

Par exemple, calculer une médiane  du stack (souvent nécessaire dans le rejet des pixels) nécessite de connaître toutes les valeurs du stack et de les trier (pour certaines approches algorithmiques).

Un rejet de pixel type linear fit clipping nécessite lui de connaître tout le stack pour faire un ajustement des data ainsi qu'une minimisation par méthode des moindres carrés.

Notre méthode de normalisation contient des algorithmes qui sont très performant mais intrinsèquement lent, avec minimisation ici aussi.

Bref, encore un truc ou on a besoin de tout.

 

Moralité : on n'a rien sans rien.

 

Crois moi, on essaye constamment de réduire le temps d'empilement dans Siril. Ça passe par de grosses optimisations (choix d'algorithmes plus rapides), mais on ne peut pas faire de miracles. Et si les algos sont lents, c'est qu'ils permettent de faire des trucs que ne font pas les plus rapides.

 

il y a 22 minutes, int77 a dit :

Merci pour cette précision. C'est bien dommage,

En fait, à mon sens, c'est l'inverse. C'est bien dommage que sharpcap (ou autres) ne soient pas libres :).

 

il y a 22 minutes, int77 a dit :

lternativement, il doit être possible d'adapter leur implémentation du liveStack en s'inspirant des idées/algos de Siril sans pour autant utiliser directement le code.

Leur implémentation non, mais une implémentation oui. C'est chose prévue dans Siril.

Edited by lock042_CyrilRichard
  • Thanks 1

Share this post


Link to post
Share on other sites
il y a 30 minutes, lock042_CyrilRichard a dit :

Crois moi, on essaye constamment de réduire le temps d'empilement dans Siril. Ça passe par de grosses optimisations (choix d'algorithmes plus rapides), mais on ne peut pas faire de miracles. Et si les algos sont lents, c'est qu'ils permettent de faire des trucs que ne font pas les plus rapides.

Merci pour ces explications et pour ta participation dans ce projet formidable. Je trouve que c'est déjà très rapide dans l'état actuel; par exemple dans ce cas précis, le traitement Siril  de 96 poses de 75" (images 1280x980, calibration avec darks, alignement global,  empilement par moyenne avec rejet de pixels déviants; normalisation additive avec mise à l’échelle et méthode de rejet par linear fit clipping) a pris un peu plus de 10 minutes sur mon PC d'acquisition assez puissant il faut le préciser. Je me disais que l'on doit pouvoir caser cela dans les 2 heures de la session d'acquisition... finalement cela a l'air beaucoup plus complexe selon tes commentaires. 

 

il y a 53 minutes, lock042_CyrilRichard a dit :

 C'est bien dommage que sharpcap (ou autres) ne soient pas libres :).

C’était exactement le sens de mon propos :)

 

il y a 53 minutes, lock042_CyrilRichard a dit :

Leur implémentation non, mais une implémentation oui. C'est chose prévue dans Siril.

Super, on attend cela avec impatience!

 

  • Thanks 1

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By ALAING
      Re bonjour,
       
      Ayant un peu joué avec Siril afin de tester la couleur par photométrie, j'ai aussi voulu voir ce que donnait la dernière image de mon croissant.
      Voilà l'image originale :
       

       
      Et l'image sortie de Siril après passage de la photométrie :
       

       
      Les couleurs sont moins saturées, mais où est la vérité ?
       
      J'aimerais bien avoir l'avis de spécialistes du CP concernant la couleur des nébuleuses et si la photométrie de Siril est sensée donner des couleurs relativement exactes
      Eventuellement, comparer avec d'autres images prises par exemple à l'A7S défiltré
       
      Bonne journée à vous,
      AG
       
    • By ALAING
      Bonjour les noctambules,
       
      Bon, moi j'y tiens plus
      Pas moyen d'avoir du ciel correct pour faire ma couleur.
      Alors j'ai récupéré la couleur gracieusement offerte par mon ami Lucien et je l'ai collée en calque couleur sur ma dernière version du Sorcier
      Bon . . . c'est très rouge le Sorcier très fâché mais j'aime bien
       
      Je le soumets à vos critiques :
       

       
      Mais j'ai aussi passé mon image dans Siril pour avoir les bonnes couleurs par astrométrie.
      En fait assez peu d'écart au niveau couleur, mais un fond de ciel meilleur je trouve :
       

       
      Voilà, en attendant que je puisse faire mes propres couleurs
      Un jour peut-être . . . enfin . . . une nuit
       
      Bonne journée à vous,
      AG
    • By MALLART
      Salut à tous,
       
      Me revoilà avec le second champ imagé durant cette session de fin septembre au col du Restefond.
       
      Il s'agit du champ de NGC7023 et VDB 141, fait en même temps que Thomas Bexant s'en occupait avec son tout nouveau Newton de 250mm (lien).
       
      Image réalisée au col du Restefond les 29/30 Septembre et 2 Octobre 2019.
      Couches : LRVB
      Matériel :
      Lunette FSQ106ED sans sa crémaillère,
      Monture 10 Micron GM 1000 HPS,
      Caméra FLi Proline 16803,
      Roue à filtres CFW5-7,
      Diviseur optique "maison",
      Porte - oculaire FLI Atlas,
      => montage direct du train d'imagerie sur la lunette via un cône sur mesure en aluminium.
       
      Prises de vue : 46 poses de 5mn en luminance +15 poses de 5mn en R,V,B en bin2.
      Total : 7h35mn.
      Caméra refroidie à -20°C
      Prises de vues faites sur trois nuits du fait de conditions variables.
       
      Traitement :
      Acquisition et pré-traitement avec Maxim DL (bias, darks et flats),
      Alignement sous PRISM,
      Correctif des couleurs avec SIRIL,
      Assemblage dans Photoshop.
       
      Idem que pour le traitement du champ de North America + pelican : j'attends vos remarques pour savoir si je n'y suis pas allé trop fort sur les curseurs,  car il est difficile de faire tout ressortir
      sur ce champ dans lequel, franchement, il y aurait un peu de ménage de poussières à faire .... ça fait peu soigné tout de même ce coin de voie lactée !
       
      Lien vers la full.
       
      A+
      Emmanuel

    • By Daniel B
      Bonjour le groupe!
       
      Le 19 octobre dernier j'ai pris 3h30 (avant les brumes) pour croquer le poisson rouge (IC 1795) situé à la pointe du coeur (IC1805). 
      Je me suis monté un setup d'hiver avec ma lunette TEC140 et un réducteur Astro-Physics 0.75x. J'obtiens une focale de 750 mm. Il me reste un peu d'alignement de la caméra à améliorer mais ça donne déjà des résultats utilisables.
       
      1h30 de Ha et d'OIII. 5 minutes seulement pour chaque canal RGB. En plus de ce qui est indiqué sous l'image: prétraitement, assemblage RGB et ajout des couches Ha (dans le rouge) et OIII (dans le vert et le bleu): PixInsight 1.8. L'ajout des couches Ha et OIII a été fait grâce au script Utilities -> NBRGBCombination. Un peu de réduction de bruit, ajustement finaux dans Photoshop CS3.
       
      Daniel
       

    • By Pyrophorus
      Bonjour à tous !
      J'ai enfin réussi à photographier Pacman la nuit dernière. Ce n'est pas tant qu'il soit difficile à trouver, mais entre la météo pourrie et mes essais de guidage, j'ai tout merdé depuis un mois.
      TN200/F5 sur EQ5; Nikon D5300 au foyer, correcteur de champ Baader.
      La nouveauté c'est le guidage avec un Synguider sur une lunette Orion 80x350. Ce qui m'a permis de faire des poses d'une minute trente au lieu de trente secondes. C'est incontestablement un progrès du point de vue du signal car je n'ai pas eu besoin d'extraire les couleurs au  pied de biche. Mais il va falloir que j'apprenne à dompter les caprices de la petite bête qui par moment vasouille grave. J'ai dû mettre à la poubelle la moitié des 90 brutes, donc évidemment du côté du bruit, c'est pas génial (le reste non plus d'ailleurs, mais c'est pour participer). Mon correcteur est peut-être aussi un poil trop près de l'APN, vous me direz votre avis.
       

       
      Bon ciel à tous !
  • Images