int77

Membre
  • Compteur de contenus

    287
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 83900

Messages posté(e)s par int77


  1. Discussion très intéressante. Personnellement, la dérotation me pose beaucoup moins de problèmes métaphysiques par rapport aux autres étapes de traitement planétaire, comme l'alignement multi-points ou les ondelettes :) La dérotation n'est qu'une modélisation par interpolation, basée sur les principes physiques fondamentaux et un modèle  analytique simple et transparent. De l'autre côté, alignement multi-point et traitement par ondelettes sont les procédures hautement empiriques et opaques,  qui détruisent non seulement  la cohérence temporelle mais aussi la cohérence spatiale  :ph34r:

    • J'adore 1

  2. Salut Sauveur, bravo et merci pour cette belle production. Une préférence pour cette Juju: 2019-09-17-1800_5-14 images-L_c11_l4 images_ap170_g, tenant en compte la hauteur c'est du sport :x

    Les Saturnes sont très belles également. Un jour il faudra tenter un mix C8@224 / C11@290 avec une acquisition synchronisée, cela devrait produire de belles bios sans incohérence temporelle :)

     

    • Merci 1

  3. il y a 30 minutes, lock042_CyrilRichard a dit :

    Crois moi, on essaye constamment de réduire le temps d'empilement dans Siril. Ça passe par de grosses optimisations (choix d'algorithmes plus rapides), mais on ne peut pas faire de miracles. Et si les algos sont lents, c'est qu'ils permettent de faire des trucs que ne font pas les plus rapides.

    Merci pour ces explications et pour ta participation dans ce projet formidable. Je trouve que c'est déjà très rapide dans l'état actuel; par exemple dans ce cas précis, le traitement Siril  de 96 poses de 75" (images 1280x980, calibration avec darks, alignement global,  empilement par moyenne avec rejet de pixels déviants; normalisation additive avec mise à l’échelle et méthode de rejet par linear fit clipping) a pris un peu plus de 10 minutes sur mon PC d'acquisition assez puissant il faut le préciser. Je me disais que l'on doit pouvoir caser cela dans les 2 heures de la session d'acquisition... finalement cela a l'air beaucoup plus complexe selon tes commentaires. 

     

    il y a 53 minutes, lock042_CyrilRichard a dit :

     C'est bien dommage que sharpcap (ou autres) ne soient pas libres :).

    C’était exactement le sens de mon propos :)

     

    il y a 53 minutes, lock042_CyrilRichard a dit :

    Leur implémentation non, mais une implémentation oui. C'est chose prévue dans Siril.

    Super, on attend cela avec impatience!

     

    • Merci 1

  4. Il y a 15 heures, lock042_CyrilRichard a dit :

    Et si sharpcap prend du code de siril il faur respecter la GPL et publier le code correspndant. Pas sûr que ca les intéresse

    Merci pour cette précision. C'est bien dommage, car cette solution serai la plus efficace pour faire avancer l’intérêt général. Alternativement, il doit être possible d'adapter leur implémentation du liveStack en s'inspirant des idées/algos de Siril sans pour autant utiliser directement le code. Il me semble cette approche est couramment utilisée dans l’industrie.

     

     Sinon, il nous reste l'espoir de voir un jour une implémentation de LiveStack dans Siril :) Genre, SharpCap crache les brutes dans un répertoire, et Siril mouline à coté pour faire du LiveStack à partir de ces brutes ;)

     

    Il y a 15 heures, lock042_CyrilRichard a dit :

    Sinon, non le live ne peut pas obtenir de meilleur résultat qu'un traitement classique. Ce qui fait que le traitement classique est meilleur c'est justement qu'on a tte les photos en amont pour pouvoir faire une normalisation, des rejets de pixels (qui necessitent les stats du stack complet, etc ....), et aussi, choisir une image de référence.

    Ce point me parait discutable. LiveStack permet d'enregistrer les poses élémentaires; je ne vois pas pourquoi on ne peut pas les utiliser en cours de la session (après chaque  pose? )  pour re-évaluer les stats, ajuster les normalisations / seuils de rejet de pixels, changer l'image de référence, voir re-empiler si besoin. En pose longue, on parle de plusieurs dizaines de minutes (voir les heures)  par stack,  cela doit laisser pas mal de la marge pour ce genre d'approche.

     

    Il y a 13 heures, polo0258 a dit :

    bonjour ! très belles images et une préférence pour la seconde aussi !

    Merci polo pour ton passage et ton avis!

     

    Il y a 5 heures, teko38 a dit :

    Je préfère la 2

    Par contre un gain a 5 pourcent, c’est un peu bas pour une Altair GPCAM3 224C

    Plutot prendre 25 pourcent pour diminuer le bruit de lecture

    https://www.altairastro.com/images/D/Altair_224C3_Gain_Analysis.jpg

    Merci Daniel pour ton avis et ce partage d’expérience. J'utilise l'outil SmartHistogram de SharpCap Pro qui permet  de calculer la durée de la pose elémentaire et le gain optimales par rapport aux critères pré-définis, tenant en compte la qualité du ciel et les caractéristiques du capteur. Ici, j'ai fixé le ratio de bruit de lecture dans le bruit total (fdc + bruit thermique) à 5%, et la sensibilité à 1e/ADU.

     

    Bon ciel!

    • J'aime 1

  5. Il y a 6 heures, Haltea a dit :

    Salut,  très sympa  comme résultat.

    J'ai depuis peu une 385 MC et image en poses courtes. 

    Je ne savais pas qu'il était possible de poser aussi longtemps avec ce type de caméra.

    Merci Haltea pour ton passage et commentaire. Effectivement on peu faire de la pose (presque) longue avec ces capteurs CMOS... surtout avec les versions refroidies (ce n'est pas le cas ici). Le souci principal est le bruit important et le 'apm glow' à gérer.

     

    Il y a 6 heures, messier63 a dit :

    le traitement avec Siril est bcp moins bruité...

    Merci Jerome. Il y a deux fois plus de  poses dans l'image classique par rapport à celle du LiveStack, cela explique partiellement cette différence. Cependant il y a probablement une contribution du post-traitement qui n'est pas identique dans les deux cas.

     

    Il y a 6 heures, Sauveur a dit :

    J'aime beaucoup bravo :)

    Merci Sauveur, on s'amuse comme on peu en l'absence des conditions acceptables pour observer nos planètes préférées :) 

     

    Il y a 5 heures, Chani11 a dit :

    Une préférence pour la seconde. Cependant la première méthode pourrait être très bien adaptée à des fins didactiques.

    Merci Chani11. Effectivement, c'est très didactique et ludique en même temps,  les enfants adorent  :)  Il y a quelque chose de  magique dans le fait de voir l'objet se développer sur l’écran en temps réel pendant la session...

     

    Il y a 3 heures, ALAING a dit :

    C'est vraiment superbe :)

    Le traitement traditionnel reste quand même devant, mais le live stack est assez impressionnant ;)

    Bonne soirée,

    Merci Alain pour ton passage et ton analyse que je partage complètement :) 

    Le traitement par Siril reste beaucoup plus propre, surtout en termes d’empilement avec les corrections cosmétiques. Mais c'est juste une question d'implémentation dans cette version de SharpCap. Rien n’empêche de régler ces problèmes dans les versions futures, le code Siril étant open source :) 

     

    Bon ciel!

    • J'aime 2
    • Merci 1

  6. Bonjour les amis,

     

    Comme nos planètes préférées deviennent de plus en plus difficiles en ce moment,  je reprends mes études avec le Ciel Profond :) 

    Je voudrais vous présenter un petit essai fait avec un capteur IMX224 non-refroidie en poses longues. Deux cas sont comparés: traitement d'une image issue du LiveStask par SharpCap versus empilement et traitement classique par Siril.  Cette technique de  LiveStack est assez impressionnante, l'image que l'on observe en temps réel est très proche du résultat final (les réglages dans SharpCap sont très riches et permettent d’équilibrer les couleurs ), ce qui rend l'expérience encore plus intéressante  et ludique  :) 

     

    Côté technique:

    Date: 7 septembre 2019

    Conditions: ciel Bortle Class 4,  SQM 21.2

    Setup: ED80/F=600mm + Altair GPCAM3 224C (filtre UV-IR cut,  échantillonnage 1.3"/pixel) sur HEQ5 Pro

    Guidage PHD2 (rms = ~1") avec une lunette de 60mm / F=225mm et une camera  GPCAM2 224C

    Capture: poses élémentaires de 75" avec un gain de 5%, FWHM 3"-3.5"

     

    Deux cas sont comparés:

    A: Traitement de l'image LiveStack:

    Calibration par darks en temps réel + LiveStack de 48 poses de 75s dans SharpCap pro suivi par  traitement Siril (etalonnage des couleurs par photométrie) + finition Photoshop CC (réduction sélective du bruit fdc + courbes/niveaux + ajustement fine des couleurs)

    NGC7380_LS_09072019_r1.1.jpg.27e296c59622cd9d48a9caa0e2ccc3e0.jpg

    Le fichier .fit  LiveStack issu de SharpCap, pour ceux qui veulent jouer avec: NGC7380_LiveStack_16bits_48frames_3612s.fit

     

    B: Traitement classique 96x75s:

    Siril 0.9.11 (calibration par darks + empilement + etalonnage des couleurs par photométrie),  finition Photoshop CC (réduction sélective du bruit fdc + courbes/niveaux + ajustement des couleurs)

    NGC7380_09072019_r1.6.jpg.be91539766c789a2161f91fc21e4cc03.jpg

     

     

    Comme toujours, vos conseils/ commentaires  sont  très bienvenus,  je suis toujours en phase d'apprentissage :) 

     

    Merci et bon ciel!

     

     

     

    • J'aime 7

  7. Bien joué polo et merci pour la perseverance et pour ces images de Jupiter fort sympathiques,  tenant en compte la hauteur de la planète et les conditions difficiles de la fin de saison.  Armé avec la dernière version d'Astrosurface, tu arrives à tirer le maximum de la matière brute contenant relativement peu de signal utile :)

     

    Bon ciel!

    • J'aime 1

  8. Bravo et merci pour cette belle image accompagnée par un descriptif technique très détaillé et instructif! 

    Y a-t-il une raison de ne pas aller au delà de 5 minutes pour les poses élémentaires?

     

     

    • J'aime 1