Thierry Legault 5 765 Posté(e) 7 février 2021 il y a 5 minutes, HAlfie a dit : C'est aussi un peu comme le fond du ciel en ciel profond, sans aucun bruit ça fait bizarre, avec un très léger bruit de fond du ciel résiduel, ça reste du coup très naturel et le léger bruit ne gêne pas au contraire . je ne comprends pas du tout pourquoi l'absence de bruit ferait "bizarre" et la présence de bruit "naturelle" Pour moi, c'est exactement le contraire. Evidemment, si le bruit est éliminé par un lissage trop fort, provoquant un effet "plastique" ou isophotes, d'accord. Mais là, on retombe sur du traitement mal appliqué. Quant à laisser un peu de bruit volontairement, je ne pige pas non plus. Si on pose longtemps, si on fait du compositage, si on utilise Winjupos...c'est bien pour réduire le bruit. A partir de là, je ne vois pas l'intérêt d'en laisser un peu plutôt que pas du tout. A part de se consoler quand on n'a pas pu l'éliminer suffisamment ("bah, finalement ça passe aussi avec un peu de bruit"). Ou quand l'image n'est pas assez piquée par rapport à ce qu'on espérait, et que le bruit donne une impression de détails fins. 2 Partager ce message Lien à poster Partager sur d’autres sites
Roch 1 896 Posté(e) 7 février 2021 (modifié) il y a une heure, Thierry Legault a dit : Après, je suis 100% d'accord avec Laurent sur la différence de piqué entre objet (galaxie, nébuleuse...) et étoiles. Quand c'est identique ou assez proche, au premier regard je vois d'abord un objet céleste. Quand c'est trop différent, je vois d'abord une image traitée avant de voir une nébuleuse ou une galaxie : quelque chose ne colle pas, c'est pas cohérent. Le plus difficile, c'est le coeur d'une galaxie très piqué net et les extensions qui partent dans le flou (ce qui peut donner les étoiles superposées au coeur piquées, et celles du reste de l'image floues). Comme d'avoir un Jupiter super net et les satellites flous, ou sur la Lune les cratères nets et les mers floues. Je ne dis pas que c'est bien ou mal, d'un côté c'est intéressant d'avoir plus de détails sur l'objet principal, juste que je ne m'y fais pas. Penses-tu que si le changement est progressif ça passe mieux en ce qui te concerne ? Sur mes anciennes images on avait clairement une limite entre la partie "accentuée" et la partie floue. Depuis, j'essaye de faire quelque chose de plus progressif, et je trouve le résultat plus naturel. Mais ce n'est pas facile... Pour moi c'est s'il y a une frontière nette que ça pose problème. Encore une fois, si on revient à l'impression visuelle, l'oeil détecte bien les parties sombres plus floues et les parties lumineuses plus nettes, donc on devrait pouvoir rendre quelque chose de "naturel" dans la théorie. ( vision nocturne, tout ça... ) Mais peut être que l'homme moderne a trop oublié l'effet de la vision nocturne... Romain Modifié 7 février 2021 par Roch 1 Partager ce message Lien à poster Partager sur d’autres sites
Tromat2 373 Posté(e) 7 février 2021 il y a 29 minutes, Thierry Legault a dit : je ne comprends pas du tout pourquoi l'absence de bruit ferait "bizarre" et la présence de bruit "naturelle" Parce que l'oeil humain s'est habitué aux défauts photographiques, et que leur absence parait suspecte je suppose. Dans les jeux vidéo par exemple on ajoute parfois du bruit ou encore du chromatisme pour "faire réel". En réalité on devrait dire pour faire "photographique". Partager ce message Lien à poster Partager sur d’autres sites
Thierry Legault 5 765 Posté(e) 7 février 2021 il y a 43 minutes, Tromat2 a dit : Parce que l'oeil humain s'est habitué aux défauts photographiques, et que leur absence parait suspecte je suppose. Dans les jeux vidéo par exemple on ajoute parfois du bruit ou encore du chromatisme pour "faire réel". En réalité on devrait dire pour faire "photographique". ah ok c'est pour rappeler le grain argentique : un truc de vieux quoi ! C'est comme les archives télé où ils rajoutent des lignes verticales et du vignetage pour faire "vintage" : ça me fait toujours marrer Partager ce message Lien à poster Partager sur d’autres sites
Billyjoe 2 926 Posté(e) 7 février 2021 (modifié) Il y a 8 heures, Roch a dit : Moi c'est pas M51, c'est M1 ( et d'autres... ) Oups, je sais pas pourquoi mais je pensais que la M51 de ce post était une de tes oeuvres, mes excuses à CB7751 En effet sur tes images le traitement Topaz passe bien également, sans fabriquer de détails. De très beaux résultats J’espère bientôt moi aussi me frotter avec autant de succès à la pose courte. J'ose quand même une très légère critique pour ta M109 (?) pour moi sur les bras de la galaxie on n'est pas loin du rendu "aquarelle" que l'on peut avoir parfois sur des images planétaire traitées avec le filtre anti bruit de PS, mais ton image est loin d’être massacrée avec ou sans Topaz c'est bien fin tout ça ! Après en planétaire même si HAfie a réussit à ne pas inventer de détails sur la remarquable image de C2PU en comparant avec une version "sans Topaz". C'est tout de même chaud d'utiliser ce genre d'outil , car l'utilisateur sera tenté plus ou moins souvent et plus ou moins consciemment d'oublier que ce logiciel fabrique des détails non visibles, et l'utilisateur cherchera à présenter son image la plus résolu possible. L'image de Mars donnée par Jean Luc est très parlante. Et je rejoint à 100 % son laïus sur la boite à pandore et les dommages que cela va représenter en astrophoto, une sorte de triche autorisée grâce au logiciel et ça sera difficilement détectable (un peu comme dans le tour de France, mon voisin se dope certainement alors moi pareil ) . Car il ne faut pas se leurrer la plupart des gens franchirons rapidement la ligne rouge, imagine un Newton 15" qui sort une image moins bonne qu'un C14 aller un petit coup de Topaz, hop j'ai un détail que le C14 n'a pas chopé et tant pis si c'est pas vraiment un vrai je m'en convaincrais facilement ... Je plaisante à peine Modifié 7 février 2021 par Billyjoe 2 Partager ce message Lien à poster Partager sur d’autres sites
Looney2 3 394 Posté(e) 7 février 2021 (modifié) Topaz est intégré comme plug-in Photoshop, comme moultes autres filtres/app qui existent aussi en externe. Pixinsight est aussi maitre en l'intégration d'applications tierces à ce que je comprends (ne l'utilisant pas). Doit-on préciser chaque commande qu'on utilise dans Photoshop/Pixinsight ou doit on se contenter de préciser qu'on a utilisé ces logiciels sans préciser quel plug-in on a utilisé ? il y a 24 minutes, Billyjoe a dit : imagine un Newton 15" qui sort une image moins bonne qu'un C14 aller un petit coup de Topaz, hop j'ai un détail que le C14 n'a pas chopé et tant pis si c'est pas vraiment un vrai je m'en convaincrais facilement ... Je plaisante à peine Oui mais ça, ça n'existe pas jusqu'à preuve du contraire, même en plaisantant. Les anti ont tellement martelé que Denoise Ai (sans l'avoir utilisé, un comble !) inventait des trucs incroyables que tout le monde imagine désormais qu'il suffit de passer n'importe quoi dans Denoise Ai pour faire du Hubble. C'est évidemment complètement faux et je mets quiconque au défi de me prouver le contraire. Les démonstrations opposées jusqu'à maintenant attribuent à Denoise Ai des défauts dont il n'est pas coupable mais qu'il a l'audace de mettre un peu plus en évidence. Modifié 7 février 2021 par Looney2 1 Partager ce message Lien à poster Partager sur d’autres sites
Billyjoe 2 926 Posté(e) 7 février 2021 (modifié) il y a 31 minutes, Looney2 a dit : Oui mais ça, ça n'existe pas jusqu'à preuve du contraire Salut, As tu regardé le GIF en début de page 2 de JLD, tu ne trouve de grandes différences de détailsentre les deux images, et sans pour autant pouvoir départagé la plus fine ? Qui est dans le vrai par exemple dans la branche gauche du Y au N/N/E de Solus lactus ? Et il y en a plein d'autres comme ça dans l'image, aors pour savoir qui à raison voici mon image à moi, ou l'on peut comparé qui est dans le vrai et qui à inventé des parties de paysage martien. Je suis pas équipé pour faire un GIF des 3 image mais il suffit d'ouvrir mon image à coté du GIF de Jean Luc pour se rendre compte de la différence de realité des détail de chaque image. La saumonée à fait par endroi de très fin et joli.....dessin ! JLD sur ce coup à mille fois raison ! Modifié 7 février 2021 par Billyjoe 1 Partager ce message Lien à poster Partager sur d’autres sites
Looney2 3 394 Posté(e) 7 février 2021 il y a 3 minutes, Billyjoe a dit : As tu regardé le GIF en début de page 2 de JLD, tu ne trouve de grandes différences de détailsentre les deux images, et sans pour autant pouvoir départagé la plus fine ? Qui Jamais il n’a été question de traitements IDENTIQUES avec pour seule différence de l’application de Denoise Ai entre ces images présentées! Un traitement l’utilise et l’autre non mais on ne sait pas quelles sont les autres différences de le processing très long qui aboutit au fichier final. Qu’on commence par faire des comparatifs sérieux et après on pourra crier au loup ! 1 Partager ce message Lien à poster Partager sur d’autres sites
Philippe Bernhard 557 Posté(e) 7 février 2021 Il y a 3 heures, Thierry Legault a dit : question, je crois, est : est-ce que tous les détails apparus entre la première version et la dernière sont réels ? Effectivement, c’est LA question. il faudrait par exemple comparer avec une déconvolution (par PSF directe prises de l’image) pour voir quels détails apparaissent. Partager ce message Lien à poster Partager sur d’autres sites
Billyjoe 2 926 Posté(e) 7 février 2021 (modifié) il y a 22 minutes, Looney2 a dit : Jamais il n’a été question de traitements IDENTIQUES avec pour seule différence de l’application de Denoise Ai entre ces images présentées! Un traitement l’utilise et l’autre non mais on ne sait pas quelles sont les autres différences de le processing très long qui aboutit au fichier final. Qu’on commence par faire des comparatifs sérieux et après on pourra crier au loup ! Si tu veux ... En tout cas tu remarquera qu'au jeux de 7 erreurs c'est le Denoise AI qui gagne... et pourtant son image est bien plus fine que la mienne... Alors que mes gros détails empâtés correspondes à ceux du T1 m. Tiens encore une pif en plein dans le meridien central près de l'equateur sud, je sais pas si le processing etait très long mais lui il c'est paumé en route c'est sur ! Modifié 7 février 2021 par Billyjoe 1 Partager ce message Lien à poster Partager sur d’autres sites
Looney2 3 394 Posté(e) 7 février 2021 (modifié) il y a 20 minutes, Billyjoe a dit : Si tu veux ... En tout cas tu remarquera qu'au jeux de 7 erreurs c'est le Denoise AI qui gagne... et pourtant son image est bien plus fine que la mienne... Alors que mes gros détails empâtés correspondes à ceux du T1 m. Et voilà, toi aussi tu tombes dans le piège et affirmes un truc sans utiliser Denoise Ai... Incroyable. Peux-tu me sortir étape par étape le traitement des deux images comparées ? Non ! Et si je te dis que le fait de virer le bruit d'entrée incite peut être à traiter plus loin les images quitte à pousser les curseurs pour la déconvolution et autres algos de netteté ? C'est la faute à Denoise Ai ? C'est lui qui invente les détails ? Bizarre, ça fait environ 1 gros mois que je m'amuse quotidiennement avec et j'ai jamais sorti une rosette avec des filaments inventés ni autre chose du genre. Certes, mes images ne sont pas de ce niveau mais si je suis ton raisonnement, ça devrait au contraire être un avantage d'avoir des bouses pour les transformer en carrosse. Aussi, je m'aperçois que des algos de CP comme le "starless" créent des artefacts très discrets mais bien présents. On s'entend pour dire que les techniques utilisant une base de starless via de multiples calques est monnaie courante en traitement CP ? Or, si je passe Denoise Ai, il travaille comme un fou pour me virer les horribles moutonnages que crée le starless sur certaines couches et accentue suffisamment les artefacts générés par l'algo d'effacement d'étoiles. Est ce la faute à Denoise Ai ? Non... À moi de gérer pour minimiser cet effet ! Donc, pour moi, utilisateur de Denoise Ai, je confirme que malgré ma bonne volonté je n'ai pas réussi à faire apparaitre des filaments détaillés sur mes images floues. Je n'ai pas non plus, noté détails particulièrement inventés par cette application qui ne l'auraient été, via moultes étapes fastidieuses, de la même manière avec Photoshop ou autre appli de traitement d'image. La beauté de ce logiciel est, qu'en quelques clics, quelques manipulations réfléchies (masques, dosage etc.) on arrive à faire ce qu'on met des heures à faire avec d'autres... Et en imagerie traditionnelle (de jour) c'est encore plus spectaculaire. Modifié 7 février 2021 par Looney2 1 Partager ce message Lien à poster Partager sur d’autres sites
Billyjoe 2 926 Posté(e) 7 février 2021 (modifié) En gros même en ondelettant à fond les balons ou deconvulutionnant autant que tu peux tu va avoir un peu de mal (et c'est de l'humour costique là ) à faire apparaitre de faux détails qui paraissent pourtant tout à fait réalistes. Heureusement il y a quand même l'indice du limbe très peu résolut qui met la puce à l’oreille sur cette étrange finesse des détails au centre de la planète qui je rappelle ne collent pas aux autres images du même méridien à la même époque... Modifié 7 février 2021 par Billyjoe Partager ce message Lien à poster Partager sur d’autres sites
Looney2 3 394 Posté(e) 7 février 2021 Billyjoe, as-tu déjà essayé Topaz Denoise Ai ? J'ai l'impression que c'est le terme Ai qui fait peur et qui est pris (beaucoup trop) au pied de la lettre. Partager ce message Lien à poster Partager sur d’autres sites
Malik 1 108 Posté(e) 7 février 2021 Aller je me lance dans une petite démo.. peut être que cela réconciliera les TopazoRefractaires... Pas plus tard que la semaine dernière j'ai re-traité une NGC6946 de 2019 que je n'avais pas soignée... et surtout parce que j'avais pas grand chose d'autre à faire... Le challenge sur cette image était de faire ressortir l'IFN un maximum, La contrepartie est une importante montée du bruit dans le fond de ciel J'avais deja testé topaz rapidement sur un traitement précédent, et j'ai donc décidé de tenter du débruitage en utilisant uniquement topaz sur cette image (pas d'MLT ni TGVdenoise) Pour la technique : C'est appliqué en toute fin de traitement, de manière selective et la plus douce possible 1/ image chargée sur PS 2/ je duplique l'image pour fusion 3/ je créer un masque sur l'image dupliquée (protection d'étoiles et objets) 4/ je lance Topaz en plugin 5/ j'e choisi mes parametres de denoise 6/ je lance le process qui me ramene sur PS une fois le calcul terminé 7/ et enfin je regle mon calque de fusion via les curseurs "opacité" et "fond" afin d'obtenir le resultat qui me convient Pour la demonstration j'ai fait 3 versions en ne touchant que les parametre de fusion (opacité et fond): 0% 75% et 100% (0% pour pas de topaz du tout) Le reglage du denoise se fait donc par fusion dans PS, et non en retouchant à chaque fois les reglages dans Topaz. Lorsque j'ai traité l'image j'ai choisi de m'arrêter a 75%, Car au dela, cela fait apparaitre une sorte de trame à échelle tres fine, qui rend le fond de ciel trop synthétique à mon gout Pour commencer, sur l'image visionnée en full, le denoise n'est pas perceptible Et voici un crop sur le fond de ciel demontrant l'évolution : 0%, 75% et 100% on peut constater que les etoiles et la petite galaxie ne bougent pas, pas d'artefact, ni d'info crée, seul le fdc est travaillé et enfin un crop sur la region NGC6946, pas de degradation non plus meme à 100% Ma conclusion : sur les images de ciel profond, c'est un super outils qui permet de travailler le bruit de maniere simple et efficace par contre il ne faut surtout pas utiliser les outils d'accentuations, ce soft n'etant pas pas fait pour nos images astro, il a tendance à créer des artefacts et saccager les etoiles, surtout les plus petites un masque est donc indispensable (mais ca de toute maniere c'est le cas pour quasi tous les process en CP ) Alberic si tu passes par la, je n'ai pas tué le bruit, au contraire je l'ai respecté, je l'ai cajolé, pour le rendre plus doux et délicat 9 Partager ce message Lien à poster Partager sur d’autres sites
Cyrille Thieullet 106 Posté(e) 8 février 2021 Bonsoir, Je trouve aussi que la photo de départ too much… Mais comme il a été dit Astrobin c’est comme facebook ou youtube. C’est celui qui a le plus de like qui passe à la télé. Reste que je suis un peu surpris par tant d’effervescence pour un logiciel. Quand je l’ai présenté sur le site d’en face l’année dernière il y déjà eu le même débat. Quand @Colmic a transféré pour en parler ici ça a refait pareil. Et ça continue. Denoise est un logiciel qui utilise un réseau de neurone que l’on peut voir comme un système d’équations (100, 200 + ?, linéaires et/ou non ?) à plusieurs inconnues (>5, 10 + ?). Pour être construit ce réseau a été alimenté d’image « parasitées » en entrées avec pour consigne de donner les images « avant parasitage » en résultat. Après avoir digéré des millions d’images avant/après, chaque coefficient a convergé progressivement vers un résultat qui donne statistiquement la meilleure concordance par rapport à la cible sur ce volume/panel d’images. Il y a de nombreuses convergences possibles qui peuvent dépendre des types d’images en entrées. Une par exemple pour des images à faible éclairage et une autre pour des images plus claires par exemples. C’est une des options que propose le logiciel par exemple. Le résultat global du réseau est un ensemble de valeurs numériques figées qui remplissent ces équations. C’est finalement comme une approximation d’une équation de restauration d’image sur un sujet/thème particulier : retirer du bruit pour Denoise. On peut y voir une espèce de déconvolution multiforme avec des paquets de « sous traitement » spécialisés sur un truc et d’autres sur un autres. Comme pour un algo un peu classique avec des débranchements, l’algo va analyser l’image par morceaux mais peut être aussi sur plusieurs niveaux de détails pour chercher des cohérences, des corrélations et les mettre en avant par les unes rapports aux autres en regard du bruit. C’est sur ces aspects multidimensionnels que la différence se fait. Contrairement à un algo « classique » type déconvolution ou autre qui traite tout de la même manière, là l’accentuation n’est pas la même partout. C’est ce qui le rends « intelligent ». Avec des gros guillemets. Ça ne veut pas dire non plus qu’il invente mais qu’à partir d’un certain degré d’incertitude ou d’incohérence sur la donnée source le résultat a une fiabilité qui se dégrade d’autant plus que la force du traitement est poussée car Il part interpréter autour pour reconstruire ce qui semble manquer au centre sur une zone dont la largeur dépend de la force du traitement. Il peut alors produire des artefacts. Mais tous les algos de traitements d’image produisent des artefacts plus ou moins rapidement. Denoise est entrainé en particulier à préserver/révéler les transitions de contraste et les faire sortir du bruit autour ; avec apparemment une acuité spéciale pour les lignes ou autres patterns https://help.topazlabs.com/hc/en-us/articles/360026224352-DeNoise-AI-Frequently-Asked-Questions#dn1 Qu’il va probablement compléter pour finir ce qui manque vu comment il nous a fait des filaments farfelus dans les premières versions. Mais c’est beaucoup mieux maitrisé depuis la version 1.2. https://help.topazlabs.com/hc/en-us/articles/360026521811-DeNoise-AI-Changelog Ce qui amène certains maintenant à pousser les curseurs trop loin comme sur la photo du début. Peut-être en s’imaginant que c’est de l’info au final ? Et je peux comprendre en ce sens la position de @jldauvergne. Maintenant pousser les ondelettes à fond c’est pareil. Au début tout le monde y aller du curseur. Et ça s’est calmé depuis il y a eu des tutos et les personnes se sont « éduquées » sur le rebond…. Une déconvolution créée des artefacts car l’image n’est jamais homogène parfaitement par rapport à la déformation modélisé par la PSF. Elle « invente » aussi. Autant d’informations calculée ayant une forme de pattern régulière et que denoise peut considérer comme significative dans son analyse s’il passe après. Dès lors il peut produire des résultats statistiquement encore plus faux comme renforcer de l’information là où il n’y en avait pas « réellement ». C’est pour cela qu’il vaut mieux le passer avant tout traitement. Ça parait logique aussi vue comment il fonctionne. Sauf que chez nous rien que l’empilement c’est déjà de la grosse bidouille avec même parfois des bouts d’images recomposés et additionnés à échelles variables ! C’est pour cela que l’on peut considérer que Denoise est idéal pour un night scape et qu’après ça se discute. Ca reste un choix personnel. Il peut y avoir un autre biais. Mais j’imagine qu’ils y ont pensé. Comment les concepteurs de Denoise ont fabriqué leur jeu d’images dégradées ? Nous parlons de plus d’un million d’images. Quels algorithmes ont-ils utilisés pour les flouter ? ajouter du bruit ? simuler un bougé ? Etc… Autant de pattern qui peuvent se retrouver « imprimés » dans la matrice du réseau de neurone et ajouter de l’information là où il n’y en avait pas. C’est le biais d’apprentissage. Inhérent à tout apprentissage. Et pour en rigoler un peu, même pour nous, nous préférons ajouter des croyances pour combler ce qui nous échappe plutôt que de dire que nous ne savons pas. Ce qui fait que nous nous écharpons régulièrement sur les forums car nous « inventons » ou plutôt interprétons aussi d’une certaine manière l’information qui nous manque pour arriver à nos fins, histoire de persuader les autres sur tel ou tel sujet. Fin de la parenthèse… C’est pour tout cela que les concepteurs de Denoise alertent sur la création possible d’artefact et conseillent d’utiliser le logiciel en début de chaine. https://help.topazlabs.com/hc/en-us/articles/360026224352-DeNoise-AI-Frequently-Asked-Questions#dn5 C’est du bon sens finalement. Et plutôt honnête de leur part. A nous d’y faire attention. Cette limite s’applique à tout algorithme de traitement d’image. Et ce n’est pas parce que ces algorithmes ont une équation (qui peut être réversible) qu’ils sont plus « scientifiques » ou pertinent ou moins dangereux. Simplement, contrairement à Denoise, l’équation est connue. A titre d’exemple, nous utilisons les calculs pour la position des satellites. Mais ce ne sont que des approximations qui en dehors de leur plage d’utilisation donnent n’importent quoi. Personne ne s’en plaint. Il suffit de rafraichir les TLE. Denoise c’est un peu pareil. Il va y avoir des règles d’utilisation optimales. Sauf que là nous découvrons. Sur une image il peut être ok et mauvais sur une autre qui a eu un traitement. Sur une partie de l’image il peut être très bon et sur une autre partie être plus approximatif. Il faut tester, quitte à l’appliquer sur une zone dans un calque pour le cœur d’une galaxie par exemple puis avec tringlerie ad hoc pour diffuser la netteté après comme le fait @Roch Extérieurement il est facile d’accès, mais il est complètement opaque. Si certains ont besoin de maitriser, de comprendre ou d’expliquer une chaine de traitement de bout en bout par rapport à une démarche de travail ça peut être difficilement acceptable et discutable. Mais le mettre de coté reste un encore choix personnel. Après Il y des risques à utiliser tout logiciel d’amélioration des données dans le cadre d’une démarche scientifique. Maintenant pour réduire ce risque, il y a des possibilités. Comme faire plusieurs photos/tests/mesures et de croiser les résultats pour observer si statistiquement l’information se retrouve toujours au même endroit et de la même manière. Je n’imagine pas un scientifique communiquer sur une seule observation pour annoncer une découverte. Ça va être vérifié plusieurs fois. C’est finalement le même problème qu’avec un instrument de mesure. Étalonner mon instrument dans ma procédure, puis faire les mesures. Aussi utiliser Denoise dans un cadre scientifique me semble possible. A propos du niveau de détail anormal, j’ai en tête le partage de @Thierry Legault en juin dernier. Une extraordinaire photo faite avec sa lunette de 200mm offrant un détail de 0.15’. Bien au-delà de la résolution optique théorique de la lunette. Et en plus sur une seule photo ! Personne ne lui a dit qu’il avait « cheater » avec un logiciel car optiquement ce n’est pas possible ! Tout le monde est tombé d’accord que la détection de ce bras de 35cm avait était possible par contraste avec une lunette de 200. Mais là c’est un peu différent. Denoise révèle et affine. Et ce qui était une tache peu devenir un point. Un trait épais un filament. Voire disparaitre par filtrage. Sur la rosette par exemple les petites taches noires peuvent être prisent pour du bruit et se faire filtrer ou fortement réduites. C’est ce que nous voyons sur la photo de départ. Et apparait des détails en dessous de la diffraction. Est-ce inventé, est-ce une réduction trop forte, est-ce ok ? Là est aussi le débat. Si l’on considère la limite de diffraction tout ce qui est en dessous dans l’image ça n’a pas de sens physique. Sauf que par différence de contraste il est possible d’aller en dessous et de détecter de l'information réelle (cf image de Thierry). Alors ? La question est de savoir si Denoise est capable de travailler sur des différences de contraste et de détecter des informations avec une pattern alors que d’autres algos considèreraient cela comme du bruit. Le bruit réel n’a pas de pattern. C'est une opportunité pour nous et en même temps un piège. Dans ce cas Denoise va révéler cette pattern dans l’image. Il n’inventera rien. Pour lui ce sera de l'information. Une incohérence dans le bruit sera simplement interprétée comme un signal à révéler. La question que nous pourrons nous poser c’est : Est ce que cette pattern est réelle ou vient-elle de l’empilement ? De la dérotation ? D’un banding dans le capteur ? de notre sigma clipping ? de l'optique ? du seeing ? autres ? Car elle a bien une origine. Et la réponse c’est que nous ne savons pas avec certitude aujourd'hui. Et que pour savoir à coup sûr il nous faudrait une image en plus haute résolution faite avec un instrument plus gros, au même moment, dans les mêmes conditions at avec la même qualité optique mais sans utilisation de Denoise. Image que nous n’aurons sans doute jamais… Dans le doute il y a ceux qui vont s’abstenir en attendant plus de certitudes et d’autres qui vont y aller pour tester et trouver les limites. C’est peut-être le sens du débat de ce post ? Les deux ont parfaitement raisons de leur propre point de vue. Et comme dirait Mulder, la vérité est ailleurs... Aussi en planétaire utiliser Denoise en début de traitement juste après le stacking et même avant la dérotation semble le plus logique. En CP c'est peu être différent si l'on utilise denoise sur certaines zones uniquement. Nous en sommes au début de l'utilisation. Reste que les deux images de mars avec et sans Denoise sont pour moi splendides et traduisent deux savoir faire. Et que ce type d'image n'est possible que grâce à un instrument d'exepcetion, conçu, réglè et utilisé de manière optimale. Et tout cela made in France en plus.... Aussi je trouve cette querelle bien triste car nous avons : - du traitement "linéaire" classique en planéttaire avec une série de vidéao didactiques, exhaustives qui représente un travail énorme ET gratuit pour nous, - des tutos tout aussi complets sur les traitements "linéaire" classiques en CP pose courte ou longue, - les premiers résultats d’une autre approche "non linéaire" tout aussi spectaculaire avec aussi deux vidéos didactiques et complètes sur mars et de nombreux résultats en CP qui sont ausi superbes. C'est plutôt top. Cyrille 4 5 9 Partager ce message Lien à poster Partager sur d’autres sites
LucaR 1 093 Posté(e) 8 février 2021 (modifié) Merci @Cyrille Thieullet pour ces explications et informations très intéressantes qui clarifient beaucoup le sujet! J'avais déjà entendu dire qu'il vaut mieux l'utiliser en début de traitement. Je l'utilise en sortie de Siril pour débruiter le FDC en protégeant les étoiles et objets. Est-ce que Siril réagirait bien si on l'utilise sur la brute d'empilement avant tout post-traitement? Il faudra que je test :-) Modifié 8 février 2021 par LucaR Partager ce message Lien à poster Partager sur d’autres sites
Colmic 4 006 Posté(e) 8 février 2021 Il y a 1 heure, LucaR a dit : Merci @Cyrille Thieullet pour ces explications et informations très intéressantes qui clarifient beaucoup le sujet! J'avais déjà entendu dire qu'il vaut mieux l'utiliser en début de traitement. Je l'utilise en sortie de Siril pour débruiter le FDC en protégeant les étoiles et objets. Est-ce que Siril réagirait bien si on l'utilise sur la brute d'empilement avant tout post-traitement? Il faudra que je test :-) C'est ce que je fais personnellement. Pré-traitement, empilement, suppression du gradient, ajustement des couleurs par photométrie, histogramme, Topaz Denoise et je fignole sur CS5. 1 Partager ce message Lien à poster Partager sur d’autres sites
HAlfie 2 077 Posté(e) 8 février 2021 Il y a 11 heures, Thierry Legault a dit : Evidemment, si le bruit est éliminé par un lissage trop fort, provoquant un effet "plastique" ou isophotes, d'accord. Mais là, on retombe sur du traitement mal appliqué. Je parlais en effet bien de ça 😉. Pour nuancer, Il est je trouve assez difficile d’avoir une image vraiment dénuée de bruit en sortie de prétraitement et une fois que tu resserres les seuils et que le bruit commence à monter avec les cmos type 183mm ou encore 1600mm. Par exemple en SHO, j’ai de meilleurs résultats en empilant au moins 50 voire idéalement 70 80 poses pas trop longues genre 5 a 10min Max (tout dépend de son f/d, noirceur de ciel et gain mais restons général). La où il semble que les capteurs CCD réagissent mieux avec des poses de 15 20min voire plus! Je parlais bien de l’effet « pudding » d’un lissage excessif du fond du ciel uniquement via l’utilisation de masque de fond du ciel. 1 Partager ce message Lien à poster Partager sur d’autres sites
HAlfie 2 077 Posté(e) 8 février 2021 @Cyrille Thieullet : un grand merci pour ces éléments précis et argumentés. Cela voudrait-il dire que l'algorithme pourra continuer à s'améliore avec le temps (principe de l'AI)? @Colmic : intéressant! Jusque là j'appliquais aussi la réduction de bruit (sous Pixinsight après histo également) ou dans Photoshop avec notamment la netteté optimisée via calque qui donne souvent de bons résultats. @LucaR : curieux de voir le résultat ! @Malik : un grand merci pour cette démonstration complète! 1 Partager ce message Lien à poster Partager sur d’autres sites
Justin21m 797 Posté(e) 8 février 2021 Le 06/02/2021 à 14:38, jldauvergne a dit : Le 06/02/2021 à 09:33, Justin21m a dit : moi c'est pour passer du temps avec moi même en captant de magnifiques et vieux photons... Rien de plus. Les gens qui font ca et seulement ça ne partagent pas leurs photos. J'en connais et ils n'utilisent pas Topaz. Dès que tu utilises Topaz c'est pour donner à une image un aspect meilleur qu'elle n'est et donc pour montrer et se faire mousser. Je comprends totalement cette envie de partager et même d'enjoliver le résultat mais faut essayer de le faire sans tricher. Pas toujours simple à definir mais dans le cas de Topaz il ne devrait même pas y avoir débat. Je vois avec surprise dans ce fil que c'est déjà plié, Topaz est deja rentré dans la bergerie, ... Je n'imaginais pas à ce point y compris chez des observateurs sefieux. Il y a quelques jours il y avait un débat sur les photomontage en photo de paysage, pour moi la dérive Topaz est analogue. C'est la course à l'image qui claque le plus, ... à n'importe quel prix. Une dernière fois, pardon de pourrir le post... Juste histoire de comprendre les règles du débat sur AS, dont je ne participe habituellement pas pour ne pas avoir ce genre de réponse, qui n'est pas dramatique au demeurant, mais qui tout de même, à réussi à m'atteindre. Je l'ai pris comme un "toi le pekno tricheur narcissique, reste à ta place..." sans explication de ta part, cette idée m'est resté à l'esprit tout le week-end... Peut-on y aller à coup de petite attaques personnelles gratuites ? Est-ce autorisé ? Car m'interdire moi même de participer à un débat pour ne pas avoir à recevoir des réponses désagréables ne va pas de pair avec l'idée que je me fais d'un forum composé de gens sefieux... 1 Partager ce message Lien à poster Partager sur d’autres sites
ClaudeS 3 509 Posté(e) 8 février 2021 (modifié) Je viens de revoir mes essais fait sur les images lunaires en automatique avec Denoise et Sharpen premières versions. Le visuel est intéressant pour une publication sur des réseaux sociaux. Il n'y a pas photos, et cela peu laisser penser que la définition de l'image est meilleure que l'original. C'est du tape à l'œil. Mais lorsque que l'on grossit, c'est désastreux en automatique. A utiliser en manuel pour les réglages. Il faudrait une option "view zoomed" pour voir si la dégradation n'est pas trop importante, comme sur Registax. Je reste très partagé sur l'utilisation. Modifié 8 février 2021 par Anton et Mila Partager ce message Lien à poster Partager sur d’autres sites
starjack 1 715 Posté(e) 8 février 2021 Il y a 2 heures, Justin21m a dit : Peut-on y aller à coup de petite attaques personnelles gratuites ? Est-ce autorisé ? Hors sujet. Hélas, trois fois hélas… Je ne peux qu’exprimer ma complète compréhension de ta réaction et ma totale solidarité face à des comportements déplacés et discourtois. D’autres adjectifs me viennent en tête, mais ce serait tomber dans mon propre piège que de les utiliser ici… Je suis un grand naïf : ces attitudes me semblent encore plus surprenantes sur un forum d’astrams et quelques pros, m’imaginant, mais donc à tort, que contemplation et observation de l’univers nous amèneraient à une capacité à interagir avec les autres plus apaisée, plus détendue, moins crispée sur nos avis et opinions. Dans un fil précédent qui avait tourné au vinaigre du fait d’un intervenant qui me semble considérer qu’il est investi de la mission de dire le bien et le mal, j’avais entendu la distinction entre - les arguments ad rem, sur la chose elle-même, le sujet dont on discute, le fond du débat - les arguments ad hominem, où un débateur dérive sur le comportement de son opposant pour le discréditer et donc discréditer son opinion (exemple : « ils font ça pour se faire mousser ») - les arguments ad personam, où on discrédite la personne elle-même (exemple inventé : «Machin, il a un jour publié une photo mal traitée alors ses arguments ne tiennent pas ») Tout ça vient de Schopenhauer (mais pas seulement sans doute, je ne suis pas expert !) et j’espère que je ne trahis pas trop. Décoder le débat de ce fil à la lumière de tout ça m’avait fait du bien, alors que je me sentais attaqué dans ma personne et pas dans mes arguments. Sachant bien sûr que quand on sort du débat ad rem on va dans le décor, on blesse les autres débateurs et on finit par se taper dessus ! Quel dommage ! Jacques Fin du hors sujet 1 Partager ce message Lien à poster Partager sur d’autres sites
Roch 1 896 Posté(e) 8 février 2021 (modifié) Il y a 11 heures, Cyrille Thieullet a dit : Dans ce cas Denoise va révéler cette pattern dans l’image. Il n’inventera rien. Pour lui ce sera de l'information. Une incohérence dans le bruit sera simplement interprétée comme un signal à révéler. La question que nous pourrons nous poser c’est : Est ce que cette pattern est réelle ou vient-elle de l’empilement ? De la dérotation ? D’un banding dans le capteur ? de notre sigma clipping ? de l'optique ? du seeing ? autres ? Car elle a bien une origine. Et la réponse c’est que nous ne savons pas avec certitude aujourd'hui. Et que pour savoir à coup sûr il nous faudrait une image en plus haute résolution faite avec un instrument plus gros, au même moment, dans les mêmes conditions at avec la même qualité optique mais sans utilisation de Denoise. Image que nous n’aurons sans doute jamais En planétaire, c'est compliqué en effet. Mais en cp c'est assez simple, comme sur mon image des piliers ou de M1 ; un seul coup d'oeil à l'image de hubble peut venir confirmer ou infirmer les choses. En ce qui me concerne, je trouve que justement ( dans le cas de mon image de m16 ) Topaz fait un boulot excellent quand à la discrimination "faux détail" ou "vrai détail". Sur l'image de M16 de départ ( bruitée ), il y a pas mal de zones noires qui correspondent à des concentrations nébulaires réelles, et d'autres qui ne sont que de la fluctuation du bruit de fond. En plus d'améliorer le rendu visuel de l'image, j'ai l'impression que la discrimination vrai/faux par mon observation visuelle de l'image est meilleure après le passage topaz que avant. Ce qui est un autre point majeur qui me fait préférer ce logiciel à d'autres. Évidemment cette comparaison ne voudra pas dire que ça fonctionnera tout le temps, mais tout de même. Donc bien que je n'utilise pas topaz de la manière prévue à l'origine ( en fin de processus de traitement plutôt qu'au début ), je suis conforté sur le bien-fondé de son utilisation de cette manière. Les réseaux de neurones, l'IA, ce sont des outils formidables mais tout cela pond un algorithme dont on ne comprend pas grand chose au final. Néanmoins, ça fait ce qu'on lui demande et ce pour quoi ça a été entrainé. Si l'algo a été produit après entraînement sur des images non linéaires ( ce qui me semble très plausible ), il me semble logique qu'il sorte de bons résultats sur ce même type d'image Je vous présenterai un petit montage comparatif ce soir si j'ai le temps. Romain Modifié 8 février 2021 par Roch Partager ce message Lien à poster Partager sur d’autres sites
Colmic 4 006 Posté(e) 8 février 2021 On peut conclure ? 10 pages quand même ! Dans tous les cas, chacun fera ce qui lui plaît, moi le premier, et si ça plaît pas à certains, ben tant pis pour eux On est tous adultes ici, déontologie ou pas chacun met le curseur où il a envie et personne n'a le droit de se poser en redresseur de tords. Si on postait des images pour se faire mousser, c'est pas ici qu'on le ferait mais sur FaceBook ou ailleurs, pour recevoir des tonnes de like et de Bravo ! A voir le retour qu'on obtient parfois sur des images où on a bataillé pendant des heures (le solaire par exemple), pour avoir 3 réponses, faut vraiment être motivés je trouve ! D'ailleurs la plupart de ceux qui interviennent dans ce fil n'interviennent jamais sur les images des autres, faut dire que ça prend du temps, et un clic sur un pouce est devenu tellement plus simple et rapide ! Des fois je me dis que j'aurais mieux fait de faire Surf plutôt qu'astro, surtout que j'étais pas trop mauvais étant jeune !!! J'aurais été entouré de belles nanas, il fait chaud, on est à la plage et pas à se cailler à 3000 mètres la nuit comme des cons Donc aucun état d'âme en ce qui me concerne à utiliser ce produit, d'une part parce que jamais je n'irai sur Pixinsight, d'autre part parce que maintenant je l'ai à peu près en main et surtout je l'ai payé Je le mentionne toujours dans mes posts, et l'image postée possède "denoise" dans son nom, donc j'ai la conscience tranquille en ce qui me concerne. 7 3 Partager ce message Lien à poster Partager sur d’autres sites
ALAING 58 517 Posté(e) 8 février 2021 Il y a 2 heures, Colmic a dit : On peut conclure ? Humm . . . ça dépend avec qui c'est ton problème Michel JC Dusse 1 2 Partager ce message Lien à poster Partager sur d’autres sites