Sign in to follow this  
Nebulium

Jupiter au T 1m du Pic. 2010. Le retour.

Recommended Posts

Pour faire simple :
http://www.dropbox.com/s/nva79vv78jt3ay4/jup_sw.tif?dl=1
http://www.dropbox.com/s/8eq4t9easadphlm/jup_ms.tif?dl=1
http://www.dropbox.com/s/ycr3xewz1uc1bdj/dif.png?dl=1

Le PSNR est de 45dB autan dire que les 2 images sont très proches.

Je pourrai faire plus fin avec l'option "Coarse To Fine" que j'utiliserai dans le cas de la photo HR et je peux aussi activer les options "Burst Deblurring" et "Burst Denoising" pour accentuer les images.

Je comparerai ces 2 dernières options à ta prochaine version accentuée. Je pense que les détails gommés dans le bleu sont dus à mon défloutage qui était un peu trop violent.

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Photographier la Lune
Guide complet pour la photographier de la Lune.
Information et commande sur www.photographierlalune.com
quote:
autant dire que les 2 images sont très proches

Ça veut dire, ms, que ta méthode, à ce stade du traitement, est équivalente au RGX de l'époque.

Le match va donc se poursuivre avec la révélation des détails fins, mais faute de modèle réel, on ne saura pas discerner les vrais des faux, aussi bien pour sw que pour ms

Au fait, qui saurait déchiffrer le codage d'accentuation de sw qui apparaît dans les noms de fichier du pack ?

[Ce message a été modifié par Nebulium (Édité le 06-08-2015).]

Share this post


Link to post
Share on other sites
Bon, si j'ai bien compris on compare ici le stack de registax, sans accentuation, avec le stack de ms.

J'ai fait un petit gif animé avec la couche bleue, en binning 2x2 ( je trouve que les différences sautent plus à l’œil en réduisant la taille) .
On voit nettement :
- une distorsion entre les deux stacks. Ca n'est pas facile à analyser quelle en est la raison ?
- un niveau de détails plus faible avec le stack ms qu'avec le stack sw. C'est sur la couche bleue que c'est le plus net. Celà est fortement amplifié si on applique un traitement d'accentuation.


Pourquoi les résultats sont-ils en 8 bits ? Il serait plus pertinent de fournir des .fit 16 bits pour comparer avec les résultats de Sylvain.

Francis

[Ce message a été modifié par Francis Adelving (Édité le 06-08-2015).]

Share this post


Link to post
Share on other sites
Bien vu Francis, j'ai un petit bug que je suis en train de corriger ... je poste une nouvelle image en fin de soirée.

Neb, pas de problème une fois ce bug corrigé, nous pourrons entrer dans les détails du recalage. Contrairement à RGX ou AS2, toutes les trames sont utilisées et elles sont toutes pratiquement de même qualité.

[Ce message a été modifié par ms (Édité le 06-08-2015).]

Share this post


Link to post
Share on other sites
quote:
Une petite analyse fréquentielle dont tu as le secret

Ce n'est pas un secret, Bernard, la chose est accessible gratuitement à tout un chacun et d'un usage très convivial.
Pour moi c'est un outil incomparable pour des mesures objectives et le bon dosage de l'accentuation, voir par exemple ce fil

Share this post


Link to post
Share on other sites
Je présume que ces deux images sont la synthèse RGB des empilements "intelligents" de 450 images brutes par couche respectivement par la méthode ms et RGX6 paramétré par sw.
Avant toute accentuation plus ou moins arbitraire, on peut penser que la restitution des structures fines mesurée en 2Dfft constitue une approche valable de la qualité des empilements.

Comparons tout d'abord visuellement un extrait des deux images :
.

Puis voyons les 2Dfft, ms en jaune et sw en rouge en zoom x 2 pour mieux voir :

Mon analyse des graphs (rappel : la fréquence spatiale est l'inverse de la période, une mire avec une alternance de pixels blancs et noirs possède une fréquence 0.5) est la suivante :
- pour 0.1 < Fs < 0.16, détails de l'ordre de 4 à 5 pixels, sw présente un très léger avantage valorisable visuellement à l'accentuation, je dirais que ça se voit déjà ci-dessus
- pour Fs > 0.2 la nette prédominance de ms demande à être validée, elle pourrait être en grande partie du bruit
- la décroissance plus progressive de sw entre 0.16 et 0.25 pourrait tourner à son avantage à l'accentuation.

Mais en pratique, il faut savoir que tout ce qui se passe en dessous de 80 db ne se voit pas !

On peut quand même faire une approche brutale en égalisant sw sur ms :
.

Et maintenant sw avant (G) et après égalisation (D) :
.

On est dans la subtilité...

C'est l'accentuation finale qui va créer une image plus réaliste, mais faute de modèle, qui sera dans le vrai pour le rendu ultime des détails fins ?
On avait déjà bien pinaillé sur la zone autour de l'oeuf au plat avec JLD dans ce fil dont IS a malheureusement évaporé mes images


Voici pour mémoire à quoi ressemble la 2Dfft (en gris) de l'accentuation faite en son temps par JLD, l'auteur des prises (en blanc, l'empilement sw, probablement très proche de celui de JLD):
.

D'où l'intérêt de mon film test sur la petite Juju HST pour l'évaluation de la véracité des détails...

Je rappelle pour ceux qui seraient tentés d'accentuer directement les comparatifs ci-dessus (comme je viens de le faire "en privé" donc sans publier les résultats) qu'il convient de travailler séparément les couches RGB avant synthèse !

[Ce message a été modifié par Nebulium (Édité le 07-08-2015).]

Share this post


Link to post
Share on other sites
Superbe, merci Jean de cette analyse bien plus pertinente que le PSNR (dont la forme mathématique montre qu'on peut lui faire dire tout et n'importe quoi sous certaines conditions d'applications), commentaire que j'avais déjà fait en page 2, et qui rejoignait les remarque de Christophe Pellier.

Sans en faire de quantification, il me semble que la registration par zone sur les gif de ms dans son message du 04/08/15 à 12h58 montrent les ovales de la zone tempérée sud (au dessus de la tache rouge), qui dansent la gigue sur plusieurs pixels dans l'axe du plan équatorial. Les zones polaires sont très affectée de ce mouvements sur ces gif, mais je peut me tromper. La robustesse des démons spectraux...

En terme de traitement fréquentiel du signal, en effet, le plateau de tes graphes constitue le plancher de bruit en deçà duquel il n'y a plus d'info exploitable. Le plancher sw 5 ou 6 dB en dessous du plancher ms montre des détails exploitables jusqu'à Fs <= 0.25 voire 0.28 (en ordre de grandeur, j'ai pas les curseurs sur tes courbes )

Reste donc encore du grain à moudre dans la maîtrise d'une "révolution" du traitement d'images.

J'espère ne pas avoir dit de bêtise, mais si s’était le cas, je suis sur que Francis corrigera...

Share this post


Link to post
Share on other sites
J'ai fais la même comparaison avec les deux nouveaux fichiers.

Je vous passe donc encore la comparaison, toujours pour la couche bleue, toujours en binning 2x2, mais cette fois-ci après avoir réalisé une accentuation par ondelettes ( sur l'image couleur d'origine, avec Iris, avec les coeff 1-1-6-11-11 ==> pas de double ondelette, un coeff sur les hautes fréquences relativement fort pour voir s'il y a du bruit gênant. Le but est de comparer rapidement, pas de réaliser le "meilleur" traitement).

Toujours un petit distorsion entre les deux.
Mais surtout toujours une différence nette de netteté (... sans jeux de mots ;-) ), nettement à l'avantage de sw : je ne pense pas que les détails en plus soient des artefacts.

Je te rejoints complètement Bernard ;-)

Il va quand même falloir que je me mette à l'analyse fréquentielle .... parce que j'ai quand même du mal à relier les courbes avec les images.... un peu comme les PSNR ;-

Francis

ms : je n'ai pas (encore ?) comparé les traitements du 6 et du 7.

Share this post


Link to post
Share on other sites
quote:
Le match va donc se poursuivre avec la révélation des détails fins, mais faute de modèle réel, on ne saura pas discerner les vrais des faux, aussi bien pour sw que pour ms

Ben si car je vais prendre la couche de ton choix (R, G ou B) et je passerai progressivement d'un modèle grossier (comme ceux postés plus haut) à un modèle fin.

Share this post


Link to post
Share on other sites
Hum, même si les détails fins ne sont pas inventés, comment être sûr qu'ils sont bien à leur vraie place ?
Déjà, quand on voit ci-dessus comment les couches B respirent ???
Tu ne voudrais certainement pas te mettre à dos les scientifiques qui t'ont déjà dans le collimateur !

[Ce message a été modifié par Nebulium (Édité le 08-08-2015).]

Share this post


Link to post
Share on other sites
quote:
Mais surtout toujours une différence nette de netteté (... sans jeux de mots ;-) ), nettement à l'avantage de sw : je ne pense pas que les détails en plus soient des artefacts.

Oui c'est une bonne chose de commencer par une couche (la bleu dans le cas présent) et de préciser un traitement de restauration facilement reproductible (ici ondelettes avec IRIS). Je vais voir en début de semaine d'où peuvent provenir ces différences puis je passerai à un modèle plus fin.

Share this post


Link to post
Share on other sites
quote:

Reste donc encore du grain à moudre dans la maîtrise d'une "révolution" du traitement d'images.

Au niveau des images brutes, il faudrait déjà s'entendre sur un critère d'estimation ou tout au moins de comparaison de qualité, sachant que pour chaque couche le niveau de bruit peut être considéré comme constant.

A. Wesley qui vient de sortir la mise à jour 3.1 de son Ninox (il devrait plaire à ms avec sa version Linux ) donne les indications suivantes :

-qestimator
-qestimator=min,max
Enables the quality estimation function. Every image that is processed will also be assessed for image quality, and a file named Quality.txt is written in the current directory at the end of the processing run which lists each output filename and it's computed quality.
The quality for an image is calculated by generating a series of downsampled images and summing the computed quality of each of those smaller images. This allows the algorithm to reject noise.

The series of downsampled images is controlled by the two parameters min and max. They represent the smallest and largest divisor that will be used to generate the downsampled images. All integer divisor values between min and max are used.

The default values are min=3 and max=5, leading to three downsampled images (divisors 3,4,5). You can adjust min and max to accommodate images that are much larger or smaller than normal.

The quality of each downsampled image is calculated by the sum of squares of differences between adjacent horizontal and vertical pixels. This exaggerates the differences and locates sharp gradients in the image, usually a sign of good quality. Only pixels which have values greater than the background level are considered (see -threshhold);

Note: The algorithm used here is the same as the gradient algorithm used in Registax, however the implementation used here in ninox allows the algorithm to be examined by the user (via -qwrite) and fine-tuned using the min and max parameters.

You may find it useful to use the quality estimation function of ninox to "pre-sort" all your frames so you can then select only those that are good enough to load into registax for alignment and stacking.

Sa méthode est un enrichissement de celle employée par RGX.
Je ne sais pas comment procède Emil dans AS2!, il faudrait lui demander

Share this post


Link to post
Share on other sites
quote:
A. Wesley qui vient de sortir la mise à jour 3.1 de son Ninox (il devrait plaire à ms avec sa version Linux )

C'est une application développée sous Linux en langage C (gcc) et Perl puis portée sous Windows grâce à MinGW (Minimalist GNU for Windows).
Ceux qui veulent créer les exécutables 'ninox' et 'videoshow' directement sous linux doivent installer au préalable le paquet SDL2 (libsdl2-dev) avant de lancer la commande 'make'.

quote:
You may find it useful to use the quality estimation function of ninox to "pre-sort" all your frames so you can then select only those that are good enough to load into registax for alignment and stacking.

Je vais faire un essai sur les 100 premières trames de la couche bleue :
a) en conservant toutes les trame,
b) en conservant les 75 meilleures trames,
c) en conservant les 50 meilleures trames,
d) en conservant les 25 meilleures trames.

Share this post


Link to post
Share on other sites
quote:
Au niveau des images brutes, il faudrait déjà s'entendre sur un critère d'estimation ou tout au moins de comparaison de qualité, sachant que pour chaque couche le niveau de bruit peut être considéré comme constant.

Ben l'analyse fréquentielle est faite pour cela, en exprimant la présence de détails de différentes dimensions (chose que ne peut faire le PSNR, vu qu'il ne s'agit que de faire une comparaison pixels à pixels aux même coordonnées de l'écart type sur les niveaux d'intensité, ce qui n'a aucun intérêt dans la problématique qui nous occupe.
L'approche de Wesley est super intéressante car après downsampling, le calcul de l'écart type entre pixels adjacents horizontaux et verticaux permet une estimation de l'apparition de détails au voisinage de la limite d'échantillonnage de Shannon sans faire de transformée de Fourier...
En clair, on a une information directe sur l'apparition des détails de dimension la plus fine, ce qui représente bien en soi un critère des images brutes.
C'est plutôt malin...

Share this post


Link to post
Share on other sites
Après correction d'un gros bug, je peux afficher la manip de Francis (avec seulement les 100 premières trames avec ondelettes 1-1-8-1-1 IRIS sous Wine) :

L'algorithme utilisé permet de garder 100% des trames ce qui évite de se poser le problème (inutile) de la qualité des brutes.

Pour ceux qui souhaitent refaire la manip à partir des sorties du recalage :
http://www.dropbox.com/s/tmm6pq3zl496mej/msB.png?dl=1
http://www.dropbox.com/s/jhp9c45yj7337ve/swB.png?dl=1

L'optimum est obtenu avec les 453 trames mais l'écart en terme de PSNR ou de SSIM reste faible.

[Ce message a été modifié par ms (Édité le 11-08-2015).]

Share this post


Link to post
Share on other sites
Yapafoto, ms est passé en tête !

Sûr qu'il y a du potentiel
.

Tu nous fais les R et G ?

[Ce message a été modifié par Nebulium (Édité le 10-08-2015).]

Share this post


Link to post
Share on other sites
Il est encore possible d'aller un peu plus loin dans le traitement des hautes fréquences mais il ne faut pas vendre la peau de l'ours ...

Oui, je vais faire les couches R et G puis après on verra ce que ça donne avec une grille plus fine à la limite de la segmentation.

[Ce message a été modifié par ms (Édité le 10-08-2015).]

Share this post


Link to post
Share on other sites
quote:
un peu plus loin dans le traitement des hautes fréquences

Lever le coude n'a jamais fait de mal à personne !

Share this post


Link to post
Share on other sites
Je ne sais pas ce qui se passe ici car vraiment suis largué.
Des fois je me demande si l'on tourne en rond définitivement et parfois je me dis que se préparent de grandes choses !

Lucien

Share this post


Link to post
Share on other sites
La couche R (les 100 premières trames avec ondelettes 1-1-10-1-1 IRIS sous Wine) :

La couche G (les 100 premières trames avec ondelettes 1-1-10-1-1 IRIS sous Wine) :

La couche B (les 100 premières trames avec ondelettes 1-1-8-1-1 IRIS sous Wine) :

L'image couleur avec les 3 couches ci-dessus :

Ben voilà, mon système de vidéo assistée est presque au point. Avec 4,5 fois moins de trames, j'obtiens en 1s une image "regardable" de Jupiter. C'est peut-être pas une révolution (pour répondre à certains) mais ça me convient pleinement.

PS : je pense que les petites contractions de la planète sont un effet de bord de la méthode "multipoints" utilisée par RGX mais aussi par AS2. C'est vérifiable en croisant avec d'autres méthodes de recalage (DT-CWT, Optical Flow, PCA, ...).

quote:
Des fois je me demande si l'on tourne en rond définitivement et parfois je me dis que se préparent de grandes choses !

Ce problème là est passé complètement inaperçu et pourtant c'est celui qui ouvre la porte au traitement d'images très turbulentes :

[Ce message a été modifié par ms (Édité le 11-08-2015).]

Share this post


Link to post
Share on other sites
quote:
Je ne sais pas ce qui se passe ici car vraiment suis largué.

Lucien, j'avais écrit plus haut :

"L'objectif de ce fil était de voir si les techniques de super résolution feraient gagner sur les méthodes courantes pour un film déjà exceptionnel à tous points de vue. Donc attendons la fin de ce travail.

On a dérivé, et pour moi c'est une bonne chose, vers l'utilisation de ces techniques sur les films de l'astram de base réalisés dans des conditions qui n'ont rien à voir avec celles du Pic.

Je pense que c'est cet aspect qui devrait intéresser un maximum de gens au plus haut point, alors patientons encore un peu et voyons"

quote:
Ben voilà, mon système de vidéo assistée est presque au point.

- En soi, ce serait un progrès.
Reste à vérifier ce que ça donnera chez l'astram typique, dans des conditions "normales", comparé à la vision à l'oculaire.

- Pour l'imagerie en super-résolution, j'aimerais bien pouvoir jouer avec les empilements RGB à la sauce ms non accentués.
En corollaire, j'attends toujours ma petite Juju HST régénérée


quote:
je pense que les petites contractions de la planète sont un effet de bord de la méthode "multipoints"

C'est le problème des détails qui peuvent ainsi se trouver un peu déplacés.
Ne pourrait-on pas déjà envisager un morphing vers le gabarit théorique du globe pour réduire cet effet ?

[Ce message a été modifié par Nebulium (Édité le 11-08-2015).]

Share this post


Link to post
Share on other sites
Je les avais oubliées celles-là :
http://www.dropbox.com/s/rctrz23uimdygfd/msR.png?dl=1
http://www.dropbox.com/s/xdhwovifkye9bv6/msG.png?dl=1
http://www.dropbox.com/s/tmm6pq3zl496mej/msB.png?dl=1

Pour une image HR, il faut faire plus fin (approche 'coarse-to-fine' comme diraient les anglos-saxons) et travailler avec les 453 trames et non la première centaine. Je suis en train de compléter mon système de vidéo assistée avec la possibilité de construire une image de plus en plus fine en cours d'observation histoire d'avoir 2 systèmes en un.

quote:
En corollaire, j'attends toujours ma petite Juju HST régénérée

Ta petite Juju HST régénérée c'est un peu comme le damier ci-dessus, il faut en plus recaler en présence d'un bruit important. J'ai aussi bien avancé dans la modélisation du mouvement, du flou et du bruit pour créer des images turbulentes réalistes. Je vais donc pouvoir m'en occuper rapidement.

Share this post


Link to post
Share on other sites
quote:
Ne pourrait-on pas déjà envisager un morphing vers le gabarit théorique du globe pour réduire cet effet ?

L'avantage d'avoir plusieurs chemins (dans le labyrinthe) pour un même problème de recalage, de restauration, d'interpolation ou de fusion.
Je vais faire la même manip de recalage avec 2 autres algorithmes très différents.

Share this post


Link to post
Share on other sites
Je viens de traiter les 100 premières trames de la couche B avec 2 autres méthodes de recalage différentes et je n'ai pas l'anomalie constatée avec la méthode multipoints (RGX et AS2) :

[Ce message a été modifié par ms (Édité le 11-08-2015).]

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this