Nebulium

Jupiter au T 1m du Pic. 2010. Le retour.

Messages recommandés

Continue, continue ms ....

j'ai pas encore fini d' analyser/comparer tes images mais je crois y avoir enfin détecté ce que j'attendais depuis longtemps.....

Courage !

Mais que cela ne t'éloigne pas d'une démarche rigoureuse..... ;-)

Francis

Partager ce message


Lien à poster
Partager sur d’autres sites
Francis, tu devrais jeter un œil au dernier post de la page précédente, j'ai recalé les 100 premières images de la couche bleue avec 3 algorithmes différents (le labyrinthe a du bon) :
a) msB1.png et msB2.png sont pratiquement identiques,
b) msB3.png est de moins bonne qualité mais reste aligné avec les 2 autres.

Du coup, j'ai fabriqué un gif animé avec les 14 images qui utilisent RGX et AS2 (je l'ai réduit de 50%) ... dans le lot, il y a bien sûr celle de SW qui s'aligne parfaitement avec les autres :

ça donne quoi l'analyse fréquentielle d'une image mal recalée ?

[Ce message a été modifié par ms (Édité le 11-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
J'ai vu, j'ai vu ms.... c'est d'ailleurs la raison de mon précédent message ;-)

Je poursuis le même genre de tests, mais en empruntant une voie différente...

Partager ce message


Lien à poster
Partager sur d’autres sites
Eh ben 6 mois que l'on attend des résultats et ça commence à causer maintenant. C'est encourageant.
Ce qui serait intéressant c'est l'identification des images sur ton dernier post...

Reste à publier ton code, comme tu l'a déjà annoncé maintes fois, pour faire travailler l'amateur lambda (il y en a un paquet sous linux).

quote:
ça donne quoi l'analyse fréquentielle d'une image mal recalée ?

T'es sérieux ou faut que je te fasse un cours ?!

Partager ce message


Lien à poster
Partager sur d’autres sites
J'ai passé le gif dans Vdub pour voir les images une par une, numérotées de 0 à 13 donc estimation sans préjugés, on ne sait pas laquelle est à qui.
Quelques rapides remarques :
Il y a des crâmées, des manques de dynamique.
2 ou 3 auraient du potentiel en résolution si elles n'étaient pas dégradées par la palettisation gif, il faudrait une planche PNG en côte à côte.

quote:
ça donne quoi l'analyse fréquentielle d'une image mal recalée ?

Tu veux dire avec les couches RGB mal superposées ? Alors, décalage de combien de pixels ?
Je n'ai jamais regardé de près si FW utilisait la luminance pour les images couleur.
Je ferai un test ce soir avec l'image finale SW :
trichrome RGB, monochromes R, G, B , L

Partager ce message


Lien à poster
Partager sur d’autres sites
Images png sous 'jup_PdM' :
- msR1, msG1, msB1 (algo de recalage basé sur le flot optique),
- msR2, msG2, msB2 (algo de recalage basé sur l'analyse en composantes principales).

Ce deuxième algorithme sera utilisé pour traiter les vidéos de Neb toutes bruitées et toutes tordues.

Ce serait intéressant de comparer les images RGB obtenues avec ces 2 algos avec seulement 100 trames avant de passer à la totalité des trames.

Je crée un répertoire 'jup_PdM' sous ma Dropbox :

http://www.dropbox.com/sh/w1f9rhcfkmvn9ge/AAB1XkFBfFr0wLphajxYnbhba?dl=1

quote:
Reste à publier ton code, comme tu l'a déjà annoncé maintes fois, pour faire travailler l'amateur lambda (il y en a un paquet sous linux).

Au départ, je voulais faire cela en langage Julia mais le projet Julia manque encore de maturité alors je suis revenu au bon vieux langage C avec un peu de Bourne Shell. Je ferais une version linux (toutes les librairies sont déjà présentes ou facilement instalables) et une version windows via la boite à outils MinGW 64bit.

[Ce message a été modifié par ms (Édité le 11-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Voici les mesures annoncées :
.

Il apparaît que les 5 réponses (ici superposées) sont très proches.
Celle qui se distingue un poil au-dessus autour de 0.23 et 0.45 est la R.

J'ai ensuite décalé la R et la B chacune de 2 pixels en diagonale de part et d'autre de la G, puis resynthétisé la RGB et comparé les luminances pour mieux voir les détails.
A vrai dire, la baisse de netteté saute pas aux yeux, mais les 2Dfft elles causent, elles :
.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Tu veux dire avec les couches RGB mal superposées ? Alors, décalage de combien de pixels ?

Je veux dire que le problème ce n'est pas l'analyse fréquentielle ou le PSNR ou autre, c'est la méthode de recalage utilisée par RGX et AS2 qui donne un résultat approximatif pour ne pas dire faux. On ne peut comparer que ce qui est comparable comme dans l'exemple que je donne à la fin de la page 5 (msB1, msB2, msB3). Après si ça ne vous dérange pas plus que ça d'utiliser des logiciels qui donnent des résultats faux, c'est votre problème après tout.

Partager ce message


Lien à poster
Partager sur d’autres sites
Images png sous 'JupH' (le fichier 'JupH_RGBseq.avi') :
- jupR1, jupG1, jupB1 (algo de recalage basé sur le flot optique),
- jupR2, jupG2, jupB2 (algo de recalage basé sur l'analyse en composantes principales).
http://www.dropbox.com/sh/k70ai069prwbkxj/AAAy6OtLA7Ii39F6gY1D54mBa?dl=1

Les 2 algos donnent à peu près le même résultat, c'est la rapidité qui peut les départager (par exemple leur passage sous OpenMP avec GCC4 puis sous OpenACC avec GCC5).

Le disque de jupiter fait une légère pointe, dans la réalité c'est peut probable que ce type de défaut se reproduise sur la majorité des trames. Avec un flou pratiquement constant, les déformations de la planète devraient ressembler plutôt à cela :

C'est sur ce genre de vidéo qu'il faudrait faire agir un flou non constant et différents types de bruits pour pouvoir simuler différentes conditions de turbulence. Résoudre le problème inverse c'est bien mais simuler le modèle de dégradation c'est mieux parce que tu as alors accès à l'image de référence.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
le fichier 'JupH_RGBseq.avi

Tout vient à point à qui sait attendre, merci
Je regarde ce soir.

quote:
ça donne quoi l'analyse fréquentielle d'une image mal recalée ?

En fait tu parlais des recalages locaux, donc rien à voir avec ce que j'ai fait ci-dessus.

quote:
Après si ça ne vous dérange pas plus que ça d'utiliser des logiciels qui donnent des résultats faux, c'est votre problème après tout

Levé du pied gauche, ce matin ?

Sûr que pour un scientifique, c'est dérangeant. Sinon, si les résultats sont plaisants sans tricherie, pourquoi pas ?

quote:
simuler le modèle de dégradation c'est mieux parce que tu as alors accès à l'image de référence.

Ben tiens ! J'ai déjà lu ça quelque part

quote:
un flou non constant et différents types de bruits

J'ai de quoi fabriquer deux flous différents disposés en peau de panthère aléatoire, et c'est réitérable.
Pour le bruit, j'ai de quoi cloner un authentique bruit de caméra en mode multiplicatif (plus réaliste) ou additif.
Tu as tout ça disponible depuis plus de trois mois !

[Ce message a été modifié par Nebulium (Édité le 12-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Résoudre le problème inverse c'est bien mais simuler le modèle de dégradation c'est mieux parce que tu as alors accès à l'image de référence.

ah, il est moins mal posé le problème inverse alors (mdr) ?

Le retour de l'image de référence (merci Neb et Francis d'avoir levé le lièvre) !! on reviens en page 2 de ce post ! excellent, ça fini par renter

je te cite ms, message du 02/04 à 18h13 : "Après, il n'y a plus d'image de référence et c'est là que j'applique la méthode à mimile"

On deviendrais raisonnable en revenant sur l'image de référence ?

Pour redevenir sérieux, ms, dans un process de validation techniquement rigoureux, comme le souligne Francis, il faut une vidéo de test telle que celle qu'a proposé Jean (Neb) au cours des premières pages de ce post. Une modélisation contrôlée du processus de dégradation de l'image de référence, en tenant compte des phénomènes physiques réels que tu semble avoir des difficultés à maîtriser pleinement, et une vérification par seuils de la restauration.

Affirmer, je te cite,

quote:
Après si ça ne vous dérange pas plus que ça d'utiliser des logiciels qui donnent des résultats faux, c'est votre problème après tout

est non content d'être simplement présomptueux, voir prétentieux, purement irrecevable du point de vue scientifique... C'est à toi de faire la démonstration que ton approche est primo, recevable, secondo vraisemblable, tertio, scientifiquement vérifiable, et non l'inverse comme tu le suggère.

Je suis persuadé que pas mal d'imageurs planétaires amateurs de renoms (collaborant de facto avec le pros, j'ai quelques noms en tête....) sont attentifs à tes travaux. Il va de soi par contre que ce n'est pas sur ta bonne foi que l'on peut remettre en question des traitements d'images éprouvés, et que certains pro (je donnerai les noms en privés pour ceux que ça intéresse ) utilisent pour faire des choses sérieuses en planétologie.
A toi d'en faire la démonstration, point barre. Du point de vue fréquentiel, il semble y avoir un embryon de résultats mais comme je l'ai dit plus haut, reste du boulot...

Quant tu parle de l'insuffisance de l'analyse fréquentielle pour les recalages locaux (avec une certaine pointe d'ironie, à la limite du politiquement correct), je te ferai remarquer qu'une analyse fréquentielle complète (utilisant la transformée de Fourier complexe comme on peut la trouver dans Iris, Registax ou AS2) comporte par zone un terme de fréquence (comme celui que maîtrise bien Neb, c'est en résumé le gain d'un diagramme de Bode pour trouver une analogie d'électronicien), ainsi qu'un terme de phase. C'est dans ce dernier terme que tu retrouve la composante correspondant aux problèmes de recalage par zones. C'est marrant car c'est ce que l'on trouve justement dans la publication que tu citait sur les "démons spectraux", qui te sont si chers pour les recalages zonaux.
Autrement dit, inutile de plonger dans une descriptions absconse pour le commun des astram (pardons d'ailleurs a ceux qui liront ces lignes plutôt techniques), ce qui importe c'est de démontrer que ton code amène véritablement un plus par rapport a ce qui se fait, et qui est déjà techniquement très très performant. Qu'importe que ce soit du C ou du Julia, on s'en cogne. Si cela fait correctement el boulot, c'est l'essentiel.

Comme le dit Neb :

quote:
si les résultats sont plaisants sans tricherie, pourquoi pas

Mais c'est a toi qu'appartient d'en faire la démonstrations...

Et franchement ces derniers gif me semblent intéressants.

Bernard


[Ce message a été modifié par brizhell (Édité le 12-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bon, le miracle attendu ne s'est pas produit

J'ai synthétisé le résultat ms1 de JupH (le ms2, à faire, me paraît du même tabac) et procédé à une accentuation complémentaire musclée, comme pour Polo en bas de la p 3.
.

1 2 3

1 : référence
2 : Polo + Neb
3 : ms1 + Neb

Si les hautes lumières semblent un peu moins tassées, les détails de la "super-résolution" ne sont pas au rendez-vous .
Peut-être est-ce dû au fait qu'il n'existe dans le film aucune image nette, même partiellement ...

[Ce message a été modifié par Nebulium (Édité le 12-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Pour que le miracle se produise, il te faudrait déjà produire une juju comme celle affichée dans mon post de 10h47 avec éventuellement un peu plus de flou et de bruit.

Je n'aime pas trop la tournure que prend ce post aussi je vais en rester là.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
il te faudrait déjà produire une juju comme celle affichée dans mon post de 10h47 avec éventuellement un peu plus de flou et de bruit

OK, pour cela, j'ai besoin de ton avi sans pertes agité et déformé.

Partager ce message


Lien à poster
Partager sur d’autres sites
AS2 70% des images, ondelettes.

[Ce message a été modifié par michelR (Édité le 15-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Le fichier de Christophe Pellier (JLRGB20120919-042455911.ser) contient 3000 images brutes. Le jeu consiste à extraire un maximum de détails de toutes les images brutes puis de les fusionner pour obtenir une image de référence.

Dans un premier temps, les 3000 images sont dégauchies.
Puis différentes régions sont explorées pour en extraire des détails de plus en plus fins, les pièces ainsi obtenues sont défloutées et débruitées puis assemblées pour former une image de référence.

Cette approche est concurrente de celle de vidéo assistée décrite quelques posts plus haut.

[Ce message a été modifié par ms (Édité le 15-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Le fichier de Christophe Pellier (JLRGB20120919-042455911.ser)

Et on le trouve où, ce fichier?

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci ms, j'irai récupérer ce zip à une prochaine occasion.
J'ai chargé ton gif et je l'ai comparé au "Jup_20150312_QHY5LII_205644_23A.ser" en 3000 images publié en son temps par Patry, dont j'avais cloné l'agitation (pour mémoire, Patry m'a fait un "flat" gris avec les mêmes réglages pour en cloner le bruit).
Hormis un contraste différent hors de l'objet de nos préoccupations, ton gif présente une agitation équivalente quoique moins nerveuse, moins de bruit mais surtout un floutage plus uniforme :
Il ne montre pas les éclairs de netteté bien connus en visuel que l'on perçoit çà et là dans le film de Patry.
Si c'est une synthèse, elle est à peaufiner, si c'est du bio, les conditions étaient moyennes et relativement stables pendant la séquence.
Je ferai la même comparaison avec le film de CP

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci ms, j'irai récupérer ce zip à une prochaine occasion.
J'ai chargé ton gif et je l'ai comparé au "Jup_20150312_QHY5LII_205644_23A.ser" en 3000 images publié en son temps par Patry, dont j'avais cloné l'agitation (pour mémoire, Patry m'a fait un "flat" gris avec les mêmes réglages pour en cloner le bruit).
Hormis un contraste différent hors de l'objet de nos préoccupations, ton gif présente une agitation équivalente quoique moins nerveuse, moins de bruit mais surtout un floutage plus uniforme :
Il ne montre pas les éclairs de netteté bien connus en visuel que l'on perçoit çà et là dans le film de Patry.
Si c'est une synthèse, elle est à peaufiner, si c'est du bio, les conditions étaient moyennes et relativement stables pendant la séquence.
Je ferai la même comparaison avec le film de CP

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Il ne montre pas les éclairs de netteté bien connus en visuel que l'on perçoit çà et là dans le film de Patry.

Je n'ai plus ce film. Où puis-je le récupérer ?
J'ai posté ce film parce qu'il se situe entre ta juju HST et le film de Patry. Entre temps j'ai résolu le problème de bosse qui me dérangeait sur ta juju HST en rendant la méthode de recalage plus 'intelligente'. Ce nouvel algorithme utilise une structure pyramidale comme celle représentée à la figure 3 de l'article suivant :

http://www.bmva.org/bmvc/2014/files/paper106.pdf

Cette dernière approche (DNN Flow) pourrait être la réponse aux cas où les images brutes sont particulièrement pourries. Les approches courantes (Optical Flow, PCA, DT-CWT) sont suffisantes la plupart du temps.

PS : pour le guidage d'image (comme celui que tu utilises avec Fistwork), l'algorithme de fusion GFF (Guided Filter Fusion) donne de très bons résultats.

[Ce message a été modifié par ms (Édité le 17-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Je n'ai plus ce film. Où puis-je le récupérer ?

Je l'ai ici dans ma bécane, mais le fichier fait 1 Go, trop gros pour le petit débit montant du Wifi de montagne que je vais squatter de temps en temps.
Tu l'auras dans une dizaine de jours.

Le débit descendant n'est pas fameux non plus, le film de CP fait 500 Mo, je vais devoir aussi attendre mon retour pour le récupérer,

quote:
PS : pour le guidage d'image (comme celui que tu utilises avec Fistwork)...

Je ne comprends pas ce que tu veux dire par ce "guidage" ???

Partager ce message


Lien à poster
Partager sur d’autres sites
J'ai intégré les 450 images du Pic et j'en ai profité pour faire un traitement entièrement automatique (dégauchissage + défloutage + débruitage).
Sur l'image, il y a toujours une petite contraction (problème de recalage avec RGX ?).
Sur la courbe, tout se passe comme si SW avait utilisé plus de trames alors qu'en principe vous avez plutôt tendance à en jeter. J'opte plutôt pour le fait qu'il y a moins de trames mais une image PNG en 16 bits alors que la mienne n'est qu'en 8 bits (pour du visuel assisté 8 bits suffisent).

Les images obtenues :
http://www.dropbox.com/s/3wlit8099jooglw/jup_ms1.png?dl=1
http://www.dropbox.com/s/yfkyl013jj9m9u6/jup_sw1.png?dl=1

[Ce message a été modifié par ms (Édité le 18-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant