ValereL

Traitement planétaire : finesse ou pas finesse ? ( + sondage )

Messages recommandés

Dans la vidéo correspondant à t5, le fond qui est fixe correspond aux images qui nous intéressent et les parties mobiles à tous les objets que seront supprimés lors de la fusion des images de la vidéo. Si tu traites cette vidéo et que tu la compares avec d'autres méthodes, tu seras surpris du nombre de Minimoys qui circulent dans les bandes nuageuse d'une image faite par la technique multipoints d'AS2 ou similaire. Après chacun fait comme bon lui semble, il n'y a pas mort d'homme après tout.

[Ce message a été modifié par ms (Édité le 15-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Et c'est pour cette raison que je reviens à la Lune dans ces propos.

=> Lucien

A propos de cet usage de la Lune, avais-tu vu ce fil ?

L'entrée du labyrinthe...

[Ce message a été modifié par Nebulium (Édité le 15-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Tiens puisque tu parles du labyrinthe, je viens d'essayer un autre chemin qui me donne des images de la vidéo t4 de meilleure qualité (image réalisée à partir de 30 images brutes) :

Et la vidéo t4 à l'air plus clean :

Prochaine étape, un petit essai avec 480 images (10%).

[Ce message a été modifié par ms (Édité le 16-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Un petit essai avec 480 images (10%) avec 3 filtrages différents :

qui sera suivi d'un essai avec 3x480 images (30%) puis d'un autre avec 5x480 images (50%) puis d'un autre avec 7x480 images (70%) puis d'un autre avec 9x480 images (90%) suivant le même principe que Lena ci-dessous pour obtenir une image 3x :

PS : déjà avec 480 images (10%), on se rapproche de ce qui se fait aujourd'hui, reste à voir ce que cela donnera avec 30, 50, 70 et 90%.

[Ce message a été modifié par ms (Édité le 17-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Dans mes traitements j'essaie de conserver autour de 600 images ce qui permet d'appliquer un filtrage sans trop de problèmes (bruit).
Parfois cela peut être plus (Jupiter, Saturne), ou moins (la lune essentiellement).
Là pour ce traitement je ne sais plus trop peut être un peu plus car les conditions étaient "au dessus de la normale" donc j'en ai profité.
On devrais donc arriver au même niveau avec 20% (960 images) environ.

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
En parlant de filtrage, quelle image ci-dessus vous semble la plus représentative ?

Par la suite, je ferais évoluer la super résolution (type Lena ci-dessus) vers le modèle ci-dessous mais en multi-frames parce que j'utilise déjà K-SVD au niveau du traitement du bruit :

quote:
On devrais donc arriver au même niveau avec 20% (960 images) environ.

Oui ou avec l'algorithme ci-dessus en single-frame mais là les images risquent de ressembler plus à du Hubble vu l'apprentissage qui sera réalisé.

Par contre, ne perdrais-tu pas des détails au niveau du limbe et des pôles ? Comment expliquer cela ?
Entre une approche par un flot optique dense et un multi-point qui ne peut pas aller partout puisqu'il n'est pas dense, je crois qu'il n'y a pas photo :

Pas très top AS2 et similaire dans les basses fréquences, non ?

D'une façon générale, quand je regarde toutes les jujus postées sur ce forum, ben elles ont toutes ce problème.

[Ce message a été modifié par ms (Édité le 17-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Par contre, ne perdrais-tu pas des détails au niveau du limbe et des pôles ? Comment expliquer cela ?

Le filtre de luminance utilisé par Marc ici permet de reproduire l'assombrissement des limbes est et ouest dû à une plus grande épaisseur des couches superficielles de l'atmosphère (vues par la tranche), ainsi que, en partie, les voiles présents au-dessus des pôles ; c'est ça qui explique la perte de détail et pas le multipoint. Ces voiles sont aussi des détails réels et le traitement doit les faire apparaître, non pas les faire disparaître . Autrement dit, la perte d'information à cet endroit est une réalité compte tenu des longueurs d'onde enregistrées.
Sur le traitement par "flot optique dense" ce que l'on voit apparaître à de grandes chances d'être des artefacts. Il n'y a que l'oval à l'extrême bord nord (en bas) qui pourrait être réel. C'est impossible à dire sur une seule image. Là il nous faudrait soit une animation à la VL, soit une prise de vue en rouge/infrarouge qui permet justement de passer ces brumes d'altitude.
Ms, je dis toujours que pour être un (très) bon photographe planétaire il faut disposer de connaissances sur la planète elle-même. Quand on va en profondeur dans l'analyse comme tu le fais, on ne peut pas s'en passer sinon comment savoir démêler le vrai du faux ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Oui mais la planète tourne et de ce fait le flot optique capte les détails qui se trouvaient dans la brume. Une photo n'est qu'un instantané et il faut utiliser la vidéo assistée pour voir la planète sous un jour plus réaliste (d'où l'idée de créer l'image haute résolution à partir de la vidéo assistée).

L'artefact a bon dos, j'utilise justement une décomposition en petits groupes de 30 images contiguës pour identifier ces artefacts qui sont mobiles alors que le fond recalé reste fixe. Par contre ce qui est une évidence c'est que le multipoint ne pourra jamais rivaliser avec les approches dites denses, il suffit de regarder vers quoi tendent les recherches actuelles pour comprendre cela.

Partager ce message


Lien à poster
Partager sur d’autres sites
Ok, moi je n'y connais rien dans ces recherches actuelles, donc là-dessus je te fais confiance hein
Par contre je connais bien la planète et honnêtement ce traitement pour moi ne retranscrit pas bien sa réalité. Au niveau global, on a aussi perdu le gradient de luminosité entre le centre et les bords...
Avant de valider ce type de méthode il va falloir faire des tests de réalisme (ça vaut pour n'importe quel type de traitement). Ce sont ceux dont je parlais plus haut, c'est simple à faire, on a des moyens de contrôle.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Au niveau global, on a aussi perdu le gradient de luminosité entre le centre et les bords...

Exact, je vais supprimer l'égalisation d'histogramme qui est responsable de cela.

Voilà tout est mis à jour y compris l'animation.

[Ce message a été modifié par ms (Édité le 17-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
ms :

5 messages plus haut tu expliques que tu utili(ses/)seras la méthode K-SVD pour la SR. Il ne t'as pas échappé que cette méthode repose sur l'utilisation d'un dictionnaire acquis par apprentissage, et ceci à partir d'images d'images de référence.

Où vas-tu trouver tes images de référence ? Ou, dis autrement, quelle procédure proposes-tu pour acquérir, traiter, ... ces images de référence ?

Francis

PS :pénible que le forum ne permette pas de souligner du texte ....

[Ce message a été modifié par Francis Adelving (Édité le 17-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Hello

Chuis un peu largué dans tout ça
Ça n'avance pas vite, malgré la fuite en avant...

quote:
"utilisation d'un dictionnaire acquis par apprentissage, et ceci à partir d'images d'images de référence."

Où vas-tu trouver tes images de référence ?


Je pense naïvement que des images comme la NH qui traîne plus haut pourraient servir dans la construction du dictionnaire (sous toutes réserves quant à l'authenticité des détails fins).
J'utilise ce principe avec les 2Dfft, en veillant à décrocher du côté des fréquences élevées quand le bruit apparaît.

Un exemple vite fait, à partir de l'image traitée (assez arbitrairement, il faut le dire, car sans référence citée, pour moi déjà trop contrastée pour une R) par ms puis Lucien publiée p 4, à gauche ci-dessous et de la NH directement réduite, à droite.
Au centre le résultat :
.

Le graph en bas à gauche montre en jaune la 2Dfft de Lucien, en blanc la NH.

Le graph à droite montre en blanc la 2Dfft de Lucien, en rouge la correction taillée à la main pour obtenir le résultat central en haut.


quote:
PS :pénible que le forum ne permette pas de souligner du texte ....

Si Françis

En effet, les balises [u] et [/u] ne marchent pas.
Mais tu peux mettre un texte vers un lien bidon, essaie d'éditer ce message pour voir comment faire.


[Ce message a été modifié par Nebulium (Édité le 17-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
J'utilise déjà K-SVD pour traiter le bruit.
Il y a 3 façons de choisir le dictionnaire initial :
a) prendre aléatoirement des patchs dans une image de référence sans bruit,
b) prendre aléatoirement des patchs dans la version non bruitée de l'image étudiée (pas facile à moins d'aller faire un tour sur Jupiter),
c) prendre aléatoirement des patchs dans l'image étudiée qui est bruitée.

Contrairement à ce que l'on pourrait penser, c'est cette dernière méthode qui donne les meilleurs résultats quand le bruit augmente. Dans tous les cas le choix d'une image de référence n'est pas très judicieux pour dé-bruiter avec cet algorithme.

Pour rendre les images plus fines, je peux donc prendre aléatoirement des patchs dans les images étudiées une fois qu'elles sont dé-bruitées.

quote:
Je pense naïvement que des images comme la NH qui traîne plus haut pourraient servir dans la construction du dictionnaire

Je me sers de ces images pour faire des tests mais il est aussi possible d'extraire de ces images des patchs. Pour le traitement du bruit c'est pas judicieux et pour rendre les images plus fines cela reste à voir.

La prochaine étape c'est faire le même test qu'avec Lena mais avec 3, 5, 7 et 9 images en entrée et une image x3 en sortie. Et là j'ai déjà un algorithme qui tourne mais il est moins souple que celui que je veux développer pour le remplacer.

[Ce message a été modifié par ms (Édité le 17-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Le graph à droite montre en blanc la 2Dfft de Lucien, en rouge la correction taillée à la main pour obtenir le résultat central en haut.

Tu peux approcher du look HST avec ce type de filtre mais pour avoir une représentation précise, il faut pouvoir établir une correspondance entre les patchs LR (4x4) et HR (8x8) comme dans la figure suivante (Double Sparse Multi-Frame Image Super Resolution - T.Kato) :

On retrouve bien ta remarque relative à l'aspect visuel d'une image réduite à 50%. En fait, il faut l'aspect de l'image de Marc ou d'une image faite avec 960 images mais avec une image 960x960 ou encore mieux 1440x1440.

Je crois que la bonne démarche c'est déjà de s'occuper des détails et de filtrer les artefacts puis de représenter l'image avec un meilleur rendu visuel.

[Ce message a été modifié par ms (Édité le 18-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
J'ai refait la manip d'égalisation des 2Dfft en rajoutant le traitement de Marc en p 4

Donc :
- Au centre, la NH réduite Lanczos3 sans post accentuation
- A gauche, Marc, traitement classique
- A droite, ms complété par Lucien (Pandora ?)
.

[Edit] L'image NH a été pivotée de 180° pour respecter l'orientation des pôles.[/Edit]

Pour la comparaison G / D, yafoto, heureusement
Qui va voter pour qui ?

[Ce message a été modifié par Nebulium (Édité le 18-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Le traitement original de Marc est toujours meilleur. Les tous petits détails sont correctement rendus, ce qui n'est pas le cas de la version ms/Lucien...
Quand à l'image du centre, étant différente on ne peut pas la comparer (et en plus elle n'est pas orientée de la même façon, tu devrais la faire tourner de 180°)

Partager ce message


Lien à poster
Partager sur d’autres sites
Moi si j'osais je voterais pour celle du milieu évidemment.
Mais je préfère quand même celle de gauche pour ses détails. Coté contraste c'est plus délicat avec deux approches subtilement différentes.

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
Nébulium :
Merci. Tu es génial ! Mais tu le savais déjà ;-)

quote:
Pour la comparaison G / D, yafoto, heureusement

Pour moi, yapaphoto. La G, sans conteste : des pôles bien plus détaillés, des WOS plus contrastées (comme sur NH) et, globalement, des détails moins empâtés.

ms :

quote:
J'utilise déjà K-SVD pour traiter le bruit.
Il y a 3 façons de choisir le dictionnaire initial :
...
c) prendre aléatoirement des patchs dans l'image étudiée qui est bruitée.


Je suis assez d'accord. Et c'est d'ailleurs ce qui est actuellement utilisé, par exemple, en astronomie pour débruiter des images par représentation creuse avec la méthode CDL ( centered dictionary learning), bien que le choix ne soit pas purement aléatoire, loin de là ( il est aléatoire pour initialiser le dictionnaire, puis ensuite celui-ci est mis à jour en fonction de l'utilisation des patchs pour le codage de l'image !

Par contre je suis beaucoup moins sur que cela peut être utilisé pour un algorithme de super résolution.....

Francis

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci pour vos retours, on est tous d'accord pour l'instant !

quote:
tu devrais la faire tourner de 180°

Merci Christophe, voilà qui est fait !
J'ai été abusé par la courbure des bandes.
Ce problème d'orientation s'était déjà posé avec la HST et la T1m du Pic.
Mais quand la GTR est présente, yapafoto !

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut les gars, j'peux t'y venir voter dans mon post ?
Toujours celle de Marc naturellement, c'est elle la super résolue.

[Ce message a été modifié par VL (Édité le 18-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Mais oui, VL, tu es le bienvenu chez toi !

Si seulement tu pouvais remettre ms sur les rails de l'image du début !

Partager ce message


Lien à poster
Partager sur d’autres sites
Neb, j'ai quelque peu décroché sur cette prise de tête de très haut niveau...J'ai d'ailleurs largement dépassé mon quota en commentaires divers et variés. Faut pas oublier que l'imagerie astro est du pur loisir chez moi, avec le minimum de place faite à la théorie, les chiffres tout ça.
Enfin bref, je suis l'antithèse de ms !

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Par contre je suis beaucoup moins sur que cela peut être utilisé pour un algorithme de super résolution.....

Quelle importance dans la mesure où l'algorithme K-SVD permet d'approcher en PSNR l'image de référence à 0.1 dB en partant de l'image bruitée.
J'ai refait l'expérience avec 10% et 20% des images brutes mais en augmentant cette fois ci le nombre d'itérations et là ... yapafoto ... les détails sortent.
Je suis curieux de voir en terme de détails la différence avec 30, 40, ... , 90% des images brutes (l'image de Marc se situant entre 480 et 960). Avec cette approche, je peux certainement traiter jusqu'à 90% des images brutes parce que le dé-bruitage K-SVD rattrape même un filtrage agressif réalisé par le masque flou. Par contre si je fais la même manip avec AS2, dès que je filtre un peu l'image devient toute blanche, ce qui rend l'utilisation de l'algorithme K-SVD impossible.

Avant d'essayer de ressembler à Hubble, je crois qu'il faudrait essayer d'obtenir plus de détails en exploitant mieux les vidéos actuelles. Une fois que ce palier sera atteint, le rapprochement à Hubble se fera tout naturellement c'est à dire sans avoir besoin d'utiliser des béquilles.

[Ce message a été modifié par ms (Édité le 19-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
VL, l'affaire et simple :

- Tu as ouvert ce fil pour nous demander notre avis sur des traitements planétaires classiques appliqués à un film n°1 de Marc,
shooté dans de bonnes conditions, mais pas exceptionnelles.
- Je me suis permis de proposer un asymptote de résultat général (l'image NH seulement redimensionnée) que je pense recevable
avec quelques réserves dont certaines ont été évoquées.
Je rappelle que sur le film de Marc shooté au C11 (ps # 0,5") avec un filtre R,
le diamètre de la planéte de 40" s'étale sur 400 pixels,
le ps occupe donc 5 pixels, c'est un suréchantillonnage de bon goût pour les traitements
mais qui demanderait une légère réduction au final pour obtenir une image vraiment piquée.

- ms, dont l'une des préoccupations me semble être la vision en temps quasi réel en milieu turbulent, étudiant l'application de ses travaux
à l'astrophoto planétaire, avec la possibilité d'utiliser la vidéo assistée pour une image finale optimale s'est intéressé à ta question,
ce dont on le remercie.
Mais avant de conclure même provisoirement sur ce 1er film, il est passé à un second proposé par Marc, shooté cette fois avec des conditions
assez exceptionnelles.
Pour l'instant, on attend toujours de voir pour les deux films (et ceci en attendant la couleur, en passant par les illustres prises du T1m)
des résultats supérieurs documentés explicitement sur leur mode d'obtention que l'on espère à la portée intellectuelle et financière
des astrams motivés par ce sujet.


[Ce message a été modifié par Nebulium (Édité le 19-02-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant