Sign in to follow this  
Nebulium

Jupiter au T 1m du Pic. 2010. Le retour.

Recommended Posts

Tempête de sable sur Jupiter, gaffe aux yeux les gars !

[Edit]Commentaire s'appliquant à une image une fois de plus escamotée depuis ! [/Edit]
Faudrait hardcopier les messages illustrés de ms au fur et à mesure !

[Ce message a été modifié par Nebulium (Édité le 13-01-2016).]

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Photographier la Lune
Guide complet pour la photographier de la Lune.
Information et commande sur www.photographierlalune.com
Oui bon faut pas en faire un fromage VL et pourquoi Neb serait privé de désert ... ce n'était qu'une tentative de patchage de cette image extraite de la vidéo :

C'est justement à partir de 53 de ces images que je pourrais réaliser une image haute résolution mais j'ai encore quelques petits problèmes techniques à résoudre. Les 5300 images brutes initiales permettent d'obtenir 53 images corrigées pour réaliser une petite vidéo de 53s (la planète tourne d'un peu moins de 1/00 de degré par seconde).

Ensuite si les images de la vidéo sont suffisamment nettes alors je me retrouve dans le cas de la petite maquette que j'avais faite avec les images du HST.

Ce n'est plus qu'une question d'heures pour juger du résultat final.

[Ce message a été modifié par ms (Édité le 13-01-2016).]

Share this post


Link to post
Share on other sites
La vidéo de 53 secondes (1 image par seconde) :

L'image obtenue à partir des 53 images recalées de la vidéo et un léger renforcement par masque flou :

PS1 : la vidéo c'est ce que voit l'opérateur en temps réel lors de l'acquisition des trames. Si l'acquisition dure plusieurs minutes, l'opérateur voit l'évolution de la planète en temps réel (ombre des satellites, déplacement de la GTR, ...). L'image finale résulte de l'application du flot optique à la vidéo.

PS2 : la rotation de la planète est perceptible à la fin de la vidéo quand on reboucle sur la première image ... mais il faut bien ouvrir l’œil (faire un zoom puis mettre le pointeur de la souris sur un détail).

[Ce message a été modifié par ms (Édité le 13-01-2016).]

Share this post


Link to post
Share on other sites
Bon, on arrive (peut-être ? ) plus au moins au bout de la fin de cette histoire en deux parties sur 4 gros fils.

Pour la 1ère, dite traitement en super-résolution :
- à gauche : L'image obtenue par ms à partir des 53 images recalées de la vidéo et un léger renforcement par masque flou. Détails des moyens à venir (peut-être ? )
- à droite : L'image obtenue par Marc dans sa pratique courante, détails.
Je suis sûr qu'il pourrait la fignoler un peu plus, s'il passe par là
Je peux aussi, avec sa permissio , remettre son film en ligne, si d'autres veulent s'y mettre
.

Commentaires ???

Pour la 2ème, objectif = vidéo déturbulée en temps réel légèrement différé :
Pour moi, le gif n'est pas très parlant.
J'ai retrouvé le SER original de Marc, en 5300 images, il me manque la cadence de prise de vue.
Si ms me procure les 5300 images (ou une séquence à interpoler) de sa sortie temps réel, je suis prêt à faire un montage vidéo plus causant.
Et ensuite, je remettrai ça avec un autre vrai film cette fois issu d'une caméra couleur promis par VL, au C8 ou Cass250

[Ce message a été modifié par Nebulium (Édité le 13-01-2016).]

Share this post


Link to post
Share on other sites

celle de MS est juste un peu plus contrastée c'est tout ;pour moi pas de
progrès important en comparant les 2 images !!
polo

Share this post


Link to post
Share on other sites
Mon premier objectif était d'atteindre le niveau de détail des images actuelles dans le cadre de la vidéo assistée. Cet objectif est atteint et la vidéo fournie montre en plus une grande stabilité de l'image due à une précision sub-pixel du recalage.

Le deuxième objectif c'est la super résolution qui sera réalisée à partir des 53 images de la vidéo, je rencontre encore quelques petits problèmes mais la solution est proche.

Ce serait intéressant d'avoir une vidéo couleur de plusieurs minutes avec l'ombre des satellites et/ou la GTR pour voir la rotation de la planète. Bien sûr une vidéo sans dé-rotation.

Share this post


Link to post
Share on other sites
Vois-tu Polo, ce n'est pas grand chose que de donner après coup un peu plus de contraste à l'image de Marc.
Bon, d'accord, il faudrait aussi un peu en travailler le bruit, mais là n'est pas le vrai problème !
.

Pour moi, la super-résolution, ce serait plutôt quelque chose comme cela :
.

Crédit HST / NASA

[Ce message a été modifié par Nebulium (Édité le 13-01-2016).]

Share this post


Link to post
Share on other sites
Allez la première n°9 qui va encore bien s'affiner dans les prochains jours (pour rejoindre sa voisine de dessus) :

Le problème c'est que vous allez être rapidement limité dans les basses fréquences pour une raison qui touche au gaspillage d'images (lucky imaging). Il vous en faut déjà 4 fois plus pour produire les mêmes détails donc votre vidéo s'allonge et pendant ce temps la planète tourne. Certes il y a la rustine de la dé-rotation mais les bords subissent alors un flou supplémentaire difficile à traiter. Autre problème, vos images ne sont pas homogènes, difficile de voir évoluer un détail quand un bestof sélectionne des images séparées par un laps de temps important.

Autre problème, votre recalage manque de précision, il ne faut pas recaler au pixel près mais au 1/10 de pixel pour ne pas louper les plus fins détails.

[Ce message a été modifié par ms (Édité le 14-01-2016).]

Share this post


Link to post
Share on other sites
Non, non, non ms ! Ce n'est pas bon !!! ( encore pire )
J'en fais pas un fromage hein , là je dirais une sorte de galette saupoudrée de poivre noir surtout sur la partie gauche...
Désolé

Share this post


Link to post
Share on other sites
M'ouarf nan, y'a du poivre partout sur la galette.
Ce qui me rend pantois, c'est l'énorme, l'astronomique décalage entre la technicité d'un niveau que je ne comprends pas le 1/100ème depuis le début de ce post et le résultat obtenu absolument ahurissant.
Encore désolé.

[Ce message a été modifié par VL (Édité le 14-01-2016).]

Share this post


Link to post
Share on other sites
Moi ce que je ne comprends pas encore c'est la différence entre la précision du recalage et le rendu qui devrait correspondre à l'image fournie par Neb sans même faire appel à l'artifice d'une grille x2 ou x3 de super résolution.

La méthode utilisée me permet d'obtenir 212 images très homogènes (PSNR pratiquement constant) dont la qualité ne reflète pas encore le résultat final.

Share this post


Link to post
Share on other sites
J'ai du mal à comprendre les sceptiques envers le travail de ms.

Pouvoir obtenir la même image que celle de Marc après traitement ,en temps réel pendant l'acquisition est quand même assez hallucinant ? Non ?

Quid du coût final de la solution ? ensemble complet ( camera et carte ) ,camera pouvant être connectée sur la carte , soft ?


Après le terme Super-résolution du départ des posts n'est pas encore acquis ;-)

As tu mis au point un proto pour pouvoir tester ton système en temps réel ou n'as tu travaillé que sur des fichiers déjà tout prêts ?

François

Share this post


Link to post
Share on other sites

non françois ,on est pas scéptique de son travail et d'ailleurs on l'aide!
de visualiser en temps réel une bonne image en la prenant 100 brutes par exemple ,c'est un progrès non négligeable !
si on image à 100img/s pendant 100s on aura 10000 images pour le traitement
si on traite en temps réel 100img à la fin on aura 100 images!

le résultat sera t-il meilleur avec 10000 images non pré-traitées qu'avec 100 images pré-traitées !
et c'est sur ce point que l'on veut voir le gain !
polo

Share this post


Link to post
Share on other sites
Merci François, tu as parfaitement résumé la situation !
Polo, je ne me souviens plus, possèdes-tu une caméra couleur ?

Share this post


Link to post
Share on other sites
J'ai remis en ligne le fichier SER d'origine de ma vidéo, sur un espace google drive cette fois (plus pérenne dans le temps) :

https://drive.google.com/open?id=0B7u4Uyq7qO1iQXBXWWxYblhvdzg

J'ai encore quelques Go de disponibles là bas donc je ne vais pas retirer de suite le fichier.

Bravo et continuez ainsi.


Marc

Share this post


Link to post
Share on other sites
Merci Marc
Connais-tu la fréquence d'acquisition i/s de ce film ?
Pourrais-tu par la même occasion republier ton meilleur traitement de ce film (PNG)?
Il ne t'est pas interdit de revoir ta copie revoir ta copie...

[Ce message a été modifié par Nebulium (Édité le 14-01-2016).]

Share this post


Link to post
Share on other sites
En fait je crois que l'imagerie de demain sera plus tournée vers le 'data mining' que le 'lucky imaging'.

quote:
As tu mis au point un proto pour pouvoir tester ton système en temps réel ou n'as tu travaillé que sur des fichiers déjà tout prêts ?

C'est justement ce que j'ai prévu de faire en 2016 pour la vidéo assistée avec la carte Jetson TX1 ou une autre ARM 64-bit.

quote:
le résultat sera t-il meilleur avec 10000 images non pré-traitées qu'avec 100 images pré-traitées !

Théoriquement en lucky imaging, tu pourrais avoir une seule image non-prétraitée qui explose toutes les autres, mais statistiquement il te faudrait vivre très longtemps pour observer ce phénomène.

Je vais poster une juju marcienne 768x768, elle a la même gueule que la n°9 non poivrée. Elle est fabriquée avec une base de pyramide 1,6 fois plus grande et utilise le même type d'affinage (coarse to fine). L'inconvénient de cette approche c'est que ça consomme de la mémoire et du temps. C'est le même problème quand la super résolution fait appel à l'interpolation. De ce fait, je vais continuer dans la voie du recalage subpixel car c'est beaucoup moins gourmand en mémoire et plus rapide.
En fait quand j'aurai résolu ce dernier point, j'aurai une vidéo assistée super résolue ... enfin, je l'espère.

Share this post


Link to post
Share on other sites
Bon, actuellement, par calcul non en temps réel, que peux-tu proposer comme séquence d'images d'après le film de Marc pour monter une vidéo de simulation du futur ?
Je peux m'occuper d'éventuelles interpolations.

[Ce message a été modifié par Nebulium (Édité le 14-01-2016).]

Share this post


Link to post
Share on other sites

salut neb! je n'ai pas de caméra couleur ! je vais télécharger le film de marc et faire un traitement pour voir ce que ça donne!
polo

Share this post


Link to post
Share on other sites
Le film d'origine dure environ 70" et il y a 5310 images.
Voila mon meilleur traitement basé sur cette série.
En réalité j'ai fait 1 capture avec moins de focale mais j'ai tout de suite "vu" que le ciel était clément. Donc j'ai modifié le setup (ajouté un peu de tirage) et fait 4 captures d'environ 5000 images.

La meilleure est celle que vous utilisez évidemment, mais mon meilleur traitement consiste à faire une dé-rotation de mes quatre images (issues de 4 films distincts).
J'accumule donc 4 jpegs filtrés pour faire un PNG que je re-accentue légèrement et j'ai ça à la fin ;

Je vais faire l'essai en partant de mes 4 images non filtrées, de les accumuler par dé-rotation et de faire le filtrage à la fin. Normalement c'est meilleur de retarder le plus possible l'accentuation.


Marc

[Ce message a été modifié par patry (Édité le 14-01-2016).]

Share this post


Link to post
Share on other sites
Hello Marc

Ton film est tourné à 75 ips, pour la future vidéo "temps réel" compatible TV, j'utiliserai donc 1 image sur 3

Ta dernière ci-dessus me paraît moins bruitée et un poil plus pêchue que la référence utilisée jusqu'à présent.
Pour moi, elle montre autant sinon plus de détails que la n°9 de ms du 14-01-2016 12:09 à droite.

Deux questions :

1. Est-ce que tu introduis à un moment ou un autre (y compris dans le réglage de la caméra) une modification de gamma ?
2. Qu'est-ce qui te fait passer par des JPG intermédiaires ?

Par ailleurs, je suis bien d'accord que les traitements d'accentuation ne devraient intervenir que sur l'image finale.
Cependant, je me demande au plan théorique si dans le cas d'images brutes peu bruitées une déconvolution aveugle
des brutes image par image ne contribuerait pas à un empilement plus précis.
Mais bonjour le temps de calcul ! C'est une manip faisable par un non informaticien, avec les scripts du Dr Tadrous

[Ce message a été modifié par Nebulium (Édité le 14-01-2016).]

Share this post


Link to post
Share on other sites
Oui Neb mais avec 4 fois plus d'images.

Share this post


Link to post
Share on other sites
Ben non puisque j'ai besoin de 4 fois moins d'images pour produire la même quantité de détails.

D'autre part, c'est le flot optique qui gère la dé-rotation de la planète et mes acquisitions peuvent durer des heures.

Puis, entre stocker 5300 images brutes pesant chacune 300Ko et 212 images corrigées pesant chacune 70Ko, pour moi, il n'y a pas photo.

Share this post


Link to post
Share on other sites
Nebulium>
Pour le gamma, non je ne fais rien donc le gamma est à 1 par défaut.
Les Jpeg sont en fait les sorties de mes traitements initiaux (Registax 6) de chacun de mes 4 films.

Ensuite direction WinJupos pour faire 4 mesures et je récupère 4 fichiers IMS qui contiennent un lien vers l'image et des données temporelles (capture) et spatiale (où se trouve Jupiter et son orientation dans l'image).

A partir de ces 4 fichiers IMS je fait une dérotation d'images pour générer une image finale recalée. Bon là on introduit une interpolation (forcément) pour faire 4 transformations sphériques->rectangulaire, puis un compositage des 4 images, et enfin sur une transformation rectangulaire->sphérique. Sans doute que winjupos a bien optimisé ses transformations mais c'est certainement pas sans influence sur l'image.

Au final j'ai donc projeté 4 JPEGs en une image habilement sauvegardée en PNG (pour gagner en dynamique). PNG que je renvoie dans Registax pour une légère accentuation supplémentaire (la dynamique me le permet).

J'ai quand même essayé de remplacer mes jpeg (8 bits filtrés) par des PNG (16 bits non filtrés) mais c'est pas meilleur finalement. De plus j'ai des artefacts disgracieux sur le limbe de Jupiter. Accessoirement il me faut pousser à outrance l'accentuation pour arriver au même niveau de contraste. Bref c'est pas concluant (acrobatie linguistique pour dire que je me suis planté).

ms> il existe un mode dans firecapture qui ne lui fait enregistrer que les images qui sont supérieures à une certaine qualité (réglable). Cela permet de "vachement" limiter le flux en sortie au prix d'un peu de CPU consommé. Avec mon pauvre Core 2 duo c'est pas trop possible. Mais sur un i3/5/7 c'est bien sur une autre histoire.
Attention toutefois à l'horodatage des images qui ne seront plus régulières dans le flux. Je crois que ce n'est pas (encore) pris en compte dans winjupos.


Marc

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this