Sign in to follow this  
ValereL

Traitement planétaire : finesse ou pas finesse ? ( + sondage )

Recommended Posts

Avec un peu de retard et pour retourner dans le sujet initial :

Double ondelettes - vancittert pour moi Valère
Et en deuxième position, le double vancittert

Enfin tout ca n'est qu'une approche subjective de la chose par rapport à une idée que l'on se fait personnellement de l'aspect de la planète...et donc du rendu que l'on souhaite obtenir. Il faut savoir si on veut faire de la photo cosmétique ou de la photo scientifique.

Moi, du point de vue cosmétique, j'aime les gazeuses qui sont gazeuses

L'approche de Neb est toujours intéressante à essayer de comparer les courbes de modulation à partir d'une image de référence. Reste à trouver une image de référence, et ca c'est le plus chaud

Je pense que l'idéal resterait une déconvolution en temps réel basé sur la PSF, soit un traitement adapté à chaque image brute et non pas un traitement global après addition d'une séquence... mais dans la pratique...

Cordialement,
Quentin

[Ce message a été modifié par Q (Édité le 20-02-2016).]

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Photographier la Lune
Guide complet pour la photographier de la Lune.
Information et commande sur www.photographierlalune.com
Merci Quentin ! Je pensais essayer ce patch sur mes Jupiters récentes mais ce fut plutôt la corbeille... Suite au prochain épisode.

Share this post


Link to post
Share on other sites
J'ai repris le traitement des images de la vidéo assistée (ci-après la première image qui curieusement suit la courbe de l'image de référence fournie par Neb) :

[Ce message a été modifié par ms (Édité le 25-02-2016).]

Share this post


Link to post
Share on other sites
En réduction à 50%, ça deviendrait recevable ...
Le fun de l'égalisation "parfaite" 2Dfft aux hautes fréquences ne correspond qu'à du bruit !

Courage ms, encore un GROS effort

[Ce message a été modifié par Nebulium (Édité le 23-02-2016).]

Share this post


Link to post
Share on other sites
Pas du tout, j'obtiens la vidéo assistée que je souhaitais (la turbu est stabilisée) et pour le reste soit je prends la meilleure image de la vidéo assistée, soit j'empile quelques images de la vidéo, soit je recherche une qualité photographique en utilisant le codage parcimonieux (à faire éventuellement par la suite) :

Et puis quand je mettrai le nez dehors, je n'aurai pas besoin de pester contre la turbu et encore moins de remplir des disques durs entiers pour n'en conserver que 2% et passer des heures à traiter les vidéos. C'est une autre manière de faire de l'astro en conciliant l'observation et la photo.

[Ce message a été modifié par ms (Édité le 25-02-2016).]

Share this post


Link to post
Share on other sites
Ben moi ça me satisfait d'autan plus que le flot optique gérant la dé-rotation, je peux utiliser sans problème ma monture en altaz.

Quand je vois la cuisine qui est faite avec cette planète alors que tout peut être si simple ... ça me laisse rêveur.

Share this post


Link to post
Share on other sites
quote:
alors que tout peut être si simple

Ah vouuuuuiiiiiiiiiii !

Démonstration :
???????????????????????????????????????????????????

PS : Je devine que tu viens d'essayer avec la Konicacolor 3200 en C41 poussé

Share this post


Link to post
Share on other sites
Ben oui puisqu'il suffit de retenir la meilleure image de la vidéo assistée donc pas de traitement nécessaire après acquisition et dans l'immédiat je vais en rester à ce mode de fonctionnement.

Ensuite question branchement, la carte Jetson TX1 peut piloter directement le capteur (via Astro Carrier) donc un PC n'est pas nécessaire puisque c'est déjà un PC de la taille d'une carte de crédit.

Difficile de faire plus simple pour tirer le portrait de Jupiter ou de tout autre objet pas forcément astronomique.

[Ce message a été modifié par ms (Édité le 01-03-2016).]

Share this post


Link to post
Share on other sites
quote:
la meilleure image de la vidéo assistée donc pas de temps de traitement

Ah, ça c'est vraiment du vrai temps réel instantané, comme dirai M. de La Palice !
Et on peut l'acheter où et combien, cette super caméra avec option one shot?

quote:
dans l'immédiat je vais en rester là

Alors tu ne veux pas nous faire le 1er film de Marc et la version couleur du T1m ?

[Ce message a été modifié par Nebulium (Édité le 25-02-2016).]

Share this post


Link to post
Share on other sites
Ben si, je vais faire ces 2 autres vidéos avec le même principe que la dernière de Marc. Ensuite, je ferai l'extraction de la meilleure image de chaque vidéo et on pourra comparer.

En plus, j'utilise 4 à 8 fois moins d'images qu'avec les méthodes actuelles pour obtenir un même niveau de détails donc l'approche par la vidéo assistée me semble satisfaisante.

Avec 120 images brutes :

Avec 240 images brutes :

Et dire que certains passent leur temps à enregistrer plus de 10.000 images brutes pour n'en retenir que 1%, c'est dingue, non ? Perso avec 120 images brutes ça me suffit pleinement et je retiens la vidéo suivante :

Enfin pour ceux qui recherchent un aspect photographique, il est possible de transformer les images ainsi que la vidéo ci-dessus en utilisant la méthode décrite dans un précédent post. Je posterai ce résultat lors du récapitulatif des 2 vidéos de Marc et de celle du Pic.

[Ce message a été modifié par ms (Édité le 26-02-2016).]

Share this post


Link to post
Share on other sites
Un premier essai (n=7) visant à faire converger n images brutes (image du haut à gauche) vers une brute de la qualité de la dernière juju de Marc (image du haut à droite) :

Les images du bas correspondent à l'empilement de 120 images brutes.

Il existe un valeur de n pour laquelle les 2 images résultantes sont très proches. Il devient alors possible de construire une vidéo de 5300 images "brutes" dont le traitement permet d'obtenir une image résultante de bien meilleure qualité.

Il est aussi possible d'appliquer le même processus à la vidéo de 4800 images.

[Ce message a été modifié par ms (Édité le 29-02-2016).]

Share this post


Link to post
Share on other sites
Si j'ai bien compris, en traitant "en temps réel" d'une manière que tu ne nous a pas encore dévoilée de 120 à 240 images brutes consécutives dans un intervalle de temps quelconque, tu es censé obtenir un résultat comparable aux traitements classiques d'une centaine des meilleures images d'une séquence de 10000.
Illustration avec les images du moment:
.

Marc : classique / 4800 images--------------------------------------------------ms : vidéo assistée 120 images

Je me suis permis d'amortir l'image de Marc en contraste et de la corriger un poil en gamma pour mieux comparer la résolution :
.

Pour moi, pour l'instant, , yapafoto !

[Ce message a été modifié par Nebulium (Édité le 29-02-2016).]

Share this post


Link to post
Share on other sites
Je fais une image à partir de 120 brutes de la vidéo jup_marc_4800 (la deuxième vidéo). C'est l'image que tu as reprise ci-dessus.
Je regarde combien il me faut regrouper d'images brutes de la vidéo jup_marc_5300 (la première vidéo) pour atteindre le même niveau de qualité qu'une image brute de la deuxième vidéo. J'ai fait le test avec n=5, puis n=7 et enfin n=9.

Ça veut dire que sur le terrain, si les conditions se dégradent (comme dans la première vidéo), je vais laisser tourner pour traiter n images brutes à la volée et ainsi de suite. L'idée c'est que n peut être variable (1, 3, 5, 7, 9, 11, etc ...) au cours d'une même vidéo assistée parce que la turbulence varie.

Il est bien sûr possible de faire la même manip avec les images brutes de la deuxième vidéo si on veut faire monter son niveau de qualité. Je suis en train de faire le test avec n=1, 3, 5, etc ... et là tu pourras comparer avec l'image de Marc avant de crier yapafoto.

Bien ta dernière planche, je vais l'utiliser pour mettre la prochaine mouture de juju avec la valeur de n. En fait, l'image de Marc sera encadrée par 2 valeurs de n.

[Ce message a été modifié par ms (Édité le 29-02-2016).]

Share this post


Link to post
Share on other sites
Déjà n=1 :

n=3 va suivre.

[Ce message a été modifié par ms (Édité le 02-03-2016).]

Share this post


Link to post
Share on other sites
n=3 :

C'est quoi d'après toi, l'espèce de bavure verticale à droite de l'image de Marc ?

n=1 -> 120 images brutes
n=3 -> 360 images brutes
n=5 -> 600 images brutes
n=7 -> 840 images brutes
etc ...

[Ce message a été modifié par ms (Édité le 02-03-2016).]

Share this post


Link to post
Share on other sites
quote:
C'est quoi d'après toi, l'espèce de bavure verticale à droite de l'image de Marc ?

C'est ton cutter qui a dérapé !
La voici "propre", attention, c'est une PNG issue de JPEG, Marc a fait des économies de bouts de chandelles sur son serveur
.

La n=3 est meilleure que la n=1 en termes de résolution, mais toujours aussi bruitée.

Peut-être qu'en filtrant le bruit de la n=15, on aura la résolution de Marc ?

Non, sérieusement, la n=5 ou n=7 aurait ses chances !

Mais attention, la Marc n'a pas dit son dernier mot !
Tu sais bien que logiquement, un lièvre ne peut rattraper une tortue

[Ce message a été modifié par Nebulium (Édité le 29-02-2016).]

Share this post


Link to post
Share on other sites
La réponse est entre n=3 et n=7 ... mais je n'ai pas encore un logiciel satisfaisant pour dé-flouter et dé-bruiter l'image suivante qui correspond à n=3 :

Par contre cette image est bien corrigée des distorsions liées principalement à la turbulence.

En attendant d'avoir terminé le logiciel qui va bien pour dé-flouter et dé-bruiter ce type d'image, je serais curieux de voir ce que vous pourriez en tirez.

Je posterai n=5 et n=7 par la suite pour ne pas tout mélanger.

Pour l'instant j'en suis là pour n=3 mais je sais qu'on peut faire mieux :

Pour le dé-floutage en temps réel, il y a aussi cette piste là qui est intéressante :

ftp://ftp.math.ucla.edu/pub/camreport/cam15-66.pdf

https://community.apan.org/wg/afosr/m/kathy/153036

Pour le dé-floutage hors temps-réel, il y a bien sûr plein de très bonnes méthodes itératives mais ce n'est pas le sujet.

[Ce message a été modifié par ms (Édité le 01-03-2016).]

Share this post


Link to post
Share on other sites
quote:
je serais curieux de voir ce que vous pourriez en tirer.

Si tu tiens à satisfaire ta curiosité, tu ferais bien d'ouvrir un autre fil, celui-ci est usé jusqu'à la corde, il faut avoir la foi du charbonnier et la patience de Pénélope pour y venir voir !

Share this post


Link to post
Share on other sites
Merci pour ce très intéressant post Valère, à mon avis la meilleur c'est la version "double ondelette - vancittert".

Cordialement.

Sergi.

[Ce message a été modifié par SERGIT (Édité le 01-03-2016).]

Share this post


Link to post
Share on other sites
Merci beaucoup Sergi ! Et bien je pense que ce mix remporte l'avis général, je testerai tout ça sur une prochaine session correcte sur Jupiter.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this