Nebulium

Jupiter au T 1m du Pic. 2010. Le retour.

Messages recommandés

quote:
Quant aux délais de restitution des résultats, c'est une autre affaire !!!

Je termine l'intégration temps réel du défloutage et du débruitage dans le "démorphing" existant et j'ai un système capable de transformer une vidéo turbulente en une vidéo corrigée ... plus besoin d'interface utilisateur ou d'un paramétrage relevant de la recette de cuisine, une vidéo en entrée donne une vidéo en sortie ou une séquence d'images en sortie du capteur donne une séquence d'images corrigées en temps réel sur l'écran de l'ordinateur.

La dérotation de Jupiter est aussi gérée automatiquement tout comme celle liée à l'utilisation d'une monture azimutale. Vous prenez une séquence d'images de Jupiter avec votre dobson ou même une séquence d'images de la Lune avec votre smartphone tenu à bout de bras ... dans tous les cas ça fonctionne.

Je vais poster sous peu (pour clore ce post) ma contribution à juju du Pic du Midi :
- comparaison des différentes jujus,
- algorithme de recalage plus précis que les algos actuels basés sur le multipoints,
- utilisation de la technologie GPGPU pour le traitement en temps réel de grosses images (ici c'est déjà du 1392x1040).

Par la suite je posterai les différentes possibilités du système directement sur mon site srapplis.

[Ce message a été modifié par ms (Édité le 31-07-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Un premier test (automatique) effectué avec les 100 premières images brutes R,G,B donne une image assez proche d'aspect de jup_sw1 (image de départ), j'ai réduis les tailles à 75% pour ne pas avoir à afficher des images trop grosses :

Il y a peut-être quelques améliorations à faire dans le choix de l'algo de renforcement mais avant je vais poursuivre avec 200, 300 et 400 images brutes R,G,B.

[Ce message a été modifié par ms (Édité le 01-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Hello

Il y a un début à tout, merci ms

L'objectif de ce fil était de voir si les techniques de super résolution feraient gagner sur les méthodes courantes pour un film déjà exceptionnel à tous points de vue. Donc attendons la fin de ce travail.

On a dérivé, et pour moi c'est une bonne chose, vers l'utilisation de ces techniques sur les films de l'astram de base réalisés dans des conditions qui n'ont rien à voir avec celles du Pic.

Je pense que c'est cet aspect qui devrait intéresser un maximum de gens au plus haut point, alors patientons encore un peu et voyons

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
L'objectif de ce fil était de voir si les techniques de super résolution feraient gagner sur les méthodes courantes pour un film déjà exceptionnel à tous points de vue.

Il y a 2 problèmes qui me semblent intéressants :
a) la vidéo couleur en temps réel avec corrections de la dérotation, du défocus et du bruit,
b) l'acquisition en temps réel visant à obtenir par super-résolution, l'image la mieux résolue possible.
Le premier problème est résolu comme le montre le gif animé de 4 images suivant (chaque image correspond à 100 trames consécutives traitées en temps réel) :

Les valeurs de PSNR fluctuent dans le milieux de tableau, ce qui est très satisfaisant pour de la vidéo dont le but est surtout pédagogique.

quote:
On a dérivé, et pour moi c'est une bonne chose, vers l'utilisation de ces techniques sur les films de l'astram de base réalisés dans des conditions qui n'ont rien à voir avec celles du Pic.

C'est le deuxième problème et là l'acquisition porte sur l'ensemble des trames afin de remplir le mieux possible une grille plus grande (1914x1914) que dans le cas de la vidéo (957x957).
Le PSNR de l'image super-résolue (1914x1914) ramenée à l'image haute-résolution (957x957) pour être comparée avec les images fournies par les méthodes actuelles, est bien au-dessus du haut du tableau.

quote:
Je pense que c'est cet aspect qui devrait intéresser un maximum de gens au plus haut point, alors patientons encore un peu et voyons

Moi c'est le premier problème (vidéo couleur temps réel) qui m'intéresse le plus mais le second (image super-résolue) qui montre qu'il faut utiliser toutes les trames (contrairement à ce qui se fait aujourd'hui) présente un intérêt plus large.

[Ce message a été modifié par ms (Édité le 03-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Remplissage....

... pour éviter d'avoir à charger 80 Moctets+ pour pouvoir lire le dernier message ;-)

[Ce message a été modifié par Francis Adelving (Édité le 03-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Remplissage....

... pour éviter d'avoir à charger 80 Moctets+ pour pouvoir lire le dernier message ;-)

[Ce message a été modifié par Francis Adelving (Édité le 03-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Test de remplissage 2 pour tenir compte du petit bug d'apparition du nouveau numéro de page d'Astrosurf qui nécessite 2 messages dans la nouvelle page ;-)


ms : peux-tu s'il te plait tenir compte des pauvres astrams qui n'ont que quelques Mbits/s de liaison Internet, voire encore moins.... Et pense à tous ces électrons usés inutilement pour transférer des Goctets en trop....

Pour de très gros fichiers un bon lien vaut mieux qu'une pièce attachée.... ==> remplace les balises img par des balises url .

Merci pour eux

[Ce message a été modifié par Francis Adelving (Édité le 03-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
L'objectif de ce fil était de voir si les techniques de super résolution feraient gagner sur les méthodes courantes pour un film déjà exceptionnel à tous points de vue.

Il y a 2 problèmes qui me semblent intéressants :
a) la vidéo couleur en temps réel avec corrections de la dérotation, du défocus et du bruit,
b) l'acquisition en temps réel visant à obtenir par super-résolution, l'image la mieux résolue possible.
Le premier problème est résolu comme le montre le gif animé de 4 images suivant (chaque image correspond à 100 trames consécutives traitées en temps réel) :

http://www.dropbox.com/s/3o719g0hzqope3q/jup_ms.gif?dl=1

Les valeurs de PSNR fluctuent dans le milieux de tableau, ce qui est très satisfaisant pour de la vidéo dont le but est surtout pédagogique.

quote:
On a dérivé, et pour moi c'est une bonne chose, vers l'utilisation de ces techniques sur les films de l'astram de base réalisés dans des conditions qui n'ont rien à voir avec celles du Pic.

C'est le deuxième problème et là l'acquisition porte sur l'ensemble des trames afin de remplir le mieux possible une grille plus grande (1914x1914) que dans le cas de la vidéo (957x957).
Le PSNR de l'image super-résolue (1914x1914) ramenée à l'image haute-résolution (957x957) pour être comparée avec les images fournies par les méthodes actuelles, est bien au-dessus du haut du tableau.

quote:
Je pense que c'est cet aspect qui devrait intéresser un maximum de gens au plus haut point, alors patientons encore un peu et voyons

Moi c'est le premier problème (vidéo couleur temps réel) qui m'intéresse le plus mais le second (image super-résolue) qui montre qu'il faut utiliser toutes les trames (contrairement à ce qui se fait aujourd'hui) présente un intérêt plus large.

Partager ce message


Lien à poster
Partager sur d’autres sites
Dans le deuxième problème, je construis une grille 2 à 4 fois plus grande que celle supportant les images brutes (la taille de cette grille est fonction du nombre de trames utilisées et des conditions de turbulence).
Comme l'objectif c'est d'obtenir par super-résolution l'image la mieux résolue possible, je peux laisser filer l'acquisition jusqu'à ce que toutes les régions de l'image soient parfaitement renseignées. Cela devient possible quand le premier problème est résolu (ce qui est le cas aujourd'hui), il est alors possible de travailler sur des séquences d'images où la turbulence est figée et où le recalage est précis (ces images ne sont pas défloutées et débruitées).

Voir par exemple les 4 séquences du canal R (il y a 4x3=12 gif animés au total) :
http://www.dropbox.com/s/s7h5d997w336md4/jR1.gif?dl=1
http://www.dropbox.com/s/rpn75u3p64c9bvb/jR2.gif?dl=1
http://www.dropbox.com/s/cy6fbayst1m6pav/jR3.gif?dl=1
http://www.dropbox.com/s/qziuncuzvnt06yv/jR4.gif?dl=1

Dans la pratique tout se passe en mémoire, les fichiers gif sont là pour expliquer le problème pas à pas.

La suite c'est le remplissage de la grille à partir de ces 4x3 fichiers dans le but d'obtenir une image en haute résolution.

En fait lors d'une soirée d'observation vidéo, la construction d'une image super-résolue peut se faire durant la visualisation de la vidéo car ce sont les mêmes images figées qui servent de point de départ :
a) dans le cas de la vidéo, elles seront défloutées et débruitées pour être plus présentables à l'écran,
b) dans le cas de l'image super-résolue, elles prennent le chemin d'une grille (le processus de remplissage peut aussi être affiché à l'écran) pour donner une image haute résolution qui sera défloutée et débruitée.

Cette vision de l'astronomie concilie l'observation assistée et la photo haute résolution. L'arrivée de capteurs couleur de plus en plus sensibles et rapides ouvrira aussi cette technique d'observation au ciel profond. C'est grâce aux gamers que nous pouvons bénéficier aujourd'hui d'ordinateurs portables aptes au calcul par GPU et dans quelques mois de consoles de jeux à coût encore plus raisonnable.

[Ce message a été modifié par ms (Édité le 04-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Hello

Merci Françis

quote:
pauvres astrams qui n'ont que quelques Mbits/s de liaison Internet, voire encore moins....

Vouiiiii.... Moi c'est plutôt quelques kbits/s en ce moment...

Je suis allé squatter un wifi accueillant pour voir l'un de ces hénaurmes gif.
" les fichiers gif sont là pour expliquer le problème pas à pas", a dit ms.
J'ai dû louper quelque chose, il n'est pas très causant (
Mais j'ai pu récupérer du coup la "jup_ms1.png"
M'en vais la traficoter un peu

Partager ce message


Lien à poster
Partager sur d’autres sites
jup_ms1.png, jup_ms2.png, jup_ms3.png et jup_ms4.png sont les 4 fichiers correspondant au mode "vidéo assistée". Pour les fabriquer de façon automatique, j'utilise 100 images R,G,B par fichier. Je dois pouvoir encore améliorer les traitements de défloutage et de débruitage ainsi que la finesse du résultat du démorphing ... encore que pour de l'affichage en temps réel, je trouve la qualité bien suffisante. Le fichier jup_ms.gif présenté plus haut regroupe ces 4 fichiers.

C'est le fichier haute résolution jup_ms.png qui va intéresser les imageurs. C'est cette étape que je suis en train de peaufiner en testant différents parcours dans le labyrinthe (grilles, pyramides, ...). Un des parcours est particulièrement intéressant puisqu'il intègre dans une même boucle : le démorphing, le défloutage et le déruitage pour donner directement en sortie les images jup_ms1.png, jup_ms2.png, jup_ms3.png et jup_ms4.png en haute résolution. Dans quelques jours quand je serais satisfait du résultat, je posterai la suite qui devrait clore ce post.

[Ce message a été modifié par ms (Édité le 05-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Un rapide premier essai d'accentuation de ms1, à droite ( version entière ici) /sw1 me laisse songeur :
.

???

[Ce message a été modifié par Nebulium (Édité le 05-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Une petite analyse fréquentielle dont tu a le secret, Neb serait probablement plus parlante qu'une évaluation du PSNR, histoire de se faire une idée quantifiable.

Partager ce message


Lien à poster
Partager sur d’autres sites
Tu compares une image réalisée avec 450 brutes à une image réalisée avec 100 brutes.

SW a eu la bonne idée de poster ses résultats en sortie du recalage des 450 brutes dans les 3 couches.

Je vais mettre dans la matinée les 11 images suivantes dans ma Dropbox :
swR.png, swG.png et swB.png
msR.png, msG.png et msB.png
diffR.png, diffG.png et diffB.png
swRGB.png et msRGB.png

Ceux qui ont linux (ou un environnement GNU sous Windows), pourront faire les comparaisons suivantes :
$ compare -metric PSNR swR.png msR.png diffR.png
$ compare -metric PSNR swG.png msG.png diffG.png
$ compare -metric PSNR swB.png msB.png diffB.png

J'ai aligné les images RGB avec la commande align_image_stack des hugin-tools :
$ align_image_stack -a sw -C sw*.png
$ align_image_stack -a ms -C ms*.png
pour fabriquer ensuite les images swRGB.png et msRGB.png dans les mêmes conditions.

C'est à partir de ces 2 dernières images que vous pouvez faire des essais d'accentuation sur lesquels on puisse discutter.

Autre point intéressant, si je compare mes 450 images corrigées cxxxR.png, cxxxG.png et cxxxB.png à msR.png, msG.png et msB.png, je m'aperçois que le PSNR est pratiquement constant contrairement à AS2 où la qualité peut varier fortement d'une image à l'autre.

[Ce message a été modifié par ms (Édité le 06-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Hello

J'ai retrouvé mon haut débit pour quelques jours, on pourra avancer !

quote:
Tu compares une image réalisée avec 450 brutes à une image réalisée avec 100 brutes

Ce qui me paraît bizarre dans cette première rapide comparaison, c'est que certains détails semblent accentués et d'autres gommés, dans le bleu surtout.

J'attends ton paquet d'images, je vais pouvoir y travailler ce w-e, mais j'aimerais bien voir ma tite Juju HST

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant