Nebulium

Jupiter par Polo à la sauce artificielle...

Messages recommandés

Oui... 

Le SSS Nasa :

 

 

 

wspace?tbody=499&vbody=399&month=10&day=

 

 

wspace?tbody=499&vbody=399&month=10&day=

 

Le SSS utilise le même moteur que mon SN7...

 

Et WinJupos , lui ???

 

Si tu es sûr de ton horodatage, c'est WJP le bon.

 

C'est toujours bon à savoir car pourtant SN7 est OK pour les satellites de Jupiter.

La GTR,  elle, est à régler périodiquement (elle dérive d'environ 24° par an ! mais par rapport à quoi, au juste, Christophe ? tout est gazeux ou liquide sur Juju)  selon les indications de  ce site

 

Bon, ici, l'important c'est ton image, je vais commencer à l'utiliser avec les réseaux 2 tours et généraliste pour voir.

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

l 'horodatage de la deuxième à 4h46tu est bon ! c'est une rgb  ! :)

SSS je ne connaissais pas ! ;)

polo

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, polo0258 a dit :

date 23/10/2011 à 4h46tu

 

Non, Il faut lire 03/10/2011, et tout le monde il est d'accord !

Je préfère... :)

Partager ce message


Lien à poster
Partager sur d’autres sites

oui , c'est bien 03/10/2011 à 4h46 TU !  j'ai rectifié !! ,)

polo

Partager ce message


Lien à poster
Partager sur d’autres sites

Après création d'un modèle en 4 itérations, j'ai repris la Mars de Yann.

Le modèle en 4 (l'auteur parle d'un pré-entraînement avec 50 dont j'ai  conservé tous les autres paramètres puis d'un entraînement avec 250 avec d'autres paramètre) est nettement meilleur pour les couleurs, pour la résolution le gain est imperceptible.

De toute façon, pour l'instant, on n'a pas à attendre des merveilles par rapport aux traitements manuels bien réglés, mais simplement un traitement "en aveugle", c'est à dire sans réglages à adapter à l'image.

 

Donc au centre, l'original peaufiné par Yann, à gauche le traitement IA global, à droite  synthèse avec la Luminance traitée IA et les chromas a et b d'origine.

En bas les luminances correspondantes.

 

Presse-papier01.png.fedb00584af8492ce117216537450aaf.png

 

 

Pour l'instant, le plus évident est une très légère augmentation de saturation des couleur  par le traitement IA.

Le passage de 2 (voir message plus haut) à 4 a été très bénéfique pour les couleurs.

Par contre je ne suis pas sûr que l'adjonction d'images classiques au dataset ait apporté quelque chose en résolution, les FFT suivent.

Il me faudrait vérifier avec une puis plusieurs images  HST de Mars en taille 512  comme ici et plus grandes.

A 70 minutes sur un i7 double coeur par itération en mode CPU (j'ai jeté l'éponge pour le GPU, au delà de mes compétences qui serait 30 à 40 fois plus rapide dixit ms), je ne suis pas rendu !

 

Les FFT en couleur : original en blanc, IA en jaune :

 

Graph_6.png.c91469f8b891a628da46654a3b8c1d49.png

 

et en L :

 

Graph_6L.png.403f7aeb61f3ea592301282ad1eba334.png

 

 

Modifié par Nebulium

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

De toute façon, pour l'instant, on n'a pas à attendre des merveilles par rapport aux traitements manuels bien réglés, mais simplement un traitement "en aveugle", c'est à dire sans réglages à adapter à l'image.

Ce genre de traitement est intéressant en post-traitement d'images artificielles comme les vidéos d'EVA par exemple.

Le gain (réduction du bruit, augmentation de la résolution et du contraste) c'est en amont qu'il faut aller le chercher.

Avec EVA la solution est au niveau du patch qui peut être multi-trame et multi-échelle. En plus le bruit est différent en Cr et Cb donc tu dois aussi en tenir compte quand tu recréée l'image RGB à partir de YCrCb.

J'hésite à intégrer la super résolution au niveau du patch mais cela est tout à fait possible en utilisant un dictionnaire par domaine. Pour l'instant cela se fera en post-traitement avec TensorFlow à partir des vidéos fournies par EVA.

Dans un an ou deux avec des cartes plus puissantes, je pourrai certainement intégrer la super résolution dans une vidéo assistée en temps réel et la boucle sera bouclée. ¬¬

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello  :)

 

Je poursuis mes investigations dans  l'utilisation de l'IA  pour le traitement des images planétaires

 

Je me cite pour rappeler que :

 

Le 19/01/2018 à 23:43, Nebulium a dit :

pour l'instant, on n'a pas à attendre des merveilles par rapport aux traitements manuels bien réglés, mais simplement un traitement "en aveugle", c'est à dire sans réglages à adapter à l'image

 

J'ai continuer à tester l’outil sur l'excellente image de  Mars par Yann.

Pour moi, son traitement est irréprochable, toute retouche manuelle, sauf si elle faisait apparaître de nouveaux détails vérifiables relèverait de l'arbitraire.

 

J'ai commencé à entraîner le réseau neuronal à partir d'une image HST d'une région différente, évidemment, réduite aux mêmes dimensions, elle est visible plus haut.

Il me semble que le simu SN7 utilise la  base de données du HST, j'ai récupéré la configuration de Mars le  25/02/2012 à 03:00 UTC pour valider certains détails au sol, avec une résolution maximale. Evidemment,  il y a des différences atmosphériques avec la vraie photo.

 

Mes premières conclusions sont les suivantes :

- Le réseau d'accentuation standard (pour photo classique) proposé  surtraite désagréablement, d"où la nécessité d'un entraînement avec un jeu d'images astro.

- A partir d'essais limités (1 à 10 itérations, il en faudrait 50 à 250 et n'ayant pu encore activer la GPU  de la carte graphique, chacune prend plus de 4000 secondes, soit une grosse haure sur l'i7 !), il semble suffire de très peu d'images de référence du  ou des objets à traiter  mais il faut qu'elles soient de résolution maximale. L'ajout d'excellentes  images classiques n'apporte rien.

 

Pour l'instant, je n'ai pas insisté sur le traitement séparé de la luminance c'est à revoir plus tard.

 

la planche ci-dessous représente :

- En haut à gauche, l'original, à droite le résultat IA avec 10 itérations et une seule référence HST

Le gain de résolution se cherche, on a gagné un peu de saturation de couleur inspiré par la référence HST

- En bas à gauche, le même résultat IA, au centre l'image SN7 reprise en seuils haut et bas, à droite les  FFT : IA  en blanc (quasi identique à celle de l'originale), SN7 en rouge 

 

La différence de résolution se passe pour les Fs entre 0.3 et 0.5.

E dessous de 0.3, c'est  plutôt une affaire de gamma /contraste.

 

 

 

Presse-papier02.png.a29ee3f2c0ff1997a12edc2d48926423.png

 

 

PS :Version HST de la zone Yann en 2016 réduite en 17%

 

Mars_hs-2016-15-a-full_tif_17.png.f31ea9426b1bed9bb346703c9937ad19.png

 

On peut s'intéresser par exemple aux détails de la zone rectangulaire à gauche :

 

Presse-papier01.png.18d4571c4800d87a5dc945f41496d7a2.png

 

 

 

 

Et ici un tas d'autres images dont un planisphère HR, pouvant constituer la base d'un dataset martien.

 

 

 

Modifié par Nebulium

Partager ce message


Lien à poster
Partager sur d’autres sites

Ta simu SN7 montre plein de détails et pour capter ces détails EVA travaille sur des patchs de 4x4, 8x8 ou 16x16 dans un premier temps avec des rafales de 10 images puis sur une trentaine de rafales (300 images) pour extraire le maximum de signal.

Après, il devient possible de remplacer chaque patch par son homologue haute résolution sans oublier la couleur au passage.
Pour aller à la pêche aux détails, il faut utiliser les lucky regions mais pas seulement, il faut aussi utiliser les similarités et l'approche multi-échelle pour l'estimation du bruit. C'est à partir de cet ensemble de traitements appliqué à des rafales que l'on commence à voir émerger les détails de la turbulence.

Par contre aller à la pêche à partir d'une image c'est comme si tu voulais attraper des crevettes avec une épuisette percée. ^_^

neb.png.817f1c71b8fab2144c92db0e9e51658d.png

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello :)

 

J'ai encore fait cette nuit 10 itérations avec un dataset  complété avec le planisphère, ça n'a rien apporté.

Je pense que le dataset n'est donc pas maintenant un point critique.

Par contre le nb d'itérations  est important, c'est complètement surréaliste  de vouloir travailler en CPU.

Je suis donc reparti pour utiliser TenserFlow en GPU - CUDA avec ce tuto,  j'ai aussi trouvé cet autre plus clair avec un exemple au bout , en fait ça coince  dès l'install du CUDA (Toolkit 8.0) qui réclame  VisualStudio (pour compiler ?)  je me suis  donc tapé l'install de  "VS community" 2017, selon le choix comportant le compilateur C++, interminable ! o.O et ça coince toujours au m^ endroit :( 

 

Bref, je cherche une bonne âme s'il en passe une par là  pour me fabriquer en GPU le fichier  "ne4x-photo-custom-0.3.pkl.bz2"  à partir d'un dataset connu et d'une ligne de commande  paramétrable (ici en 8 itérations , il en faudrait au moins 50 sinon 250 !) :

python enhance.py --train "mydataset/*.png" --model custom --train-scales=2 --epochs=8 --perceptual-layer=conv2_2 --smoothness-weight=1e7 --adversary-weight=0.0 --generator-blocks=4 --generator-filters=64 --device=cpu

puis ensuite :

python enhance.py --train "mydataset/*.png" --model custom --train-scales=2 --epochs=250 --perceptual-layer=conv5_2 --smoothness-weight=2e4 --adversary-weight=1e3 --generator-start=5 --discriminator-start=0 --adversarial-start=5 --discriminator-size=64 --device=gpu

 

 

selon ce site.

 

Merci :) 

Modifié par Nebulium

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello :)

 

Après de multiples recherches encouragées par  ce tuto, avec  essais de plusieurs combinaisons de versions,  je vais abandonner cette piste en version GPU.

Son auteur a disparu, elle utilise Theano, maintenant abandonné aussi et certaines des  versions  possibles finissent par être refusées par W10.

 

Je vais me mettre en veille des nouveaux projets sut le GitHub pour avoir des versions fraîches et un support .

Maintenant, si un herpétologue pythonicien sait adapter le fichier "Enhance .py"  en GPU avec les versions actuelles de CUDA et TenserFlow sous Win 10,  je suis preneur :) !

Modifié par Nebulium

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant