Nebulium 1 436 Posté(e) 19 janvier 2018 Oui... Le SSS Nasa : Le SSS utilise le même moteur que mon SN7... Et WinJupos , lui ??? Si tu es sûr de ton horodatage, c'est WJP le bon. C'est toujours bon à savoir car pourtant SN7 est OK pour les satellites de Jupiter. La GTR, elle, est à régler périodiquement (elle dérive d'environ 24° par an ! mais par rapport à quoi, au juste, Christophe ? tout est gazeux ou liquide sur Juju) selon les indications de ce site Bon, ici, l'important c'est ton image, je vais commencer à l'utiliser avec les réseaux 2 tours et généraliste pour voir. Partager ce message Lien à poster Partager sur d’autres sites
polo0258 38 437 Posté(e) 19 janvier 2018 l 'horodatage de la deuxième à 4h46tu est bon ! c'est une rgb ! SSS je ne connaissais pas ! polo Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 19 janvier 2018 Il y a 1 heure, polo0258 a dit : date 23/10/2011 à 4h46tu Non, Il faut lire 03/10/2011, et tout le monde il est d'accord ! Je préfère... Partager ce message Lien à poster Partager sur d’autres sites
polo0258 38 437 Posté(e) 19 janvier 2018 oui , c'est bien 03/10/2011 à 4h46 TU ! j'ai rectifié !! ,) polo Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 19 janvier 2018 (modifié) Après création d'un modèle en 4 itérations, j'ai repris la Mars de Yann. Le modèle en 4 (l'auteur parle d'un pré-entraînement avec 50 dont j'ai conservé tous les autres paramètres puis d'un entraînement avec 250 avec d'autres paramètre) est nettement meilleur pour les couleurs, pour la résolution le gain est imperceptible. De toute façon, pour l'instant, on n'a pas à attendre des merveilles par rapport aux traitements manuels bien réglés, mais simplement un traitement "en aveugle", c'est à dire sans réglages à adapter à l'image. Donc au centre, l'original peaufiné par Yann, à gauche le traitement IA global, à droite synthèse avec la Luminance traitée IA et les chromas a et b d'origine. En bas les luminances correspondantes. Pour l'instant, le plus évident est une très légère augmentation de saturation des couleur par le traitement IA. Le passage de 2 (voir message plus haut) à 4 a été très bénéfique pour les couleurs. Par contre je ne suis pas sûr que l'adjonction d'images classiques au dataset ait apporté quelque chose en résolution, les FFT suivent. Il me faudrait vérifier avec une puis plusieurs images HST de Mars en taille 512 comme ici et plus grandes. A 70 minutes sur un i7 double coeur par itération en mode CPU (j'ai jeté l'éponge pour le GPU, au delà de mes compétences qui serait 30 à 40 fois plus rapide dixit ms), je ne suis pas rendu ! Les FFT en couleur : original en blanc, IA en jaune : et en L : Modifié 19 janvier 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 20 janvier 2018 Citation De toute façon, pour l'instant, on n'a pas à attendre des merveilles par rapport aux traitements manuels bien réglés, mais simplement un traitement "en aveugle", c'est à dire sans réglages à adapter à l'image. Ce genre de traitement est intéressant en post-traitement d'images artificielles comme les vidéos d'EVA par exemple. Le gain (réduction du bruit, augmentation de la résolution et du contraste) c'est en amont qu'il faut aller le chercher. Avec EVA la solution est au niveau du patch qui peut être multi-trame et multi-échelle. En plus le bruit est différent en Cr et Cb donc tu dois aussi en tenir compte quand tu recréée l'image RGB à partir de YCrCb. J'hésite à intégrer la super résolution au niveau du patch mais cela est tout à fait possible en utilisant un dictionnaire par domaine. Pour l'instant cela se fera en post-traitement avec TensorFlow à partir des vidéos fournies par EVA. Dans un an ou deux avec des cartes plus puissantes, je pourrai certainement intégrer la super résolution dans une vidéo assistée en temps réel et la boucle sera bouclée. Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 21 janvier 2018 (modifié) Hello Je poursuis mes investigations dans l'utilisation de l'IA pour le traitement des images planétaires Je me cite pour rappeler que : Le 19/01/2018 à 23:43, Nebulium a dit : pour l'instant, on n'a pas à attendre des merveilles par rapport aux traitements manuels bien réglés, mais simplement un traitement "en aveugle", c'est à dire sans réglages à adapter à l'image J'ai continuer à tester l’outil sur l'excellente image de Mars par Yann. Pour moi, son traitement est irréprochable, toute retouche manuelle, sauf si elle faisait apparaître de nouveaux détails vérifiables relèverait de l'arbitraire. J'ai commencé à entraîner le réseau neuronal à partir d'une image HST d'une région différente, évidemment, réduite aux mêmes dimensions, elle est visible plus haut. Il me semble que le simu SN7 utilise la base de données du HST, j'ai récupéré la configuration de Mars le 25/02/2012 à 03:00 UTC pour valider certains détails au sol, avec une résolution maximale. Evidemment, il y a des différences atmosphériques avec la vraie photo. Mes premières conclusions sont les suivantes : - Le réseau d'accentuation standard (pour photo classique) proposé surtraite désagréablement, d"où la nécessité d'un entraînement avec un jeu d'images astro. - A partir d'essais limités (1 à 10 itérations, il en faudrait 50 à 250 et n'ayant pu encore activer la GPU de la carte graphique, chacune prend plus de 4000 secondes, soit une grosse haure sur l'i7 !), il semble suffire de très peu d'images de référence du ou des objets à traiter mais il faut qu'elles soient de résolution maximale. L'ajout d'excellentes images classiques n'apporte rien. Pour l'instant, je n'ai pas insisté sur le traitement séparé de la luminance c'est à revoir plus tard. la planche ci-dessous représente : - En haut à gauche, l'original, à droite le résultat IA avec 10 itérations et une seule référence HST Le gain de résolution se cherche, on a gagné un peu de saturation de couleur inspiré par la référence HST - En bas à gauche, le même résultat IA, au centre l'image SN7 reprise en seuils haut et bas, à droite les FFT : IA en blanc (quasi identique à celle de l'originale), SN7 en rouge La différence de résolution se passe pour les Fs entre 0.3 et 0.5. E dessous de 0.3, c'est plutôt une affaire de gamma /contraste. PS :Version HST de la zone Yann en 2016 réduite en 17% On peut s'intéresser par exemple aux détails de la zone rectangulaire à gauche : Et ici un tas d'autres images dont un planisphère HR, pouvant constituer la base d'un dataset martien. Modifié 22 janvier 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 21 janvier 2018 Ta simu SN7 montre plein de détails et pour capter ces détails EVA travaille sur des patchs de 4x4, 8x8 ou 16x16 dans un premier temps avec des rafales de 10 images puis sur une trentaine de rafales (300 images) pour extraire le maximum de signal. Après, il devient possible de remplacer chaque patch par son homologue haute résolution sans oublier la couleur au passage. Pour aller à la pêche aux détails, il faut utiliser les lucky regions mais pas seulement, il faut aussi utiliser les similarités et l'approche multi-échelle pour l'estimation du bruit. C'est à partir de cet ensemble de traitements appliqué à des rafales que l'on commence à voir émerger les détails de la turbulence. Par contre aller à la pêche à partir d'une image c'est comme si tu voulais attraper des crevettes avec une épuisette percée. Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 22 janvier 2018 (modifié) Hello J'ai encore fait cette nuit 10 itérations avec un dataset complété avec le planisphère, ça n'a rien apporté. Je pense que le dataset n'est donc pas maintenant un point critique. Par contre le nb d'itérations est important, c'est complètement surréaliste de vouloir travailler en CPU. Je suis donc reparti pour utiliser TenserFlow en GPU - CUDA avec ce tuto, j'ai aussi trouvé cet autre plus clair avec un exemple au bout , en fait ça coince dès l'install du CUDA (Toolkit 8.0) qui réclame VisualStudio (pour compiler ?) je me suis donc tapé l'install de "VS community" 2017, selon le choix comportant le compilateur C++, interminable ! et ça coince toujours au m^ endroit Bref, je cherche une bonne âme s'il en passe une par là pour me fabriquer en GPU le fichier "ne4x-photo-custom-0.3.pkl.bz2" à partir d'un dataset connu et d'une ligne de commande paramétrable (ici en 8 itérations , il en faudrait au moins 50 sinon 250 !) : python enhance.py --train "mydataset/*.png" --model custom --train-scales=2 --epochs=8 --perceptual-layer=conv2_2 --smoothness-weight=1e7 --adversary-weight=0.0 --generator-blocks=4 --generator-filters=64 --device=cpu puis ensuite : python enhance.py --train "mydataset/*.png" --model custom --train-scales=2 --epochs=250 --perceptual-layer=conv5_2 --smoothness-weight=2e4 --adversary-weight=1e3 --generator-start=5 --discriminator-start=0 --adversarial-start=5 --discriminator-size=64 --device=gpu selon ce site. Merci Modifié 22 janvier 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 26 janvier 2018 (modifié) Hello Après de multiples recherches encouragées par ce tuto, avec essais de plusieurs combinaisons de versions, je vais abandonner cette piste en version GPU. Son auteur a disparu, elle utilise Theano, maintenant abandonné aussi et certaines des versions possibles finissent par être refusées par W10. Je vais me mettre en veille des nouveaux projets sut le GitHub pour avoir des versions fraîches et un support . Maintenant, si un herpétologue pythonicien sait adapter le fichier "Enhance .py" en GPU avec les versions actuelles de CUDA et TenserFlow sous Win 10, je suis preneur ! Modifié 26 janvier 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites