frédogoto

image faible résolution et deep learning (extraordinaire)

Messages recommandés

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 8 minutes, BobSaintClar a dit :

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

C'est sûr que l'avenir façon Blind Lake rempli d'extraterrestres-homards et d'assassinats d'état, ça vend du rêve :P

(très bon choix de bouquin au passage, comme presque tout ce que le monsieur a écrit d'ailleurs)

 

Sinon je rejoins ce qui a été dit plus haut : reconstituer des informations manquantes dans une image floue, c'est mathématiquement un problème mal conditionné dont la résolution donne  des instabilités.

 

Exemple simpliste (oui) : mettons que je prenne mon T100, avec le capot fermé fermé bien sûr (et je rajoute un filtre en Mylar en plus pour faire bon poids), et que je tente d'imager Neptune avec. Normalement, j'aurai : du noir partout, tous les pixels à zéro ou presque (le bruit de mon capteur).

 

Manque de bol, car ma fierté personnelle fait que je souhaite quand même poster sur AS une belle image de Neptune telle qu'aurait pu l'obtenir Voyager 2, histoire de vous blouser tous et de gagner le concours de la photo du mois.

 

Si je voulais annuler l'effet de mon capot et de mon filtre Mylar, il faudrait que j'inverse mon image. Horreur, 1 divisé par 0, ça fait l'infini, ça diverge dans tous les sens.

 

Mais le deep learning à la rescousse, facile: je fais l'apprentissage de mon réseau de neurones logiciels avec des photos de Voyager 2, et je l'applique à mon image qui contient uniquement du bruit. Avec un peu de chance, j'aurai ça :

180px-Neptune_Full.jpg

 

Si je me suis trompé de jeu de données d'apprentissage, par contre, je risque d'avoir plutôt ça :

 

0080008004069606-c2-photo-oYToxOntzOjU6I

 

 

Si je lance un kickstarter avec, vous pensez que j'ai une chance ?

  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Voilà, on la tient enfin, l'image de la face cachée de Neptune :D

 

Blague à part, c'est pour moi un débat similaire au post-traitement photoshop d'une image CP: on booste par ci, par là, en fonction de l'image mentale qu'on se fait de l'objet et l'image finale est... une image, mais pas rigoureusement une photo ... Pour le côté agrandissement, je ne nie pas que ça peut être sympa pour tirer de grands formats. Maintenant, on est tous d'accord (il me semble): ça n'apporte pas d'info à l'image.

 

PS: @BobSaintClar: merci pour la suggestion lecture :)

Modifié par Jijil

Partager ce message


Lien à poster
Partager sur d’autres sites

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

C'est le type même de projet consacré à la super résolution qui sera en accès libre (avec d'autres) sur mon site www.gpu-vision.com

Ici le soft est écrit en langage Python mais sur le site (consacré aux applications de vision par GPU) les sources seront en C/C++.

Tous les développements et exécutions de code seront réalisées sur le mini PC ou le portable 17" retenu.

Ces applications sont très lentes si on les exécute sur le CPU, c'est pour cela que la programmation par GPU se développe à grande vitesse.

Dans la boîte à outils proposée, le code peut être compilé CPU, CUDA et OpenCL, ce qui permet de mesurer l'apport de CUDA ou OpenCL.

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 11/11/2017 à 21:20, ms a dit :

On regarde pratiquement tout le temps du déjà vue car la nature de la plupart des images est fractale.

Dans le cas de l'aigle ci-dessus, on ne peut deviner les détails à l'échelle supérieure que par apprentissage. Ce qui est original c'est que cette équipe sort du vieux modèle PSNR pour évaluer la qualité du résultat.

Ce type de traitement qui sera intégré au processeur graphique va se banaliser dans les prochaines années.

 

Que la nature de bcp d'images soit fractale, on est d'accord et cela relève un peu de la "panacée universelle" :D Mais c'est asymétrique à ce que je veux dire. Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques. Pour l'image du rapace qui est présentée, je préfère le concept du photographe selon lequel il vaut mieux s'approcher du sujet pour donner de la netteté et une atmosphère à l'image...  Là on apporte quelques chose.

Ouais ... pour le traiteur de signal, oui on sort du vieux modèle PSNR, voilà une nouvelle manière de faire de papier scientifique (certes avec une certaine pertinence j'en conviens) mais ne révolutionne pas la perception des choses de la planète. Que ce genre de processeur graphique se banalise, c'est prévisible évidement c'est aussi ce que les "sup de com" appellent communément l'IA.... mais les constantes anthropologiques humaines ne changent guère, c'est juste les moyens d'accéder à cette perception qui prennent parfois des chemins différents.

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques.

Je ne suis pas du tout partisan de ce type de manipulation, je n'utilise les réseaux de neurones que pour modestement me rapprocher du mécanisme de fusion utilisé par notre cerveau. Cette fusion permet de rapprocher le point de vue de l'observateur de celui de l'imageur.

Partager ce message


Lien à poster
Partager sur d’autres sites

on parle d'amélioration de l'image, pas de gain réel en résolution. Le résultat final n'est pas le même et correspond à des besoins différents. Ce que je crains fort, c'est une utilisation scientifique post-traitement sans discernement...

 

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

J'ai déjà utilisé Python avec les accélérateurs Cython et Numba mais pour la programmation par le GPU, je trouve C/C++ plus près du système.

Par contre, il y a une combinaison intéressante c'est Python + ArrayFire.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par jeffbax
      Bonjour les amis,
       
      Les dernières semaines de vaches maigres pour les observations n'ont pas eu que des inconvénients (même si c'est mieux quand il fait beau). Elles ont laissé du temps au traitement et à la gestation d'images, dont particulièrement celle-ci.
      L'idée est née avec @GuillaumeGZ, avec qui nous partageons beaucoup, suite à la publication d'un travail colossal effectué par un groupe d'une quinzaine de photographes en plus de 250 heures. Ils ont détecté les extensions de M51 comme jamais, dont en Ha.
       

       
       
      Guillaume voulait tenter cette détection et de mon coté je voulais un truc avec plus de résolution. On a d'abord pensé à des poses rapides au T350 pour la galaxie... C'était déjà pas mal. Mais en voyant s'accumuler les poses en luminance, on a changé de calibre.
       
      Exceptionnellement, nous avons marié les données issues du T1000, publiées en 2021 par la team Omicron avec celles du T250 f/4 de Guillaume.
       
      Il y a au T1000 f/3.2 8h10 de luminance et 1h45 par couche RVB - Ancienne CCD STX. Au T250 f/4 il y a 58h de L conservée sur 69h + 18h de Ha et 3h de RVB avec une 2600 MM Pro. Soit environ 92 heures.
       
      Durant ces dix derniers jours, entre les transferts de données, les versions intermédiaires et les choix partagés de rendu, on a bossé dur et finalement on s'est arrêtés sur l'image suivante. Elle résulte des compromis et corrections à tous les 3 avec @Superfulgur.
       
       

       
       
      Ne ratez pas la FULL en 6000 pixels :
       

       
       
      C'est un résultat tout en compromis que nous proposons, dont les différentes étapes de mixage seraient bien trop longues à expliquer en détails. En gros, tout ce qui est LSB (extensions lointaines) provient du T250, ainsi que le Ha. La galaxie jusqu'aux moyennes lumières vient du T1000, ainsi que les étoiles faibles et pétouilles de fond de ciel. Les extensions proches sont du T1000 + T250. On est à MAG 24 environ avec l'ancienne STX contre un peu plus de 22,5 avec le T250. Ca reste cohérent.
       
      La dynamique est monstrueuse et pour garder un aspect visuel équilibré, la galaxie est laissée en hautes lumières et brille fort. Le Ha a été intégré dans la couche rouge. Enfin, la couleur RGB vient d'un mixage des 2 télescopes. L'image du T1000 a été un poil réduite et celle du T250 agrandie raisonnablement. Pour finir on a gardé du bruit dans les extensions. On peut lisser ces extensions encore plus, même complètement, mais ça dénaturerait trop ce signal, extrêmement ténu. Ca moutonne déjà un peu là.
       
       
      Pour partage voici la L de 58h, déjà débarrassée d'une grande part de halos en prétraitement "spécial" (il en reste encore). Montée d'histogramme en GHS avec SIRIL + un masque sur la galaxie. On voit bien les structures de marée et c'est déjà surprenant.
       

       
       
      Et le petit lien Astrobin :
       

       
      La team remercie infiniment Guillaume pour ce partage et cette réalisation. Nous n'aurons jamais le temps de télescope pour attaquer ce type de LSB. Mais comme c'est moins le diamètre que le rapport F/D, la noirceur du ciel et le temps de pose qui comptent pour ces extensions, ce partage nous permet d'y accéder quand même.
       
      Voilà... On en est assez contents. Espérons qu'elle vous fera voyager aussi.
       
      Bon ciel.
       
      JF
       
    • Par Chani11
      Bonjour,
      Il s'agit d'une extension pour NINA pour gérer le retournement au méridien, qui permet de contrôler toutes les actions contrairement au meridian flip auto.
      Dans les vidéos tutos ou notice de cette extension, il faut installer le DIY meridian flip TRIGGER das lequel on doit mettre toutes les commandes. Hors celui-ci n'apparait pas, juste trois instructions qui ne fonctionnent pas seules. J'ai désinstallé puis réinstallé le pluggin, rien à faire. (mes versions sont à jour)
      Une idée ????
       

       
      Flip, rotate et wait ne peuvent fonctionner que dans M flip trigger, absent ici !
    • Par Bigcrunch
      bonsoir ,

      cette image a été prise la même nuit que le triplet du Lion , en suivant,  mais ce coup ci sans la lune ,  
      toujours avec la FS60 et son correcteur et le Sigma FP refiltré.
      147 poses de 60 s à 1250iso 112 poses retenues Prétraitement et traitement sur PI 
      images présentées : full à 1850 px ; crop à 50%; crop à 100%

      bonne soirée 
       
      Olivier




    • Par Astramazonie
      Bonjour les Astros, 
       
      Petite prise du "CASQUE DE THOR" qui date d'une semaine, que je pensais perdu dans les abysses des clichés mais qui a pu être récupérée, toujours au Seestar 20 minutes de pose.
       
      Merci à @Bob Saint-Clar pour son aide pour le traitement ... et le sauvetage de cette photo.
       

       

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
  • Évènements à venir