frédogoto

image faible résolution et deep learning (extraordinaire)

Messages recommandés

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 8 minutes, BobSaintClar a dit :

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

C'est sûr que l'avenir façon Blind Lake rempli d'extraterrestres-homards et d'assassinats d'état, ça vend du rêve :P

(très bon choix de bouquin au passage, comme presque tout ce que le monsieur a écrit d'ailleurs)

 

Sinon je rejoins ce qui a été dit plus haut : reconstituer des informations manquantes dans une image floue, c'est mathématiquement un problème mal conditionné dont la résolution donne  des instabilités.

 

Exemple simpliste (oui) : mettons que je prenne mon T100, avec le capot fermé fermé bien sûr (et je rajoute un filtre en Mylar en plus pour faire bon poids), et que je tente d'imager Neptune avec. Normalement, j'aurai : du noir partout, tous les pixels à zéro ou presque (le bruit de mon capteur).

 

Manque de bol, car ma fierté personnelle fait que je souhaite quand même poster sur AS une belle image de Neptune telle qu'aurait pu l'obtenir Voyager 2, histoire de vous blouser tous et de gagner le concours de la photo du mois.

 

Si je voulais annuler l'effet de mon capot et de mon filtre Mylar, il faudrait que j'inverse mon image. Horreur, 1 divisé par 0, ça fait l'infini, ça diverge dans tous les sens.

 

Mais le deep learning à la rescousse, facile: je fais l'apprentissage de mon réseau de neurones logiciels avec des photos de Voyager 2, et je l'applique à mon image qui contient uniquement du bruit. Avec un peu de chance, j'aurai ça :

180px-Neptune_Full.jpg

 

Si je me suis trompé de jeu de données d'apprentissage, par contre, je risque d'avoir plutôt ça :

 

0080008004069606-c2-photo-oYToxOntzOjU6I

 

 

Si je lance un kickstarter avec, vous pensez que j'ai une chance ?

  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Voilà, on la tient enfin, l'image de la face cachée de Neptune :D

 

Blague à part, c'est pour moi un débat similaire au post-traitement photoshop d'une image CP: on booste par ci, par là, en fonction de l'image mentale qu'on se fait de l'objet et l'image finale est... une image, mais pas rigoureusement une photo ... Pour le côté agrandissement, je ne nie pas que ça peut être sympa pour tirer de grands formats. Maintenant, on est tous d'accord (il me semble): ça n'apporte pas d'info à l'image.

 

PS: @BobSaintClar: merci pour la suggestion lecture :)

Modifié par Jijil

Partager ce message


Lien à poster
Partager sur d’autres sites

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

C'est le type même de projet consacré à la super résolution qui sera en accès libre (avec d'autres) sur mon site www.gpu-vision.com

Ici le soft est écrit en langage Python mais sur le site (consacré aux applications de vision par GPU) les sources seront en C/C++.

Tous les développements et exécutions de code seront réalisées sur le mini PC ou le portable 17" retenu.

Ces applications sont très lentes si on les exécute sur le CPU, c'est pour cela que la programmation par GPU se développe à grande vitesse.

Dans la boîte à outils proposée, le code peut être compilé CPU, CUDA et OpenCL, ce qui permet de mesurer l'apport de CUDA ou OpenCL.

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 11/11/2017 à 21:20, ms a dit :

On regarde pratiquement tout le temps du déjà vue car la nature de la plupart des images est fractale.

Dans le cas de l'aigle ci-dessus, on ne peut deviner les détails à l'échelle supérieure que par apprentissage. Ce qui est original c'est que cette équipe sort du vieux modèle PSNR pour évaluer la qualité du résultat.

Ce type de traitement qui sera intégré au processeur graphique va se banaliser dans les prochaines années.

 

Que la nature de bcp d'images soit fractale, on est d'accord et cela relève un peu de la "panacée universelle" :D Mais c'est asymétrique à ce que je veux dire. Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques. Pour l'image du rapace qui est présentée, je préfère le concept du photographe selon lequel il vaut mieux s'approcher du sujet pour donner de la netteté et une atmosphère à l'image...  Là on apporte quelques chose.

Ouais ... pour le traiteur de signal, oui on sort du vieux modèle PSNR, voilà une nouvelle manière de faire de papier scientifique (certes avec une certaine pertinence j'en conviens) mais ne révolutionne pas la perception des choses de la planète. Que ce genre de processeur graphique se banalise, c'est prévisible évidement c'est aussi ce que les "sup de com" appellent communément l'IA.... mais les constantes anthropologiques humaines ne changent guère, c'est juste les moyens d'accéder à cette perception qui prennent parfois des chemins différents.

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques.

Je ne suis pas du tout partisan de ce type de manipulation, je n'utilise les réseaux de neurones que pour modestement me rapprocher du mécanisme de fusion utilisé par notre cerveau. Cette fusion permet de rapprocher le point de vue de l'observateur de celui de l'imageur.

Partager ce message


Lien à poster
Partager sur d’autres sites

on parle d'amélioration de l'image, pas de gain réel en résolution. Le résultat final n'est pas le même et correspond à des besoins différents. Ce que je crains fort, c'est une utilisation scientifique post-traitement sans discernement...

 

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

J'ai déjà utilisé Python avec les accélérateurs Cython et Numba mais pour la programmation par le GPU, je trouve C/C++ plus près du système.

Par contre, il y a une combinaison intéressante c'est Python + ArrayFire.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Astramazonie
      Bonjour les Astros, 
       
      Petite prise du "CASQUE DE THOR" qui date d'une semaine, que je pensais perdu dans les abysses des clichés mais qui a pu être récupérée, toujours au Seestar 20 minutes de pose.
       
      Merci à @Bob Saint-Clar pour son aide pour le traitement ... et le sauvetage de cette photo.
       

       

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 65,8 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

    • Par XavS
      Bonsoir tout le monde,
       
      Enfin, je peux poster quelques images.
       
      Première sortie de l'année sur mon site de l'été à 1 000 M d'altitude. Malgré un voile présent en altitude je ne me suis pas gêné pour photographier le ciel
       
      La cible était la galaxie NGC 4051. C'est une galaxie spirale intermédiaire située dans la constellation de la Grande Ourse. NGC 4051 a été découverte par l'astronome germano-britannique William Herschel en 1788. Elle est située à environ ∼44,5 millions d'A.L.
       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 70 x 300s
      Darks : 7 x 300s
      Offsets : 29 x 1ms
      Flats : 29 x 120ms
      Total : 5 h 50
      Traitement : Sirilic, Siril et Gimp
       
      Et comme à mon habitude, voici un joli quartier de Lune présenté en deux versions.
       

       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 57 sur 231 x 1s
      Traitement : AS4, Astrosurface et Gimp
       
      La galaxie ne me plaît pas trop. Je ne saurais dire pourquoi. Par contre pour mon quartier de Lune, je l'adore
       
      Vos commentaires sont la bienvenue.
       
      Bon ciel à toutes et tous.
       
      XavS
       
    • Par Romain Guillou
      Un ciel laiteux, mais que cela ne tienne, on voit quand même les étoiles, donc s'est repartie pour une cible bien connue :

      M81 et M82, La galaxie de Bode et du Cigare.

      Exifs :
       
      145x120s à 1025iso DOF (20 chacune) + Autoguidage Lunette 60mm Canon 60D Défiltré + CLS SW Quattro 250P et EQ6 r pro Traitement Siril + PS
        Faite à Ronsenac (Charente) depuis mon jardin le 13/04/24


  • Évènements à venir