frédogoto

image faible résolution et deep learning (extraordinaire)

Messages recommandés

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 8 minutes, BobSaintClar a dit :

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

C'est sûr que l'avenir façon Blind Lake rempli d'extraterrestres-homards et d'assassinats d'état, ça vend du rêve :P

(très bon choix de bouquin au passage, comme presque tout ce que le monsieur a écrit d'ailleurs)

 

Sinon je rejoins ce qui a été dit plus haut : reconstituer des informations manquantes dans une image floue, c'est mathématiquement un problème mal conditionné dont la résolution donne  des instabilités.

 

Exemple simpliste (oui) : mettons que je prenne mon T100, avec le capot fermé fermé bien sûr (et je rajoute un filtre en Mylar en plus pour faire bon poids), et que je tente d'imager Neptune avec. Normalement, j'aurai : du noir partout, tous les pixels à zéro ou presque (le bruit de mon capteur).

 

Manque de bol, car ma fierté personnelle fait que je souhaite quand même poster sur AS une belle image de Neptune telle qu'aurait pu l'obtenir Voyager 2, histoire de vous blouser tous et de gagner le concours de la photo du mois.

 

Si je voulais annuler l'effet de mon capot et de mon filtre Mylar, il faudrait que j'inverse mon image. Horreur, 1 divisé par 0, ça fait l'infini, ça diverge dans tous les sens.

 

Mais le deep learning à la rescousse, facile: je fais l'apprentissage de mon réseau de neurones logiciels avec des photos de Voyager 2, et je l'applique à mon image qui contient uniquement du bruit. Avec un peu de chance, j'aurai ça :

180px-Neptune_Full.jpg

 

Si je me suis trompé de jeu de données d'apprentissage, par contre, je risque d'avoir plutôt ça :

 

0080008004069606-c2-photo-oYToxOntzOjU6I

 

 

Si je lance un kickstarter avec, vous pensez que j'ai une chance ?

  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Voilà, on la tient enfin, l'image de la face cachée de Neptune :D

 

Blague à part, c'est pour moi un débat similaire au post-traitement photoshop d'une image CP: on booste par ci, par là, en fonction de l'image mentale qu'on se fait de l'objet et l'image finale est... une image, mais pas rigoureusement une photo ... Pour le côté agrandissement, je ne nie pas que ça peut être sympa pour tirer de grands formats. Maintenant, on est tous d'accord (il me semble): ça n'apporte pas d'info à l'image.

 

PS: @BobSaintClar: merci pour la suggestion lecture :)

Modifié par Jijil

Partager ce message


Lien à poster
Partager sur d’autres sites

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

C'est le type même de projet consacré à la super résolution qui sera en accès libre (avec d'autres) sur mon site www.gpu-vision.com

Ici le soft est écrit en langage Python mais sur le site (consacré aux applications de vision par GPU) les sources seront en C/C++.

Tous les développements et exécutions de code seront réalisées sur le mini PC ou le portable 17" retenu.

Ces applications sont très lentes si on les exécute sur le CPU, c'est pour cela que la programmation par GPU se développe à grande vitesse.

Dans la boîte à outils proposée, le code peut être compilé CPU, CUDA et OpenCL, ce qui permet de mesurer l'apport de CUDA ou OpenCL.

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 11/11/2017 à 21:20, ms a dit :

On regarde pratiquement tout le temps du déjà vue car la nature de la plupart des images est fractale.

Dans le cas de l'aigle ci-dessus, on ne peut deviner les détails à l'échelle supérieure que par apprentissage. Ce qui est original c'est que cette équipe sort du vieux modèle PSNR pour évaluer la qualité du résultat.

Ce type de traitement qui sera intégré au processeur graphique va se banaliser dans les prochaines années.

 

Que la nature de bcp d'images soit fractale, on est d'accord et cela relève un peu de la "panacée universelle" :D Mais c'est asymétrique à ce que je veux dire. Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques. Pour l'image du rapace qui est présentée, je préfère le concept du photographe selon lequel il vaut mieux s'approcher du sujet pour donner de la netteté et une atmosphère à l'image...  Là on apporte quelques chose.

Ouais ... pour le traiteur de signal, oui on sort du vieux modèle PSNR, voilà une nouvelle manière de faire de papier scientifique (certes avec une certaine pertinence j'en conviens) mais ne révolutionne pas la perception des choses de la planète. Que ce genre de processeur graphique se banalise, c'est prévisible évidement c'est aussi ce que les "sup de com" appellent communément l'IA.... mais les constantes anthropologiques humaines ne changent guère, c'est juste les moyens d'accéder à cette perception qui prennent parfois des chemins différents.

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques.

Je ne suis pas du tout partisan de ce type de manipulation, je n'utilise les réseaux de neurones que pour modestement me rapprocher du mécanisme de fusion utilisé par notre cerveau. Cette fusion permet de rapprocher le point de vue de l'observateur de celui de l'imageur.

Partager ce message


Lien à poster
Partager sur d’autres sites

on parle d'amélioration de l'image, pas de gain réel en résolution. Le résultat final n'est pas le même et correspond à des besoins différents. Ce que je crains fort, c'est une utilisation scientifique post-traitement sans discernement...

 

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

J'ai déjà utilisé Python avec les accélérateurs Cython et Numba mais pour la programmation par le GPU, je trouve C/C++ plus près du système.

Par contre, il y a une combinaison intéressante c'est Python + ArrayFire.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par airbus340
      Bonsoir à tous ,
       
      Je vous soumets ce flat pour avoir votre avis.
      Le halo central vous paraît -il normal ?
      On dirait un gros donut 
      Je n'avais jamais remarqué ça auparavant 
      L'histogramme est à 31500 donc bon normalement 
      Merci par avance pour vous réponses 
      Ph
       

    • Par sebseacteam
      Salut les planéteux/luneux/bronzés  
       
      Je viens de tomber dans Github sur une version spéciale de PHD2 destinée à faire du guidage en planétaire.
       
      Logiciel ici:

      https://github.com/Eyeke2/phd2.planetary/releases
       
      Explications là:
       
      https://github.com/Eyeke2/phd2.planetary/wiki/Quick-Start-Guide-for-Solar-Guiding
       

       

       

       

       
      (pas eu le temps de tester encore, pas de planètes visibles encore, lune trop basse en ce moment, soleil...caché par les nuages en journée)
       
       
    • Par FrancoisGAP
       Bien que le nombre de poses soit relativement modeste (115 poses de 120 secondes avec l’Optolong Clear), le résultat est déjà très prometteur et révèle des détails fascinants de cette galaxie.
       
      Détails su mon site web : https://planetediy.fr/index.php/2024/05/19/capturer-la-magnifique-galaxie-m51/
       
       

       

       
      Détail du Matériel Utilisé :
      TS-ONTC HYPERGRAPH 10″ 254/1000 (Fd4)
      Correcteur Réducteur 0,85×3″ soit 863mm (Fd3,4)
      EQ8R-Pro sur Pilier Acier DIY
      ZWO ASI2600MC DUO + Optolong Clear 2″ + Optolong LExtreme 2″
      ZWO EAF
      ZWO EFW 5 positions 2″
      Temps intégration total de 4.73h
      Clear 115x120s Gain=100 (-20°C) soit 3.83h
      LExtreme 27x120s Gain=100 (-20°C) soit 0.9h
      40 Darks Gain=100
      40 Darks Flat Gain=100
      40 Flats Gain=100
      Traitement PSD / Pixinsight
       
      Pour répondre aux nombreuses demandes de ceux qui veulent voir le seeing aveyronnais en action, j’ai posté une vidéo YouTube montrant l’assemblage des 115 images brutes de 120 secondes. Bien que cette nuit n’ait pas été incroyablement claire, elle démontre la qualité de notre ciel ici.
       
       
    • Par frédogoto
      Edit 18/05/2025
      la v2 j'ai trouvé d'autres images encore mieu sur ma carte SD
      cette fois avec les lumiere de ma maison allumée , ça donne du relief 

       
      pano vertical de 4 images
      Canon 5 D antique, Tamron 28/75 f2.8
      6 secondes unitaires à 800 iso
      je comprends mieux pourquoi mon fond de ciel sur la galaxie m109 était tout rouge hier soir ^^

    • Par biver
      Voilà 2 photos prises au foyer du T407 au NATs:
      le 9 mai à 22h21 UT (162s de pose cumulées)
      et le lendemain le 10 mai à 24h04 UT (142s)
      Et oui, le ciel n'avait pas tout à fait la même couleur!
      Pourtant, contrairement à ma photo de M51
      je visais au-delà de la zone de ciel... polluée par l'aurore, mais cela diffusait partout!
      Cependant pour cette dernière une balance des blanc était encore possible, contrairement à M51.
      Nicolas
       


  • Évènements à venir