frédogoto

image faible résolution et deep learning (extraordinaire)

Messages recommandés

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 8 minutes, BobSaintClar a dit :

Vous n'avez pas lu Blind lake, de Robert C. Wilson ?

Cette histoire d'image à la résolution améliorée - à bon ou mauvais escient - via une IA, appliquée à l'astronomie dans l'espoir d'en voir plus sur les exoplanètes... a été traitée dans ce roman, il y a pratiquement 15 ans. Il se lit très bien, je vous le recommande.

J'espère que l'avenir "à la sauce SF" que nous promettent les IA sera plutôt du genre Blind Lake que Terminator ¬¬

C'est sûr que l'avenir façon Blind Lake rempli d'extraterrestres-homards et d'assassinats d'état, ça vend du rêve :P

(très bon choix de bouquin au passage, comme presque tout ce que le monsieur a écrit d'ailleurs)

 

Sinon je rejoins ce qui a été dit plus haut : reconstituer des informations manquantes dans une image floue, c'est mathématiquement un problème mal conditionné dont la résolution donne  des instabilités.

 

Exemple simpliste (oui) : mettons que je prenne mon T100, avec le capot fermé fermé bien sûr (et je rajoute un filtre en Mylar en plus pour faire bon poids), et que je tente d'imager Neptune avec. Normalement, j'aurai : du noir partout, tous les pixels à zéro ou presque (le bruit de mon capteur).

 

Manque de bol, car ma fierté personnelle fait que je souhaite quand même poster sur AS une belle image de Neptune telle qu'aurait pu l'obtenir Voyager 2, histoire de vous blouser tous et de gagner le concours de la photo du mois.

 

Si je voulais annuler l'effet de mon capot et de mon filtre Mylar, il faudrait que j'inverse mon image. Horreur, 1 divisé par 0, ça fait l'infini, ça diverge dans tous les sens.

 

Mais le deep learning à la rescousse, facile: je fais l'apprentissage de mon réseau de neurones logiciels avec des photos de Voyager 2, et je l'applique à mon image qui contient uniquement du bruit. Avec un peu de chance, j'aurai ça :

180px-Neptune_Full.jpg

 

Si je me suis trompé de jeu de données d'apprentissage, par contre, je risque d'avoir plutôt ça :

 

0080008004069606-c2-photo-oYToxOntzOjU6I

 

 

Si je lance un kickstarter avec, vous pensez que j'ai une chance ?

  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Voilà, on la tient enfin, l'image de la face cachée de Neptune :D

 

Blague à part, c'est pour moi un débat similaire au post-traitement photoshop d'une image CP: on booste par ci, par là, en fonction de l'image mentale qu'on se fait de l'objet et l'image finale est... une image, mais pas rigoureusement une photo ... Pour le côté agrandissement, je ne nie pas que ça peut être sympa pour tirer de grands formats. Maintenant, on est tous d'accord (il me semble): ça n'apporte pas d'info à l'image.

 

PS: @BobSaintClar: merci pour la suggestion lecture :)

Modifié par Jijil

Partager ce message


Lien à poster
Partager sur d’autres sites

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

J'ai bien trouvé l'image de départ dans le répertoire "input" . J'aurais bien voulu tester Enhancenet avec cet algorithme. Mais mes compétences dans l'installation du logiciel son insuffisantes. C'est dommage.

C'est le type même de projet consacré à la super résolution qui sera en accès libre (avec d'autres) sur mon site www.gpu-vision.com

Ici le soft est écrit en langage Python mais sur le site (consacré aux applications de vision par GPU) les sources seront en C/C++.

Tous les développements et exécutions de code seront réalisées sur le mini PC ou le portable 17" retenu.

Ces applications sont très lentes si on les exécute sur le CPU, c'est pour cela que la programmation par GPU se développe à grande vitesse.

Dans la boîte à outils proposée, le code peut être compilé CPU, CUDA et OpenCL, ce qui permet de mesurer l'apport de CUDA ou OpenCL.

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 11/11/2017 à 21:20, ms a dit :

On regarde pratiquement tout le temps du déjà vue car la nature de la plupart des images est fractale.

Dans le cas de l'aigle ci-dessus, on ne peut deviner les détails à l'échelle supérieure que par apprentissage. Ce qui est original c'est que cette équipe sort du vieux modèle PSNR pour évaluer la qualité du résultat.

Ce type de traitement qui sera intégré au processeur graphique va se banaliser dans les prochaines années.

 

Que la nature de bcp d'images soit fractale, on est d'accord et cela relève un peu de la "panacée universelle" :D Mais c'est asymétrique à ce que je veux dire. Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques. Pour l'image du rapace qui est présentée, je préfère le concept du photographe selon lequel il vaut mieux s'approcher du sujet pour donner de la netteté et une atmosphère à l'image...  Là on apporte quelques chose.

Ouais ... pour le traiteur de signal, oui on sort du vieux modèle PSNR, voilà une nouvelle manière de faire de papier scientifique (certes avec une certaine pertinence j'en conviens) mais ne révolutionne pas la perception des choses de la planète. Que ce genre de processeur graphique se banalise, c'est prévisible évidement c'est aussi ce que les "sup de com" appellent communément l'IA.... mais les constantes anthropologiques humaines ne changent guère, c'est juste les moyens d'accéder à cette perception qui prennent parfois des chemins différents.

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Par le déjà vu j'entendais un peu: a quoi bon améliorer les images avec un processus d'apprentissage (hormis à titre d'information, d'identification policière et de pédagogie...) pour obtenir des images sommes toutes classiques.

Je ne suis pas du tout partisan de ce type de manipulation, je n'utilise les réseaux de neurones que pour modestement me rapprocher du mécanisme de fusion utilisé par notre cerveau. Cette fusion permet de rapprocher le point de vue de l'observateur de celui de l'imageur.

Partager ce message


Lien à poster
Partager sur d’autres sites

on parle d'amélioration de l'image, pas de gain réel en résolution. Le résultat final n'est pas le même et correspond à des besoins différents. Ce que je crains fort, c'est une utilisation scientifique post-traitement sans discernement...

 

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

@ms: au passage une question: plutôt de convertir du Python en C/C++, as-tu testé ce que donnerait du Cython?

J'ai déjà utilisé Python avec les accélérateurs Cython et Numba mais pour la programmation par le GPU, je trouve C/C++ plus près du système.

Par contre, il y a une combinaison intéressante c'est Python + ArrayFire.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par FrancoisGAP
      La Nébuleuse du Croissant et sa Bulle de Savon Voisine
       
      Bonjour à tous,
      Je suis ravi de partager avec vous ma dernière photo de NGC 6888, la Nébuleuse du Croissant, capturée lors d'une rare nuit dégagée ici en Aveyron. 
       

       
      ### Détails Techniques
      - **Instrument** : TS Optics Hypergraph 10" (254/1000 Fd4)
      - **Correcteur Réducteur** : 0,85×2″, soit 863mm (Fd3.4)
      - **Caméra** : ZWO ASI2600MC DUO
      - **Monture** : EQ8R Pro
      - **Guidage** : ZWO ASI220MM Mini with DUO
      - **Mise au point** : ZWO EAF
      - **Roue à filtres** : ZWO EFW 5x2"
      - **Filtre utilisé** : Optolong L-Extreme
      ### Détails de Prise de Vue
      - **Temps d'intégration total** : 5.73 heures
      - **Poses** : 172 x 120s à Gain=100 (-20°C)
      - **Calibration** : 40 Darks, 40 Darks Flat, 40 Flats
      - **Traitement** : PixInsight et Photoshop
       

       
      NGC 6888, également connue sous le nom de la Nébuleuse du Croissant, est située dans la constellation du Cygne, à environ 5 000 années-lumière de la Terre. Cette nébuleuse en émission est formée par le vent stellaire de l'étoile massive WR 136 (une étoile Wolf-Rayet), qui souffle les couches extérieures de l'étoile, créant cette structure complexe de gaz et de poussière. Le diamètre de NGC 6888 est d'environ 25 années-lumière.
      À proximité, on peut également observer la nébuleuse de la Bulle de Savon (PN G75.5+1.7), une nébuleuse planétaire découverte plus récemment. Bien qu'elle soit moins connue que NGC 6888, elle offre une vue fascinante avec sa forme sphérique et ses détails fins.
       
      En observant NGC 6888, on pourrait se demander si l'on regarde une méduse, un croissant ou même un cerveau. Heureusement, la Bulle de Savon à côté met tout le monde d'accord avec sa forme claire et distincte. 😊
      Et pour répondre aux sceptiques, je confirme que cette photo n'a pas été prise à travers les nuages !!!
       

       
       
      Pour plus de détails et des images supplémentaires, vous pouvez consulter mon article complet ici : https://planetediy.fr/index.php/2024/06/09/ngc-6888-croissant-meduse-ou-cerveau-la-grande-question-astrophotographique/
       
      J'espère que vous apprécierez cette image autant que j'ai pris plaisir à la capturer et la traiter. Vos commentaires et critiques constructives sont les bienvenus !
      Clear skies à tous !
    • Par Rolumix
      Le Soleil ce matin, juste avant les nuages...

    • Par Phil49
      Bonjour à tous,
       
      Hier soir, je profitais de ces rares soirées claires ou exploitables même pour des réglages techniques.
       
      Je voulais finaliser mes réglages sur mon RC 8 et en voulant mesurer l'incidence de la rotation de la bague de mon porte oculaire, j'ai perdu PHD2 malgré de nombreuses tentatives !
       
      Pour fixer le cadre, si vous regardez ma signature, j'ai une AZ EQ6 qui marche très bien, j'avais déjà fait des soirées avant celle-ci depuis l'année dernière, et pas plus tard que la veille.
       
      La chaine otique était composée de mon OAG Large Player One, un porte filtre avec un Optolong L Pro, et la Player One Artemis C-Pro déjà utilisée les quelques nuits claires précédentes.
       
      Je pilote l'imagerie avec mon miniPC Mele Quieter 3C qui marche parfaitement également, mon setup est alimenté sur secteur en passant par une alimentation de labo, car je suis dans mon observatoire, bref, des conditions de prises de vues idéales.
      Un poil de vent très très léger, mais pas plus que les nuits précédentes, par ailleurs je suis bien protégé dans l'observatoire.
       
      Comme d'habitude, je fais mon alignement polaire avec TPPA (Three Point Polar Alignment) dans NINA, je fais un goto vers Dubhé et une astrométrie pour vérifier que tout est ok, et je pointe ensuite vers une cible étoilée pour faire ma manip de rotation de la bague de mon P.O.
       
      C'était NGC 7000.
       
      Première image à 30 secondes...
       

       
      PHD2 avait commencé à tourner, on était dans une moyenne de 0.6/0.7 en RMS,  pas le meilleur guidage mais correct pour les conditions de cette nuit.
       

       
      Je reviens à mon RC 8, je fais 2 ou 3 rotations de la bague de P.O et vérifie le résultat en direct avec NINA dans l'assistant cadrage, le cadrage me parait plaisant, et je décide de faire quelques clichés en lançant une séquence avancée de quelques images.
       
      Mais quand je retourne sur PHD2, c'est la catastrophe !
       
      Je stoppe celui-ci avec le panneau stop, je revérifie les réglages qui n'avaient pas changé, je relance, mais pareil !
       
      Il part dans des directions invraisemblables, j'arrête proprement NINA, je redémarre mon miniPC, je refais mon alignement polaire, je relance mon goto, mon astrométrie, je pointe à nouveau sur NGC 7000, la bague de mon P.O était restée sur la dernière position, et je relance une séquence avancée me disant que je serai fixé puisqu'il fera la totale de toute manière.
       
      Et là, rebelote !
       
      J'ai stoppé la séquence, j'ai essayé de modifier les valeurs qui avaient bien fonctionné la veille et malgré une demi douzaine d'arrêts redémarrages, déconnexions de la monture et de la camera dans PHD2 rien à faire ! :-(
       
      La seule chose que je n'ai pas fait c'est d'arrêter électriquement la monture et de retester, mais cela aurait il changé quoi que ce soit...
       
      Je joins à ce post le fichier log de PHD 2, on voit toutes les tentatives...
       

       
      J'avoue que je ne comprends pas ce qui a pu  ce point "détraquer" PHD2 qui ne m'avait jamais fait cela !
       
      Et je n'ai pas le commencement d'une piste logique.
       
      Est-ce le fait d'avoir tourné la bague de mon P.O ??
       
      Invraisemblable, non !?
       
      Merci pour vos aides !
       
      Philippe
       
       
      PHD2_GuideLog_2024-06-08_225054.txt
    • Par Astramazonie
      Salut,
       
      Petite et courte observation avant hier soir vers 3h du matin ne trouvant pas le sommeil ... Entre deux ouvertures nuageuses, j'ai pu observer une cible que j'attendais ...
      la fameuse nébuleuse de " l'Oeil de Dieu " ... 
       
      Toujours au seestar depuis la Guyane avec 20 minutes de pose ( oui les nuages sont arrivés aussi vite ... ) 
      Petit traitement sur Photoshop, GraXpert et Siril ( enfin je me suis mis dessus mais pas encore opérationnel dessus ) 
       
      Pas top top mais j'espère que vous apprécierez ... 
       
      Bon ciel 
       
       

    • Par pleclech94
      Bonjour,
       
      j'adore Blur Exterminator je trouve l'outil formidable en revanche il y a une seule chose qui me gêne vraiment. C'est la transformation des galaxies faibles en étoiles.
      Pour vous illustrer le sujet j'ai mis une comparaison de 2 clichés 
      Celui de gauche a plus de temps d'intégration que celui de droite et l'application de BXT montre 2 résultats différents. Ce qui me saute aux yeux immédiatement c'est la galaxie en haut à gauche qui est vraiment une galaxie sur l'image de gauche et qui est une étoile sur celle de droite.
      Je précise que le traitement des 2 images a été fait avec les mêmes paramètres, elles sont directement comparables.
      On voit aussi que sur l'image de gauche en bas il y a une nouvelle étoile qui apparait et qui est aussi certainement une galaxie faible.
      Voilà je voulais vous en faire part car je trouve qu'il faut faire attention lors de l'utilisation de BXT à ces fausses étoiles qui ruinent un peu le rendu final et l'exactitude de l'information de la prise de vue.
      Vous avez certainement vous aussi remarqué cela et quelle solution avez-vous trouvé ?
       

  • Évènements à venir