CPI-Z

Comment améliorer la résolution des images planétaires

Messages recommandés

Bonjour,

 

Comme je te l'avais indiqué et afin de ne pas trop passer de temps devant l'écran, je ne me lancerai pas dans la programmation nécessaire.

Il y a des sites peut-être plus adaptés à la recherche d'algorithmes et de programmeurs.

Sur lesquels on peut échanger en forum ou rechercher des compétences.

Comme le site stackoverflow :

 

https://stackoverflow.com/questions

 

Lucien

Modifié par Lucien
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut Lucien,

salut CPI-Z,

 

Seulement 2 réponses pour ce sujet particulièrement intéressant, j'hallucine !!! :(

 

J'espère sincèrement que cela va aboutir et je suivrais ce projet avec très grand intérêt.

C'est très prometteur. :)

 

Et pendant ce temps ça continue du côté Topaz.... 13 pages de messages !!

Je rêve !

 

Albéric

Modifié par xs_man
  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites

J'espère que tu trouveras le développeur qui pourra finaliser ce projet ! 

Merci Jean-Pierre de ton investissement pour l'amélioration des images planétaires :) 

Modifié par Penn
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Intéressant ! Malheureusement, je serais bien en peine de donner un coup de main.

Juste par curiosité. Quelle serait la méthode implémentée ? Dans les méthode post -facto, il y a eu la méthode "phase diversity deconvolution" qui a été utilisée avec succès en solaire. Pas besoin d'AO, mais uniquement de deux images prises en même temps: un image nette et une image défocalisée.

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Tant que j'y pense, tu pourrais en parler à Emil ? Il y a longtemps, j'avais évoqué avec lui des méthodes de speckle deconvolution utilisées par les pro en solaire. En fait, il avait déjà testé un ou deux trucs de son côté.

 

Sur Cloudy Night, il y a également un très long post d'un informaticien Allemand qui a développé un soft de traitement d'images (types AS, AstroPlanete, etc.). A voir s'il serait tenté de se lancer dans l'aventure ?

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Voilà, j'ai retrouvé. C'est Rolf Hempel, Directeur de l'Institute for Software Technology, qui dépend du DLR. Bref, si tu arrives à le convaincre, tu as gagné ;)

https://www.dlr.de/sc/en/desktopdefault.aspx/tabid-1177/1651_read-1362/

https://www.cloudynights.com/topic/645890-new-stacking-software-project-planetarysystemstacker/

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, xs_man a dit :

Seulement 2 réponses pour ce sujet particulièrement intéressant, j'hallucine !!! :(

Sûrement parce que peu ici ont les compétences pour être d'une aide quelconque. Mais ça n' empêche pas de suivre avec intérêt ce projet. :)

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 08/03/2021 à 14:31, CPI-Z a dit :

En résumé si l’on dispose de la bonne PSF « réelle » la déconvolution fonctionne bien pour retrouver la résolution théorique.

Dans mes essais wiener fonctionne d autant mieux qu'on donne une psf idéale de l'instrument. Je ne suis pas parvenu à corriger des defauts comme la coma. Pas de conclusion définitive mais je me demande si va marche bien.

 

Pour le reste je te rejoins, j'ai déjà suggéré le developpement d'un tel algo. Si il ballayais les 15 premiers polynomes de Zernike en deconvolution aveugle pour chercher la solution qui contient le plus d'information, ce serait très intéressant 

J'ai néanmoins peur que le bruit des brutes soit une limite, de même que la puissance de calcul requises. L'histoire du bruit pourrait se contourner en évaluant toutes les sommes possibles avec toutes les deconvolutions possibles sur les brutes, ... mais là pas de doute que la puissance de cancul n'est pas terrestre :)

Partager ce message


Lien à poster
Partager sur d’autres sites

Et bien, il y a Topaz denoise et Topaz sharpen ;):):):)  OK, je sors ...

  • J'aime 2
  • Haha 3

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 12 heures, christian viladrich a dit :

Juste par curiosité. Quelle serait la méthode implémentée ? Dans les méthode post -facto, il y a eu la méthode "phase diversity deconvolution" qui a été utilisée avec succès en solaire. Pas besoin d'AO, mais uniquement de deux images prises en même temps: un image nette et une image défocalisée.

Bonjour Christian,

Oui c'est tout à fait ça le sujet ici.

Il y a eu des implémentations de faites, je n'ai pas recensé.

Il est certain que certaines fonctions sophistiquées et vraiment abouties ne sont pas données gratuitement sur Internet.

 

D'un autre côté, il y a l'idée simple de faire la déconvolution de chaque image d'une vidéo avant de faire les opérations habituelles.

Étant donné que j'ai ça dans certains de mes outils; j'en présenterai le résultat prochainement.

Mais ce n'est pas une révolution.

 

Le 08/03/2021 à 14:31, CPI-Z a dit :

Mais on a le droit de rêver …

Bonjour Jean-Pierre,

Je te tiens au courant si je peux me dégager du temps par la suite mais ce ne sera pas avant plusieurs mois. B|

 

Lucien

 

 

 

Modifié par Lucien
  • J'aime 1
  • J'adore 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 17 heures, jldauvergne a dit :

Dans mes essais wiener fonctionne d autant mieux qu'on donne une psf idéale de l'instrument ...

Ce n'est pas logique puisque justement un speckle ou tavelure est justement une psf déformée, et une coma n'est qu'un type de psf déformée.

 

Par contre sur une image d'objet étendu la psf n'est pas forcement la même au centre et au bord. A chaque zone sa PSF , il faudrait donc entrevoir une solution par découpage en zones un peu comme le fait AutoStakkert ou AstroSurface en stacking.

 

Concernant le bruit 20dB c'est déjà pas négligeable et on a aussi la propriété de la convolution.

Donc on peut réduire le bruit en travaillant par petite séquences courtes dans le temps (un groupe d'images réduisent le bruit), sans pour autant ne pas perdre l'avantage de l'exploitation de l'ensemble de la vidéo.

Ne pas oublier en plus les pré-filtres de bruit.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 6 heures, Lucien a dit :

Je te tiens au courant si je peux me dégager du temps par la suite mais ce ne sera pas avant plusieurs mois.

Là c'est un gros changement :):):)

Il faudrait que l'on en discute pour cerner le cadre du besoin,

Un commencement réel pas avant plusieurs mois, en ce qui me concerne c'est sans problème ...

 

 

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, CPI-Z a dit :

il faudrait donc entrevoir une solution par découpage de zones

c'est un peu le sens des recherches que j'ai pu voir vite fait : au delà de chercher une psf unique, les gens cherchent à estimer la psf correspondante à une zone particulière de l'image pour corriger les déformations locales. A la fin, ils n'ont donc pas une seul psf mais un champ de psf pour corriger l'image de façon plus précise sur tout le champ. 

Ce genre de truc on le retrouve en astro mais aussi en imagerie medicale, genre imagerie par fluorescence.... 

Mais l'estimation des psf repose sur des d'étoiles présentent dans l'image ou bien à partir d'une mire de sources ponctuelles (dans le cas d'imagerie médicale), du moins dans les papiers que j'ai vu voir rapidement. 

 

Estimer la psf à partir d'une image quelconque n'a pas l'air trivial. 

Pourtant, le soft SmartDeblur genère une psf non ? il fait comment ? 

 

C'est sans doute pas pertinent mais est ce qu'on pourrait imaginer une méthode itérative pour estimer la psf ? genre :

- on part d'une psf théorique à partir des paramètres du train optique : diamètre du scope, échantillonnage (si c'est possible ? )

- deconvo  avec cette psf théorique

- et ensuite on mesure une(des) métrique(s) entre l'image originale et l'image deconvo qu'on va chercher à minimiser/maximiser en modifiant la psf theorique de départ, itérativement ? 

 

c'est sans doute bien naïf, j'avoue ne pas être du domaine, et les maths derriere tout ça me sont totalement hors de portée

je réfléchis un peu à voix haute ^_^ 

mais le projet est super intéressant ! 

 

 

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, ZeMrHyde a dit :

A la fin, ils n'ont donc pas une seul psf mais un champ de psf pour corriger l'image de façon plus précise sur tout le champ. 

Oui c'est l'idée.

 

Il y a 1 heure, ZeMrHyde a dit :

Mais l'estimation des psf repose sur des d'étoiles présentent dans l'image ou bien à partir d'une mire de sources ponctuelles (dans le cas d'imagerie médicale), du moins dans les papiers que j'ai vu voir rapidement. 

 

Estimer la psf à partir d'une image quelconque n'a pas l'air trivial. 

Pourtant, le soft SmartDeblur genère une psf non ? il fait comment ? 

L'estimation des psf repose sur des d'étoiles ... ça c'est la méthode classique par exemple développée dans l'OA dynamique ou pour le contrôle d'une optique.

Le soft SmartDeblur genère une psf non ? Oui c'est ce qu'on appel la déconvolution aveugle qui fonctionne "partiellement". AIDA produit aussi une psf estimer et comme tu le décris avec la possibilité supplémentaire de partir d'une psf initiale. Ils utilisent certainement des méthodes itératives. Comment ils fonctionnent réellement je ne sais pas et je n'ai rien trouvé sur leurs méthodes réelles.

 

Ici on parle de diversité de phase connue depuis 1982 où il faut au minimum 2 images simultanées dont les écarts (de phase) sont connues. La version la plus simple est une simple défocalisation connue.

Voici le principe de base:

6048e60322fcd_Principediversitdephase.PNG.d4227d3a4f0c05771f192c0fa299b285.PNG

Il faudrait donc 2 caméras parfaitement synchronisées ce qui est quasiment impossible (ou coûteux).

 

L'idée du kit à placer devant la caméra que je propose est bien plus accessible, un télescope et une seule caméra, celle dont vous disposez déjà.

Kit_DP.png.cb701ac69f1e15f4e4f253681f74f62c.png

L'image focalisée et l'image légèrement défocalisée sont capturées sur le même capteur, donc parfaitement synchronisées et séparées géographiquement sur le capteur.

Il suffit de translater l'un des 2 miroir d'une quantité mesurée donc connue.

En résumé la mise en œuvre est largement accessible et très très loin du coût d'une OA dynamique avec analyseur de type Shack-Hartmann qui en plus est non adapté aux objets étendus, l'imagerie planétaire ou la Lune.

Il y a aussi le travail par post-traitement ce qui laisse tout le temps nécessaire au logiciel.

 

Mais reste tout de même la création du logiciel s'appuyant sur la publication trouvée, d'où ce post.

Modifié par CPI-Z
  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 8 minutes, CPI-Z a dit :

L'image focalisée et l'image légèrement défocalisée sont capturées sur le même capteur

c'est une bonne idée. Je ne suis pas compétent pour juger si c'est réalisable, mais c'est intéressant et pas forcément très compliqué à développer optiquement (composants standards). 

  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 14 minutes, CPI-Z a dit :

Ici on parle de diversité de phase connue depuis 1982 où il faut au minimum 2 images simultanées dont les écarts (de phase) sont connues.

y'a même des travaux récents à base de Deep Learning (qui devraient plaire à JLD ^_^  )

https://www.biorxiv.org/content/10.1101/2020.04.05.026567v1.full.pdf

c'est dans le domaine de la microscopie, mais ils ont un peu les mêmes problèmes que "nous" 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, ZeMrHyde a dit :

mais ils ont un peu les mêmes problèmes que "nous" 

Oui et Non car en microscopie (surtout en fluo) on pratique des défocalisation successives de pas connus. De là on reconstruit la psf mais en 3D. Si tu pratique la microscopie ImageJ à déjà ce plugin disponible gracieusement. PS : il y en a d'autres comme ICY avec son plugin EpiDEMIC.

Par contre en astro comment prendre une série de défocalisations synchrone avec la turbulence qui change tout le temps ?

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, CPI-Z a dit :

en astro comment prendre une série de défocalisations synchrone avec la turbulence qui change tout le temps ?

avec le système à miroir que tu proposes ? :) 

 

  • Confus 1

Partager ce message


Lien à poster
Partager sur d’autres sites

L'IA fait des merveilles en tous cas, en refaisant en 4K le premier film des frères Lumière !

 

 

Ce serait intéressant de voir l’algorithme utilisé.

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 3 minutes, Kaptain a dit :

Ce serait intéressant de voir l’algorithme utilisé

 

dans la description de la video de l'auteur sur youtube : 

Citation

Algorithms that were used:

››› To upscale to 4k – Gigapixel AI – Topaz Labs https://vc.ru/76580

››› To add FPS – Dain, https://sites.google.com/view/wenboba...

 

Topaz a encore frappé ! :D 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, ZeMrHyde a dit :

Topaz a encore frappé !

il est super pertinent en terrestre et s'en est une bonne illustration. 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Je ne suis pas certain de bien comprendre l'idée, je m'en était arrêté aux basiques du traitement du signal où l'on sait mathématiquement construire le signal de sortie d'une boite noire (un instrument d'optique par ex) à partir à la fois du signal source envoyé en entrée mais aussi à partir de la réponse impulsionnelle (un Dirac en entrée) de cette boite noire ce que l'on résume par :  image = source * PSF (* = opérateur de convolution).

 

Donc connaissant la PSF qui n'est ni plus ni moins la réponse impulsionnelle de l'instrument d'optique qui est ici l'image d'une étoile (lumière de une source ponctuelle) ainsi que l'image pale copie de la source produite par l'instrument on peut retrouver l'image de la source débarrassée de ses imperfections. Le filtre Wiener est l'application directe de ce principe qui en plus prend en compte la composante "bruit" dans le signal : https://fr.wikipedia.org/wiki/Déconvolution_de_Wiener

 

Impulsion = étoile --------> [Instrument] ---------> PSF

Wiener (image moche, PSF) ---------> Image restaurée

 

On pourrait éventuellement refaire le même raisonnement lorsque le filtre n'est plus l'instrument mais la turbulence ... le soucis c'est que le turbu est loin d'être uniforme sur une grande surface de ciel (pour capturer la PSF) et en plus elle change très vite dans le temps, juste pour dire que je ne crois guère aux miracles on ne pourra jamais retrouver une info qui n'existe pas dans le signal sauf avec l'IA bien sûr pour qui c'est un jeu d'enfant xD

 

Je pense que la plupart d'entre vous connaissez déjà tout ça dans les moindre détails et donc bien mieux que moi, par contre je vais me renseigner sur cette méthode de recherche de phase pour me mettre un peu à jour ...  ^_^

Modifié par jgricourt

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Blink
      Bonjour!
       
      J'image avec une ZWO 2600 MC et une lunette de 100mm /520 de focale. Je souhaite acheter un télescope pour avoir plus de lumière et de focale pour photographier des objets plus petits (galaxies de printemps par exemple).
      la ZWO 2600 MC a des pixels de 3.75 microns
       
      Selon la loi qui définit l'échantillonnage, E = 206*P/F,  avec un instrument de 800 mm de focale (type TN 200/800 par exemple)  j'arrive à 206*3.75/800 = 0.96 secondes d'arc
      Compte tenu des possibilités de seing en France, il n'est pas utile d'avoir une focale plus grande, car je serai directement sur-échantillonné, n'est ce pas?
       
      Je vous remercie pour ce rappel sur la loi ... de l'échantillonnage
       
      Bon ciel ce soir!
    • Par airbus340
      Bonsoir à tous ,
       
      Je vous soumets ce flat pour avoir votre avis.
      Le halo central vous paraît -il normal ?
      On dirait un gros donut 
      Je n'avais jamais remarqué ça auparavant 
      L'histogramme est à 31500 donc bon normalement 
      Merci par avance pour vous réponses 
      Ph
       

    • Par sebseacteam
      Salut les planéteux/luneux/bronzés  
       
      Je viens de tomber dans Github sur une version spéciale de PHD2 destinée à faire du guidage en planétaire.
       
      Logiciel ici:

      https://github.com/Eyeke2/phd2.planetary/releases
       
      Explications là:
       
      https://github.com/Eyeke2/phd2.planetary/wiki/Quick-Start-Guide-for-Solar-Guiding
       

       

       

       

       
      (pas eu le temps de tester encore, pas de planètes visibles encore, lune trop basse en ce moment, soleil...caché par les nuages en journée)
       
       
    • Par FrancoisGAP
       Bien que le nombre de poses soit relativement modeste (115 poses de 120 secondes avec l’Optolong Clear), le résultat est déjà très prometteur et révèle des détails fascinants de cette galaxie.
       
      Détails su mon site web : https://planetediy.fr/index.php/2024/05/19/capturer-la-magnifique-galaxie-m51/
       
       

       

       
      Détail du Matériel Utilisé :
      TS-ONTC HYPERGRAPH 10″ 254/1000 (Fd4)
      Correcteur Réducteur 0,85×3″ soit 863mm (Fd3,4)
      EQ8R-Pro sur Pilier Acier DIY
      ZWO ASI2600MC DUO + Optolong Clear 2″ + Optolong LExtreme 2″
      ZWO EAF
      ZWO EFW 5 positions 2″
      Temps intégration total de 4.73h
      Clear 115x120s Gain=100 (-20°C) soit 3.83h
      LExtreme 27x120s Gain=100 (-20°C) soit 0.9h
      40 Darks Gain=100
      40 Darks Flat Gain=100
      40 Flats Gain=100
      Traitement PSD / Pixinsight
       
      Pour répondre aux nombreuses demandes de ceux qui veulent voir le seeing aveyronnais en action, j’ai posté une vidéo YouTube montrant l’assemblage des 115 images brutes de 120 secondes. Bien que cette nuit n’ait pas été incroyablement claire, elle démontre la qualité de notre ciel ici.
       
       
    • Par frédogoto
      Edit 18/05/2025
      la v2 j'ai trouvé d'autres images encore mieu sur ma carte SD
      cette fois avec les lumiere de ma maison allumée , ça donne du relief 

       
      pano vertical de 4 images
      Canon 5 D antique, Tamron 28/75 f2.8
      6 secondes unitaires à 800 iso
      je comprends mieux pourquoi mon fond de ciel sur la galaxie m109 était tout rouge hier soir ^^

  • Évènements à venir