CPI-Z

Comment améliorer la résolution des images planétaires

Messages recommandés

Bonjour,

 

Comme je te l'avais indiqué et afin de ne pas trop passer de temps devant l'écran, je ne me lancerai pas dans la programmation nécessaire.

Il y a des sites peut-être plus adaptés à la recherche d'algorithmes et de programmeurs.

Sur lesquels on peut échanger en forum ou rechercher des compétences.

Comme le site stackoverflow :

 

https://stackoverflow.com/questions

 

Lucien

Modifié par Lucien
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut Lucien,

salut CPI-Z,

 

Seulement 2 réponses pour ce sujet particulièrement intéressant, j'hallucine !!! :(

 

J'espère sincèrement que cela va aboutir et je suivrais ce projet avec très grand intérêt.

C'est très prometteur. :)

 

Et pendant ce temps ça continue du côté Topaz.... 13 pages de messages !!

Je rêve !

 

Albéric

Modifié par xs_man
  • J'aime 4

Partager ce message


Lien à poster
Partager sur d’autres sites

J'espère que tu trouveras le développeur qui pourra finaliser ce projet ! 

Merci Jean-Pierre de ton investissement pour l'amélioration des images planétaires :) 

Modifié par Penn
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Intéressant ! Malheureusement, je serais bien en peine de donner un coup de main.

Juste par curiosité. Quelle serait la méthode implémentée ? Dans les méthode post -facto, il y a eu la méthode "phase diversity deconvolution" qui a été utilisée avec succès en solaire. Pas besoin d'AO, mais uniquement de deux images prises en même temps: un image nette et une image défocalisée.

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Tant que j'y pense, tu pourrais en parler à Emil ? Il y a longtemps, j'avais évoqué avec lui des méthodes de speckle deconvolution utilisées par les pro en solaire. En fait, il avait déjà testé un ou deux trucs de son côté.

 

Sur Cloudy Night, il y a également un très long post d'un informaticien Allemand qui a développé un soft de traitement d'images (types AS, AstroPlanete, etc.). A voir s'il serait tenté de se lancer dans l'aventure ?

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Voilà, j'ai retrouvé. C'est Rolf Hempel, Directeur de l'Institute for Software Technology, qui dépend du DLR. Bref, si tu arrives à le convaincre, tu as gagné ;)

https://www.dlr.de/sc/en/desktopdefault.aspx/tabid-1177/1651_read-1362/

https://www.cloudynights.com/topic/645890-new-stacking-software-project-planetarysystemstacker/

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, xs_man a dit :

Seulement 2 réponses pour ce sujet particulièrement intéressant, j'hallucine !!! :(

Sûrement parce que peu ici ont les compétences pour être d'une aide quelconque. Mais ça n' empêche pas de suivre avec intérêt ce projet. :)

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 08/03/2021 à 14:31, CPI-Z a dit :

En résumé si l’on dispose de la bonne PSF « réelle » la déconvolution fonctionne bien pour retrouver la résolution théorique.

Dans mes essais wiener fonctionne d autant mieux qu'on donne une psf idéale de l'instrument. Je ne suis pas parvenu à corriger des defauts comme la coma. Pas de conclusion définitive mais je me demande si va marche bien.

 

Pour le reste je te rejoins, j'ai déjà suggéré le developpement d'un tel algo. Si il ballayais les 15 premiers polynomes de Zernike en deconvolution aveugle pour chercher la solution qui contient le plus d'information, ce serait très intéressant 

J'ai néanmoins peur que le bruit des brutes soit une limite, de même que la puissance de calcul requises. L'histoire du bruit pourrait se contourner en évaluant toutes les sommes possibles avec toutes les deconvolutions possibles sur les brutes, ... mais là pas de doute que la puissance de cancul n'est pas terrestre :)

Partager ce message


Lien à poster
Partager sur d’autres sites

Et bien, il y a Topaz denoise et Topaz sharpen ;):):):)  OK, je sors ...

  • J'aime 2
  • Haha 3

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 12 heures, christian viladrich a dit :

Juste par curiosité. Quelle serait la méthode implémentée ? Dans les méthode post -facto, il y a eu la méthode "phase diversity deconvolution" qui a été utilisée avec succès en solaire. Pas besoin d'AO, mais uniquement de deux images prises en même temps: un image nette et une image défocalisée.

Bonjour Christian,

Oui c'est tout à fait ça le sujet ici.

Il y a eu des implémentations de faites, je n'ai pas recensé.

Il est certain que certaines fonctions sophistiquées et vraiment abouties ne sont pas données gratuitement sur Internet.

 

D'un autre côté, il y a l'idée simple de faire la déconvolution de chaque image d'une vidéo avant de faire les opérations habituelles.

Étant donné que j'ai ça dans certains de mes outils; j'en présenterai le résultat prochainement.

Mais ce n'est pas une révolution.

 

Le 08/03/2021 à 14:31, CPI-Z a dit :

Mais on a le droit de rêver …

Bonjour Jean-Pierre,

Je te tiens au courant si je peux me dégager du temps par la suite mais ce ne sera pas avant plusieurs mois. B|

 

Lucien

 

 

 

Modifié par Lucien
  • J'aime 1
  • J'adore 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 17 heures, jldauvergne a dit :

Dans mes essais wiener fonctionne d autant mieux qu'on donne une psf idéale de l'instrument ...

Ce n'est pas logique puisque justement un speckle ou tavelure est justement une psf déformée, et une coma n'est qu'un type de psf déformée.

 

Par contre sur une image d'objet étendu la psf n'est pas forcement la même au centre et au bord. A chaque zone sa PSF , il faudrait donc entrevoir une solution par découpage en zones un peu comme le fait AutoStakkert ou AstroSurface en stacking.

 

Concernant le bruit 20dB c'est déjà pas négligeable et on a aussi la propriété de la convolution.

Donc on peut réduire le bruit en travaillant par petite séquences courtes dans le temps (un groupe d'images réduisent le bruit), sans pour autant ne pas perdre l'avantage de l'exploitation de l'ensemble de la vidéo.

Ne pas oublier en plus les pré-filtres de bruit.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 6 heures, Lucien a dit :

Je te tiens au courant si je peux me dégager du temps par la suite mais ce ne sera pas avant plusieurs mois.

Là c'est un gros changement :):):)

Il faudrait que l'on en discute pour cerner le cadre du besoin,

Un commencement réel pas avant plusieurs mois, en ce qui me concerne c'est sans problème ...

 

 

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, CPI-Z a dit :

il faudrait donc entrevoir une solution par découpage de zones

c'est un peu le sens des recherches que j'ai pu voir vite fait : au delà de chercher une psf unique, les gens cherchent à estimer la psf correspondante à une zone particulière de l'image pour corriger les déformations locales. A la fin, ils n'ont donc pas une seul psf mais un champ de psf pour corriger l'image de façon plus précise sur tout le champ. 

Ce genre de truc on le retrouve en astro mais aussi en imagerie medicale, genre imagerie par fluorescence.... 

Mais l'estimation des psf repose sur des d'étoiles présentent dans l'image ou bien à partir d'une mire de sources ponctuelles (dans le cas d'imagerie médicale), du moins dans les papiers que j'ai vu voir rapidement. 

 

Estimer la psf à partir d'une image quelconque n'a pas l'air trivial. 

Pourtant, le soft SmartDeblur genère une psf non ? il fait comment ? 

 

C'est sans doute pas pertinent mais est ce qu'on pourrait imaginer une méthode itérative pour estimer la psf ? genre :

- on part d'une psf théorique à partir des paramètres du train optique : diamètre du scope, échantillonnage (si c'est possible ? )

- deconvo  avec cette psf théorique

- et ensuite on mesure une(des) métrique(s) entre l'image originale et l'image deconvo qu'on va chercher à minimiser/maximiser en modifiant la psf theorique de départ, itérativement ? 

 

c'est sans doute bien naïf, j'avoue ne pas être du domaine, et les maths derriere tout ça me sont totalement hors de portée

je réfléchis un peu à voix haute ^_^ 

mais le projet est super intéressant ! 

 

 

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, ZeMrHyde a dit :

A la fin, ils n'ont donc pas une seul psf mais un champ de psf pour corriger l'image de façon plus précise sur tout le champ. 

Oui c'est l'idée.

 

Il y a 1 heure, ZeMrHyde a dit :

Mais l'estimation des psf repose sur des d'étoiles présentent dans l'image ou bien à partir d'une mire de sources ponctuelles (dans le cas d'imagerie médicale), du moins dans les papiers que j'ai vu voir rapidement. 

 

Estimer la psf à partir d'une image quelconque n'a pas l'air trivial. 

Pourtant, le soft SmartDeblur genère une psf non ? il fait comment ? 

L'estimation des psf repose sur des d'étoiles ... ça c'est la méthode classique par exemple développée dans l'OA dynamique ou pour le contrôle d'une optique.

Le soft SmartDeblur genère une psf non ? Oui c'est ce qu'on appel la déconvolution aveugle qui fonctionne "partiellement". AIDA produit aussi une psf estimer et comme tu le décris avec la possibilité supplémentaire de partir d'une psf initiale. Ils utilisent certainement des méthodes itératives. Comment ils fonctionnent réellement je ne sais pas et je n'ai rien trouvé sur leurs méthodes réelles.

 

Ici on parle de diversité de phase connue depuis 1982 où il faut au minimum 2 images simultanées dont les écarts (de phase) sont connues. La version la plus simple est une simple défocalisation connue.

Voici le principe de base:

6048e60322fcd_Principediversitdephase.PNG.d4227d3a4f0c05771f192c0fa299b285.PNG

Il faudrait donc 2 caméras parfaitement synchronisées ce qui est quasiment impossible (ou coûteux).

 

L'idée du kit à placer devant la caméra que je propose est bien plus accessible, un télescope et une seule caméra, celle dont vous disposez déjà.

Kit_DP.png.cb701ac69f1e15f4e4f253681f74f62c.png

L'image focalisée et l'image légèrement défocalisée sont capturées sur le même capteur, donc parfaitement synchronisées et séparées géographiquement sur le capteur.

Il suffit de translater l'un des 2 miroir d'une quantité mesurée donc connue.

En résumé la mise en œuvre est largement accessible et très très loin du coût d'une OA dynamique avec analyseur de type Shack-Hartmann qui en plus est non adapté aux objets étendus, l'imagerie planétaire ou la Lune.

Il y a aussi le travail par post-traitement ce qui laisse tout le temps nécessaire au logiciel.

 

Mais reste tout de même la création du logiciel s'appuyant sur la publication trouvée, d'où ce post.

Modifié par CPI-Z
  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 8 minutes, CPI-Z a dit :

L'image focalisée et l'image légèrement défocalisée sont capturées sur le même capteur

c'est une bonne idée. Je ne suis pas compétent pour juger si c'est réalisable, mais c'est intéressant et pas forcément très compliqué à développer optiquement (composants standards). 

  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 14 minutes, CPI-Z a dit :

Ici on parle de diversité de phase connue depuis 1982 où il faut au minimum 2 images simultanées dont les écarts (de phase) sont connues.

y'a même des travaux récents à base de Deep Learning (qui devraient plaire à JLD ^_^  )

https://www.biorxiv.org/content/10.1101/2020.04.05.026567v1.full.pdf

c'est dans le domaine de la microscopie, mais ils ont un peu les mêmes problèmes que "nous" 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, ZeMrHyde a dit :

mais ils ont un peu les mêmes problèmes que "nous" 

Oui et Non car en microscopie (surtout en fluo) on pratique des défocalisation successives de pas connus. De là on reconstruit la psf mais en 3D. Si tu pratique la microscopie ImageJ à déjà ce plugin disponible gracieusement. PS : il y en a d'autres comme ICY avec son plugin EpiDEMIC.

Par contre en astro comment prendre une série de défocalisations synchrone avec la turbulence qui change tout le temps ?

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, CPI-Z a dit :

en astro comment prendre une série de défocalisations synchrone avec la turbulence qui change tout le temps ?

avec le système à miroir que tu proposes ? :) 

 

  • Confus 1

Partager ce message


Lien à poster
Partager sur d’autres sites

L'IA fait des merveilles en tous cas, en refaisant en 4K le premier film des frères Lumière !

 

 

Ce serait intéressant de voir l’algorithme utilisé.

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 3 minutes, Kaptain a dit :

Ce serait intéressant de voir l’algorithme utilisé

 

dans la description de la video de l'auteur sur youtube : 

Citation

Algorithms that were used:

››› To upscale to 4k – Gigapixel AI – Topaz Labs https://vc.ru/76580

››› To add FPS – Dain, https://sites.google.com/view/wenboba...

 

Topaz a encore frappé ! :D 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, ZeMrHyde a dit :

Topaz a encore frappé !

il est super pertinent en terrestre et s'en est une bonne illustration. 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Je ne suis pas certain de bien comprendre l'idée, je m'en était arrêté aux basiques du traitement du signal où l'on sait mathématiquement construire le signal de sortie d'une boite noire (un instrument d'optique par ex) à partir à la fois du signal source envoyé en entrée mais aussi à partir de la réponse impulsionnelle (un Dirac en entrée) de cette boite noire ce que l'on résume par :  image = source * PSF (* = opérateur de convolution).

 

Donc connaissant la PSF qui n'est ni plus ni moins la réponse impulsionnelle de l'instrument d'optique qui est ici l'image d'une étoile (lumière de une source ponctuelle) ainsi que l'image pale copie de la source produite par l'instrument on peut retrouver l'image de la source débarrassée de ses imperfections. Le filtre Wiener est l'application directe de ce principe qui en plus prend en compte la composante "bruit" dans le signal : https://fr.wikipedia.org/wiki/Déconvolution_de_Wiener

 

Impulsion = étoile --------> [Instrument] ---------> PSF

Wiener (image moche, PSF) ---------> Image restaurée

 

On pourrait éventuellement refaire le même raisonnement lorsque le filtre n'est plus l'instrument mais la turbulence ... le soucis c'est que le turbu est loin d'être uniforme sur une grande surface de ciel (pour capturer la PSF) et en plus elle change très vite dans le temps, juste pour dire que je ne crois guère aux miracles on ne pourra jamais retrouver une info qui n'existe pas dans le signal sauf avec l'IA bien sûr pour qui c'est un jeu d'enfant xD

 

Je pense que la plupart d'entre vous connaissez déjà tout ça dans les moindre détails et donc bien mieux que moi, par contre je vais me renseigner sur cette méthode de recherche de phase pour me mettre un peu à jour ...  ^_^

Modifié par jgricourt

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 65,8 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

    • Par XavS
      Bonsoir tout le monde,
       
      Enfin, je peux poster quelques images.
       
      Première sortie de l'année sur mon site de l'été à 1 000 M d'altitude. Malgré un voile présent en altitude je ne me suis pas gêné pour photographier le ciel
       
      La cible était la galaxie NGC 4051. C'est une galaxie spirale intermédiaire située dans la constellation de la Grande Ourse. NGC 4051 a été découverte par l'astronome germano-britannique William Herschel en 1788. Elle est située à environ ∼44,5 millions d'A.L.
       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 70 x 300s
      Darks : 7 x 300s
      Offsets : 29 x 1ms
      Flats : 29 x 120ms
      Total : 5 h 50
      Traitement : Sirilic, Siril et Gimp
       
      Et comme à mon habitude, voici un joli quartier de Lune présenté en deux versions.
       

       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 57 sur 231 x 1s
      Traitement : AS4, Astrosurface et Gimp
       
      La galaxie ne me plaît pas trop. Je ne saurais dire pourquoi. Par contre pour mon quartier de Lune, je l'adore
       
      Vos commentaires sont la bienvenue.
       
      Bon ciel à toutes et tous.
       
      XavS
       
    • Par Romain Guillou
      Un ciel laiteux, mais que cela ne tienne, on voit quand même les étoiles, donc s'est repartie pour une cible bien connue :

      M81 et M82, La galaxie de Bode et du Cigare.

      Exifs :
       
      145x120s à 1025iso DOF (20 chacune) + Autoguidage Lunette 60mm Canon 60D Défiltré + CLS SW Quattro 250P et EQ6 r pro Traitement Siril + PS
        Faite à Ronsenac (Charente) depuis mon jardin le 13/04/24


    • Par Andromedae93
      Bonjour à toute la team,

      Dans un soucis d'optimisation du setup et surtout afin de minimiser l'impact du tilt entre autre, j'ai une question à vous poser.
      Actuellement je possède un LACERTA 200/800 (celui-ci : https://lacerta-optics.com/FN2008c-new_200-800-Lacerta-Carbon-Photonewton-zusammengebaut-in) avec un PO Octoplus (celui-ci : https://www.pierro-astro.com/materiel-astronomique/accessoires-astronomie/mise-au-point-focus/porte-oculaires-octoplus-rap-pour-newton-200mm-lacerta_detail).

      Je possède également le correcteur de coma SW GPU à 4 lentilles, plutôt bien indiqué pour les optiques à F4.
      Néanmoins, je pense que ce correcteur installé dans le PO en "glissant" peut générer un peu de tilt et je souhaiterai changer le correcteur pour être sûr du vissant.

      Je pensais à cela :
       
      Correcteur TS GPU : https://www.pierro-astro.com/tsoptics/correcteur-de-coma-ts-optics-gpu-pour-newton-f3-5-a-f6_detail
      Bague adaptatrice : https://www.pierro-astro.com/materiel-astronomique/accessoires-astronomie/bague-adaptatrice-porte-oculaires-filetés-m54x0,75mm-pour-correcteur-de-coma-mpcc-et-tsgpu-ts_detail
       
      Je pense que c'est compatible et que ça permettra de gagne en stabilité ?

      Si vous avez d'autres suggestions, je suis preneur, mais je pense que ça peut être un plus important afin de palier au tilt que j'ai actuellement.

      Merci à vous,

      Valentin
  • Évènements à venir