ALF

Traitement par PSF

Messages recommandés

il y a 26 minutes, CPI-Z a dit :

Alors, toujours pas d'avantage à passer par une PSF réelle ?

Si si carrément, moi je suis convaincu depuis l'automne dernier, je trouve qu'en plus ça améliore grandement le rapport signal/bruit, aussi (j'imagine que c'est pour la même raison qu'une faible turbu produit des images moins bruitées qu'une plus intense). 

Pour moi, avec ou sans psf, c'est comme passer d'un seeing de 6/10 à un de 8/10. Les petits détails sont plus ronds, moins déformés, et du coup plus contrastés... il faut juste passer du temps à paramétrer le traitement, et la taille de la psf. C'est le point critique et on a encore besoin de pas mal expérimenter, mais je pense que c'est clairement une rupture dans l'histoire du traitement d'image planétaire. 

  • J'aime 5

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 28/09/2021 à 23:36, CPI-Z a dit :

Une solution est de passer par la convolution de la psf capturée par la psf_théorique.

Je veux bien passer pour l'âne de service et faire mienne la citation de Meftah "Mieux vaut poser une question au risque de paraître idiot, que de ne pas avoir de réponse et rester bête toute votre vie. " mais au bout du compte CPI-Z, que doit-on faire ?

- Realiser un bon traitement d'un SER non cramé d'une étoile propre de la cible

- Déconvolution de cette PSF par elle-même (déconvolution inverse filtering)

Jusqu'ici je suivais mais après, ça se brouille.:$

Il est question d'une Deconvolution Wiener ! A  faire dans la foulée ? avec la PSF qui a servi à la déconvolution inverse ?

Help!;)

Guy

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 10 heures, CPI-Z a dit :

Alors, toujours pas d'avantage à passer par une PSF réelle ?

Merci à toi Jean-Luc pour cet exemple à mon avis démonstratif.

chouette les gifs animés, c'est bien parlant. 

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 22 minutes, Meade45 a dit :

- Déconvolution de cette PSF par elle-même (déconvolution inverse filtering)

Jusqu'ici je suivais mais après, ça se brouille.:$

Il est question d'une Deconvolution Wiener ! A  faire dans la foulée ? avec la PSF qui a servi à la déconvolution inverse ?

Help!;)

Oublie la partie déconvolution inverse et tout le tralala? 
Une PSF dans Wiener et basta. 
Ce qu'évoque CPi-Z plus haut me semble intéressant, mais sans doute plus pour une approche de correction en live. 
Nous ce que l'on fait c'est de corriger avec une PSF générée aussi proche que possible de la théorie du télescope. Et cette PSF va généralement avoir un aspect voisin de la  PSF parfaite d'un instrument théorique parfait de même caractéristiques. 
Ce que je comprends de ce que l'on fait c'est que la déconvolution corrige la dispersion de lumière liée à la diffraction de l'image d'un point à travers l'optique. En particulier le 1er anneau de diffraction. 
Je ne suis pas convaincu que si j'appliquais à mes images une référence montrant uniquement les défauts de mon télescope, j'obtienne quelque chose de meilleur qu'avec la PSF réelle. 
Je peux me tromper, mais si je me trompe je veux bien la démonstration. 

Version courte : le Wiener avec une PSF réelle ça fonctionne drôlement bien. Pas de raison de changer de méthode pour le moment. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, jldauvergne a dit :

Version courte : le Wiener avec une PSF réelle ça fonctionne drôlement bien. Pas de raison de changer de méthode pour le moment

Cette conclusion  claire me va!  Merci JLD.

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 8 heures, Meade45 a dit :

au bout du compte CPI-Z, que doit-on faire ?

- Realiser un bon traitement d'un SER non cramé d'une étoile propre de la cible

- Déconvolution de cette PSF par elle-même (déconvolution inverse filtering) ...

1 - Réaliser un traitement d'un SER non cramé d'une étoile proche de la cible : OUI.

C'est ce que j'appelle une PSF réelle.

2 - Effectuer la déconvolution du traitement SER de la planète avec cette PSF réelle.

L'outil recommandé : Astrosurface / Deconvolution Wiener sur fichier PSF.  Mais ce n'est pas le seul outil possible, il en existe d'autres.

 

Il y a 8 heures, Meade45 a dit :

- Déconvolution de cette PSF par elle-même (déconvolution inverse filtering) ...

NON.

J'ai juste voulu montrer que la déconvolution Wiener d'Astrosurface n'était pas une simple déconvolution inverse filtering classique et que c'est plus compliqué que cela un bon soft de déconvolution.

 

Reste juste le débat non clair semble-t-il d'utiliser la PSF théorique (méthode recommandée par JLD) ou d'utiliser une PSF réelle.

Comme je l'ai déjà dit,

- la PSF théorique aide et fonctionne bien sur un télescope bien collimaté donc sans ou avec peu de défauts optiques.

- au contraire si le télescope est imparfait, vaux mieux utiliser une PSF réelle (celle du moment).

J'ai démontrer l'utilité de la PSF réelle dans le traitement comparatif avec l'exemple dans ce post des images fournies par JLD .

D'ailleurs sur ma comparaison présentée tu n'as rien dit :(:(:(, pourtant de ton coté ce serait un bon exemple de comparaison à réaliser par toi même. Après tu fais comme tu veux.

PS: comprendre passe par la mise en œuvre.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 49 minutes, CPI-Z a dit :

Reste juste le débat non clair semble-t-il d'utiliser la PSF théorique (méthode recommandée par JLD) ou d'utiliser une PSF réelle.

 

Mais semble-t-il, si j'ai bien retenu, il faut également utiliser cette PSF (réelle ou théorique) à 70-80% de sa taille normale ? ou tout du moins, chercher si une taille plus petite que 100% améliore le traitement ?

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 57 minutes, CPI-Z a dit :

Reste juste le débat non clair semble-t-il d'utiliser la PSF théorique (méthode recommandée par JLD)

 

Euh... Jean-Luc recommande bien (comme d'ailleurs dans sa vidéo) d'utiliser la PSF réelle:

 

Il y a 9 heures, jldauvergne a dit :


Version courte : le Wiener avec une PSF réelle ça fonctionne drôlement bien. Pas de raison de changer de méthode pour le moment. 

 

Quelque chose m'échappe?

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, JP-Prost a dit :

à 70-80% de sa taille normale ? ou tout du moins, chercher si une taille plus petite que 100% améliore le traitement ?

Là je ne sais pas répondre, je n'est pas fait l'essai.

Ce qui joue c'est la modification de son contraste ou pour une PSF réelle le nombre d'images retenue. Pour moi ici c'est environ 70 à 80% de la série.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, astrovicking a dit :

Euh... Jean-Luc recommande bien (comme d'ailleurs dans sa vidéo) d'utiliser la PSF réelle:

 

Il y a 1 heure, astrovicking a dit :

Quelque chose m'échappe?

 

Il y a 11 heures, jldauvergne a dit :

Nous ce que l'on fait c'est de corriger avec une PSF générée aussi proche que possible de la théorie du télescope. Et cette PSF va généralement avoir un aspect voisin de la  PSF parfaite d'un instrument théorique parfait de même caractéristiques. 

donc PSF théorique générée (confère JLD)

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 45 minutes, CPI-Z a dit :

donc PSF théorique générée (confère JLD)

pas vraiment théorique puisqu'elle est prise avec le télescope; 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, jldauvergne a dit :

pas vraiment théorique puisqu'elle est prise avec le télescope; 

Dans ce cas si capturée c'est donc une psf réelle.

Partager ce message


Lien à poster
Partager sur d’autres sites

Hou là là, il va falloir se mettre d’accord sur les termes car les béotiens comme moi vont vite perdre les pédales. 

😳

  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 13 heures, CPI-Z a dit :

D'ailleurs sur ma comparaison présentée tu n'as rien dit :(:(:(

Mais je garde ça en tête pour mise en oeuvre au plus tôt ! Précedement, je n'ai pas été très convaincu. J'ai constaté une surexposition de ma PSF, ça c'est réglé. Après le fait de prendre une étoile genre Markab assez loin de Saturne peut aussi être un paramètre important.

Guy

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 28/09/2021 à 11:39, jldauvergne a dit :

Et dans le pire de cas, si on observe avec une casserole la PSF peut sauver la mise. C'est ce qui m'est arrivé il y a peu de temps. La casserole était le Mewlon 300 très déréglé. 

 

Effectivement et c'est vérifiable ,donc sur cette image de J-L.D du 5 septembre avec le mewlon déréglé

deconvolution -wiener :

 

Animation2.gif.9e11067ea051d3e9764f442718e4590a.gif

 

- 1 mewlon déréglé avec une PSF réelle JLD  quand mewlon bien réglé ( PSFL290 )

- 2 mewlon déréglé  MAIS avec une Psf réelle JLD ce jour d'acquisition

- 3  mewlon déréglé Registax 6

 

On voit bien que si tube déréglé ,

1-  l'utilisation d'une Psf effectuée sur  un Tube réglé ne donne pas de bons résultats

2- l'utilisation d'une Psf réalisée dans ces conditions donnent des résultats acceptables

 

=> sur Tube déréglé si l'on a pas la Psf correspondance mieux vaut ne pas utiliser

      déconvolution/Wiener

mais plus tôt Wavelets/Déconvol  ou Déconvol/R_Lucy

 

Bernard_Bayle

 

  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 24 minutes, Bernard_Bayle a dit :

sur Tube déréglé si l'on a pas la Psf correspondance mieux vaut ne pas utiliser

      déconvolution/Wiener

mais plus tôt Wavelets/Déconvol  ou Déconvol/R_Lucy

Brillant ! B|

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour,

 

Je m'aperçois (à ma grande honte) que j'aurais dû expliquer un peu mieux tout ça dans AstroSurface pour les Nuls. Je vais essayer de réparer un peu cet oubli en espérant être utile à ceux qui pataugent sur le sujet.

PSF est l'acronyme de Point Spread Function, en français fonction d'étalement du point. Cela désigne le résultat de l'observation d'une source ponctuelle à travers un instrument. C'est donc une fonction qui décrit la répartition de l'énergie lumineuse dans le plan d'observation. L'optique ondulatoire permet de traiter le problème de façon théorique en introduisant ce qu'on appelle une fonction de transfert, qui est caractéristique de l'instrument, et, en combinant cette fonction avec la fonction qui décrit la source par ce qu'on appelle un produit de convolution, permet d'obtenir la fonction qui décrit l'image donc le résultat.

L'optique ondulatoire permet de traiter de façon rigoureuse des cas (relativement) simples comme celui de la diffraction par la pupille d'entrée d'un télescope. Dans ce cas précis, la fonction de transfert est calculable et la PSF est cette fameuse fonction d'Airy dont tout le monde a entendu parler.

Le produit de convolution est une opération mathématique sur les fonctions qui ressemble à la multiplication ordinaire  en ceci qu'elle a un inverse. En d'autre termes, si PSF = FT xx delta, vous pouvez inverser l'équation en delta = FT // PSF, exactement comme a = b x c vous permet de déduire que c = a / b.
En pratique qu'est-ce que cela veut dire ?  Cela veut dire que si vous connaissez la fonction qui décrit la source et la PSF, vous pouvez en déduire la fonction de transfert du télescope et appliquer la transformation inverse et donc, à partir de l'image réelle, retrouver l'image de la source en éliminant l'influence du télescope. C'est ce qu'on appelle la déconvolution, bien évidemment. Donc en appliquant cette déconvolution à tous les points d'une image réelle, on devrait obtenir une image parfaite de l'objet. Comme on le sait, les étoiles ont pour l'immense majorité d'entre elles un diamètre apparent nul. On ne peut donc pas trouver mieux comme source ponctuelle, et c'est pourquoi on en prend une pour déterminer cette fameuse PSF. Sinon, on peut aussi utiliser une PSF synthétique ou théorique: c'est ce que font les logiciels qui proposent une déconvolution sans vous demander de PSF (c'est d'ailleurs une des options d'AstroSurface).

 

Voilà la théorie. C'est génial, mais maintenant il faut rentrer dans le réel. Tout cela marcherait parfaitement si la fonction de transfert était la même en tous points de l'image et si elle était indépendante du temps, ce qui n'est pas du tout le cas. Tous ceux qui ont fait un star test ont pu observer que la figure d'Airy n'était jamais stable et on en connaît les raisons: la turbulence en particulier. En d'autres termes, la PSF change tout le temps, donc la fonction de transfert aussi. Et l'on voit que la fonction de transfert ne dépend pas seulement du télescope mais aussi des conditions d'observation. Pour ne rien arranger, elle dépend également de la longueur d'onde (ce serait trop simple !). Elle n'est pas non plus la même en tous points de l'image à cause des différents défauts du train optique (coma, astigmatisme, etc....) et pour couronner le tout, les PSF que l'on observe sont numérisées avec un échantillonnage assez lâche, c'est à dire qu'on n'a pas la courbe représentant la fonction, mais simplement quelques points en marche d'escalier. (Personne ne effet ne s'amuse à échantillonner assez serré pour passer sous la limite de diffraction et obtenir des figures d'Airy dans ses images).

 

Tout ceci explique (au moins en partie je l'espère), ce qui a été dit plus haut, en particulier les résultats de JLD. Qu'est-ce que peut corriger la déconvolution ?

La turbulence et la dispersion atmosphérique ? Non. On peut seulement faire une moyenne en empilant un certain nombre d'images. Il est d'ailleurs important de les faire avec un temps de pose assez court pour éviter que d'éventuels défauts de suivi ne viennent augmenter le foutoir.
Les imperfections du train optique ? Dans une certaine mesure et à condition que ces défauts soient identiques sur tout le champ de l'image, ce qui exclut un défaut comme la coma. Donc je pense que cela peut rattraper un défaut de MAP ou des choses de ce genre.

Les défauts de suivi ? Non.

Il faut également se rappeler que les objets très lumineux bavent sur les capteurs, ce qui est la raison pour laquelle les étoiles les plus brillantes sont plus grosses dans nos images que les plus faibles. Je pense que c'est la raison pour laquelle JLD obtient de meilleurs résultats en réduisant ses PSF pour compenser ce défaut. On voit donc le problème: alors que toutes les étoiles sont ponctuelles, les PSF réelles que l'on obtient dépendent de leur luminosité (Je pense d'ailleurs qu'AstroSurface essaie de les normaliser, du moins quand il s'agit de PSF pêchées directement dans l'image).

 

En conclusion, on peut dire qu'en principe, les meilleurs résultats devraient être obtenus en créant un noyau de déconvolution à partir d'une étoile présente dans l'image qu'on se propose de traiter (c'est une des trois options d'AstroSurface, mais il n'y a pas toujours d'étoile visible dans l'image). Normalement, les PSF réalisées avec un instrument donné dans des conditions d'observation données ne devraient être exploitables autrement, mais comme on nage dans la bidouille, ce n'est visiblement pas le cas, puisque certains ont pu utiliser les PSF de JLD avec succès. Tout ce qu'on peut dire, c'est qu'il ne faut probablement pas trop s'éloigner des caractéristiques de l'instrument utilisé (ouverture, échantillonnage). Dire aussi qu'il ne faut sans doute pas s'escrimer à faire des PSF trop "belles". Si on veut qu'elles corrigent efficacement quelque chose, il faut justement qu'elles ne le soient pas trop xD

 

Voilà, en espérant avoir un peu éclairci cette question compliquée...

 

note: la fonction ou plus précisément la distribution de Dirac est une fonction nulle partout sauf en un point où elle est infinie. Mais son intégrale sur tout l'espace vaut 1.  Elle est donc utile pour représenter par exemple une source ponctuelle parfaite comme les étoiles qui ont un diamètre apparent nul mais une énergie lumineuse (l'intégrale) finie. Mais ceci n'a d'intérêt que pour faire des calculs en optique ondulatoire, ce qui est assez éloigné de nos préoccupations d'amateurs.

 

  • J'aime 3
  • J'adore 2
  • Merci 4

Partager ce message


Lien à poster
Partager sur d’autres sites

Belles explications @Pyrophorus , Merci.

Je souligne :

il y a une heure, Pyrophorus a dit :

Dire aussi qu'il ne faut sans doute pas s'escrimer à faire des PSF trop "belles". Si on veut qu'elles corrigent efficacement quelque chose, il faut justement qu'elles ne le soient pas trop

Comme nos matériels et nos ciels ne sont pas parfaits alors passer dans nos traitements par la PSF est parfois utile. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, Pyrophorus a dit :

et pour couronner le tout, les PSF que l'on observe sont numérisées avec un échantillonnage assez lâche, c'est à dire qu'on n'a pas la courbe représentant la fonction, mais simplement quelques points en marche d'escalier. (Personne ne effet ne s'amuse à échantillonner assez serré pour passer sous la limite de diffraction et obtenir des figures d'Airy dans ses images).

 

@PyrophorusMerci pour toutes ces explications  !

 

Bernard_Bayle

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, Pyrophorus a dit :

et pour couronner le tout, les PSF que l'on observe sont numérisées avec un échantillonnage assez lâche, c'est à dire qu'on n'a pas la courbe représentant la fonction, mais simplement quelques points en marche d'escalier. (Personne ne effet ne s'amuse à échantillonner assez serré pour passer sous la limite de diffraction et obtenir des figures d'Airy dans ses images).

Là c'est tout le contraire.

Oui une image numérique est échantillonnée, mais en imagerie planétaire au contraire on sur-échantillonne justement pour rechercher les détails perceptibles par l'instrument.

L'échantillonnage peut s'exprimer en angle sur le ciel mais aussi en étalement de la figure d'Airy en nombre de pixels.

En pratique l'échantillonnage est au minimum voisin de 2.5 et va jusqu'à 6 et au delà si l'objet est suffisamment lumineux pour une caméra données avec des temps de pose courts.

Voici une représentation de l'échantillonnage en nombre de pixels.

Echantillonnage.png.836f59a1ea027826c3853ae0df2da3bf.png

donc dire que l'on ne cherche pas à obtenir la figure d'Airy dans ses images n'est pas juste. Au contraire on en veut un échantillonnage suffisant.

D'ailleurs quand on règle la collimation d'un télescope sur une série d'images on distingue bien le premier anneau. Les tutos sur la collimation par capture vidéo le montre bien.

 

Et enfin si la PSF est déformée de seulement quelques pixels l'image est bien dégradée.

Par exemple on peut facilement faire la convolution d'une image optimale par une PSF dégradée pour s'en rendre compte.

L'outil ondelette est un outil très puissant et fonctionne très bien. Mais à partir d'une certaine dégradation de la PSF, les ondelettes ne peuvent pas corriger. Seule la déconvolution sur PSF alors fonctionne.

L'exemple fait avec les images de JLD en témoignent.

 

Partager ce message


Lien à poster
Partager sur d’autres sites
3 hours ago, CPI-Z said:

Oui une image numérique est échantillonnée, mais en imagerie planétaire au contraire on sur-échantillonne justement pour rechercher les détails perceptibles par l'instrument.

Je vais laisser le soin aux spécialistes du planétaire (dont je ne suis pas) de répondre à ça.

 

Sinon, je ne sais pas comment tu comptes, mais dans la figure que tu donnes, les taches font bien plus de 6 pixels de rayon et forment une figure d'Airy incomplète. Tu la sors d'où ? Les PSF réelles postées par JLD pour ne parler que d'elles ne montrent pas du tout ça et ce sont les PSF réelles qui nous intéressent, pas des bricolages numériques.

 

3 hours ago, CPI-Z said:

D'ailleurs quand on règle la collimation d'un télescope sur une série d'images on distingue bien le premier anneau. Les tutos sur la collimation par capture vidéo le montre bien.

Oui, mais on défocalise pour faire grossir la tache et la rendre plus visible.

 

De toutes manières, ça ne règle nullement le problème de la discrétisation. La déconvolution est une opération définie mathématiquement sur l'espace des fonctions continues, pas sur des matrices de points comme nos images qui n'en sont qu'une approximation  très grossière. Ce n'est pas avec quelques points qu'on définit une courbe de façon précise. La meilleure preuve en est qu'il existe six ou sept méthodes de déconvolution différentes, or tout le monde sait qu'il n'y a qu'une seule manière de faire une division. Pour la déconvolution, c'est pareil et il n'y aurait qu'une seule méthode si l'on n'était pas obligé de bricoler pour restituer l'information écrasée par la numérisation (ce que chaque auteur fait de façon différente).

C'est d'ailleurs un problème général qui dépasse très largement la déconvolution. En traitement d'image on effectue régulièrement des opérations qui rappellent, vu de loin et par temps de brouillard, des opérations mathématiques, et personne n'y voit d'inconvénient tant que ça donne un résultat intéressant.  Mais si on vous explique qu'on applique un laplacien sur une image, il ne faut pas prendre ça au pied de la lettre: on applique un filtre dont la conception a été inspirée par le laplacien des matheux, c'est tout.

Modifié par Pyrophorus
  • J'aime 1
  • Triste 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, Pyrophorus a dit :

Sinon, je ne sais pas comment tu comptes,

Je ne suis pas un matheux et je n'expliquerais pas correctement le fonctionnement d'un laplacien, par contre je sais compter au-moins jusqu'à 6 :D

La figure de diffraction se caractérise par un angle en radian selon la formule (r = 1.22 lambda / D) où D est le diamètre du télescope exprimé dans la même unité que la longueur d'onde lambda.

Coté capteur l'échantillonnage de la PSF est donc la distance entre son centre et le premier anneau sombre de cette figure de diffraction.

En imagerie HR l'échantillonnage d'une psf est normalement comprise entre un minimum 2.5 et 6 voir plus.

 

Il y a 2 heures, Pyrophorus a dit :

Tu la sors d'où ? Les PSF réelles postées par JLD pour ne parler que d'elles ne montrent pas du tout ça et ce sont les PSF réelles qui nous intéressent, pas des bricolages numériques

voici 2 exemples sans bricolage

Sa psf rouge zoomée : psfR-1.png.010a763edcbe3b8edb5c54e29be8a4b9.png donc avec un échantillonnage d'environ de 6

 

Et un de mes vieux exemples

80-a2.fit

et-80-a2.fit

et-80-a2_x5.png.c9cb0946fa5a303d96f3f3111ba3a0af.pnget-80-a2_x5a.png.a513c1ff842556fc7d0596f47d41859b.png

PSF échantillonnée à environ 3.5

La vue de droite avec seuil de visualisation montre que les anneaux ici déformés vont loin.

 

La déconvolution en Gif animé (c'était l'exemple que j'avais envoyé à Jean-Luc)

Capture.gif.5e7f3de9f36e68b3a89caa49ae823a4d.gif

 

et le post sur Astrosurf sur le résultat.

Il y en a d'autres ...

 

Moralité pas de blabla mais des faits.

Et si tu lis les 4 premières lignes du post de JLD juste ci-dessus, tu verras d'où provient l'initiative.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Encore une fois, je suis intervenu  pour donner quelques aperçus sur ce qu'on entend par déconvolution dans les logiciels de traitement, parce que j'ai eu l'impression que pour beaucoup de gens c'est une boîte noire un peu magique. Donc y expliquer un peu comment la PSF y intervient et  pourquoi une PSF tirée des images donne de meilleurs résultats qu'un filtre passe-partout.

J'espère y être quelque peu parvenu, et je n'ai pas l'intention de me laisser entraîner dans une polémique sur l'échantillonnage en imagerie planétaire, qui n'est pas mon sujet, et ne remet nullement en question ce que je dis par ailleurs sur la discrétisation des images qui entraîne des divergences dans la pratique par rapport à la théorie physique. Même avec ton sur-échantillonnage de 6, les figures n'ont encore qu'un rapport assez lointain avec une fonction continue.

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci Pyrophorus pour toutes ces explications claires et ta pédagogie sans faille ! Cela m'a conforté dans ce que j'avais vu en traitement du signal il y a un paquet d'années déjà, ces techniques ne sont certes pas si nouvelles que ça et cela n'enlève rien aux résultats intéressant obtenu ici. Tu fais bien de le souligner il ne faut pas oublier qu'il n'y a rien de magique en matière de traitement d'image même si les algorithmes implémentés dans les logiciels semblent parfois être tout droit tirés d'un grimoire de recettes de sorciers de l'imagerie :)  

 

De manière générale l'info qui n'est pas contenue dans l'image est peut être perdue à jamais ou alors elle est peut être contenue indirectement dans la PSF (l'image de la Dirac = courbe de réponse sur toutes les fréquences) puisque cette même PSF donne le mode d'emploi par déconvolution pour défaire les défauts de l'image globale afin de retrouver la source originale. Cependant la PSF est elle même une image statique permettant de déduire la MTF de l'instrument donc dans ce cas on ne tiendra compte que des aberrations systématiques introduites par l'optique de l'instrument mais pas de la turbulence atmosphérique qui elle est complètement dynamique (temporelle) et imprévisible évidement en augmentant la fréquence d'acquisition on parvient quand même à la minimiser ouf ! Je suis d'accord aussi la théorie ne parle que de signaux continus et ici en numérisant les images on est pas parfaitement dans le cadre de cette théorie de reconstruction, tout comme on invoque souvent le sacro saint principe du théorème de Nyquist Shannon pour choisir son échantillonnage alors qu'à la base en astrophoto on ne se base que sur des capteurs déjà atrocement pixélisés et non analogiques comme on devrait pour justement trouver le bon échantillonnage pour les numériser ... bref ça se mord la queue, il faut à mon avis rester prudent lorsqu'on veut mettre en pratique certaines théories du traitement du signal.

 

Toutefois il faut quand même continuer à essayer même si la démarche peut paraître parfois empirique, c'est pas grave on cherchera la théorie plus tard ce qui compte c'est le résultat ;) 

Modifié par jgricourt
  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Cela fait plusieurs années que le traitement par PSF fut évoqué sur Astrosurf.

Et plusieurs fois aussi il fut évoqué que l’idéal serait d’avoir une étoile bien visible mais non saturée dans le champ de la planète (cas rarissime voir impossible).

Mais retourner à l’analogique car la théorie s’applique mal au numérique, à la fameuse discrétisation, c’est la première fois.

Ce serait plutôt à la théorique de s’adapter au numérique car le progrès grâce au numérique depuis ces dernières décennies est phénoménal.

De mon coté je n’ai fais que quelques propositions pratiques qui ont fait leurs preuves dans certains cas et maintenant utilisées à leurs sauces par les meilleurs imageurs astro-amateurs pour notre plus grand plaisir visuel.

 

Si de votre coté les théoriciens vous êtes en mesure de nous communiquer des techniques permettant encore d’améliorer nos images, je pense que nous en serions tous preneurs. Mais pour cela il faudrait rentrer dedans et dans le numérique.

 

En attendant, enfin une phrase positive : ce qui compte c'est le résultat.

Il y a 3 heures, jgricourt a dit :

Toutefois il faut quand même continuer à essayer même si la démarche peut paraître parfois empirique, c'est pas grave on cherchera la théorie plus tard ce qui compte c'est le résultat 

Merci.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Astramazonie
      Salut les Astros,
       
      Ici en Guyane, depuis quelques jours, la pluie et le mauvais temps ne nous laissent pas sortir les instruments ...
      En ce 1er Mai,  je me suis dis ce que je pouvais bien réchauffer en attendant le retour du beau temps, j'ai choisi CENTAURUS A (  galaxie lenticulaire située dans la constellation du Centaure )
       
      Je vous poste 1 photo, en 2 versions : large et crop, toujours faite au SEESTAR en Guyane, 15 minutes de pose, avec un léger traitement sur Photoshop pour la couleur, puis GraXpert pour le bruit.
       
      PS : Ce n'est pas la meilleure photo de cet astre mais ça me fais quand même plaisir de partager avec vous.
       
      J'espère qu'elle vous plaira, Bon 1er Mai à tout le monde ... 
       

       

    • Par Gilles Pascal
      Bonjour,
       
      ayant récemment testé un objectif photo 500mm stabilisé, j'ai été impressionné par le résultat.
      Je me prends alors à imaginer un montage à lentilles stabilisées, qui viendrait s'insérer dans le chemin optique d'une lunette astronomique, de façon à pouvoir l'utiliser à main levée...
       
      Mais la question est : comment faire ? Est-ce seulement envisageable ?
      Certains parmi-vous ont déjà imaginé/envisagé une telle réalisation ?
      Quel groupe de lentilles faut-il implanter dans le chemin optique ?
      Trouve-t-on des modules tout-faits (lentilles, capteurs, moteurs) pour pouvoir les monter soi-même dans des prototypes d'étude ?
       
      Je détaille ci-dessous tout le cheminement qui m'a conduit à cette réflexion (je devrais plutôt dire transmission  ;o)
       
       
      1) Mes prises de vues avec le 500mm
       
      Ma config :
      Zoom Nikon 200/500mm FD5.6,  réglé à 500mm.
      Autofocus ON
      Plage de mise au point : limitée
      Stabilisateur : ON
      Boitier : D7200 Nikon
      Multiplieur de focale : 1.4
      Focale résultante : 700mm
      FD résultant : 8. à cette valeur, on est à la limite de ce que l'autofocus peut accepter. Il se peut qu'il ne fonctionne pas bien. Et en effet, les prises de vues vont le confirmer.
      De plus comme le boîtier est au format DX, on peut alors considérer que la focale finale obtenue est de 1.5 * 700 soit 1050mm.
       
      Objet photographié : lune du 17 Avril
       
      Réglage boitier :
      ISO fixe : 100
      Vitesse : 1/80s
      Format : RAW
       
      Prise de vue : à main levée bien-sûr
      Heure : 21h20
      Orientation : lune très haute dans le ciel. L'appareil est donc en visée presque verticale, ce qui n'est pas très agréable.
       
      Mais le maintien dans l'axe de la lune est sans doute plus facile que si la visée était horizontale, car le bras gauche qui soutient l'objectif par l'avant, n'a pas à exercer un couple de rappel trop important. En visée horizontale le couple de rappel serait beaucoup plus important et ajouterait davantage de micro-mouvements que devrait compenser le stabilisateur de l'objectif.
       
      Par contre  en visée verticale, la main droite qui tient le boîtier et dont l'index appuie sur le déclencheur, doit supporter tout le poids de l'appareil et rester souple pour ne pas provoquer de crampe par exemple.
       
      J'ai pris 27 images à main levée.
       
      a) Plusieurs problèmes constatés lors de la prise de vues
       
      - la mise au point est très laborieuse : l'autofocus est vraiment à la peine. Lors de l'appui à mi-course du déclencheur, l'autofocus fait de nombreux va-et-vient. Mais lorsque soudainement la mise au point est bonne, j'appuie alors vigoureusement pour prendre la vue. Parfois cela prend plus de temps pour certaines vues.
      Évidemment je pourrais éliminer ce défaut en retirant le multiplieur 1.4. Mais dans ce cas je réduirais aussi la résolution atteinte.
       
      - Tentative de prise de vue en live view : on suit l'image alors directement sur l'écran arrière du boîtier.
      Problème : on n'est pas capable d'apprécier aussi bien la mise au point qu'à travers le viseur optique. Des vues sont floues, il faut alors les rejeter.
       
      Autre possibilité : On bloque la mise au point en manuel.
      Malheureusement elle bouge légèrement. Je pense que je n'ai pas encore bien la maîtrise de ce zoom qui requiert un certain apprentissage.
       
      L'autre souci dans ce type de prise de vue, ce sont les sollicitations importantes que subit la mécanique du boitier. J'aurais pu prendre 100, voire 300 images, mais l'idée n'est pas de faire usage du boîtier Nikon comme d'une caméra astro pour le planétaire, comme on fait en prenant des centaines d'images. Car on éprouverait alors sérieusement la mécanique de l'obturateur et du miroir.
       
      b) Traitement :
      i) PIPP
      - Cropp avec centrage sur lune pour réduire la taille des images.
      - export en Tif pour traitement ensuite dans Autostakkert 3.
       
      ii) Autostakkert :
      - drizzle : 3x
      - dans la fenêtre de visualisation, en passant en revue les 27 images, on voit qu'il y a de la rotation de champ, car à main levée, on bouge imperceptiblement. Et cela se voit parfaitement dans Autostakkert. L'avantage avec Autostakkert, c'est qu'il est justement capable de compenser la rotation de champ entre chaque vue. Un régal de la savoir à l'avance.
      - toutes les images sont conservées.
       
      iii) registax 6
      Wavelets :
      - réhaussement des contours
      - contraste et luminosité
      Résultat : voir image.
       
      c) Mes impressions :
      - mise en place du setup : 5mn
      - Prise de vue assez tranquille et même excitante car on se dit qu'en si peu de temps de mise en place, on est alors déjà en capacité de saisir un phénomène, ce qui est un exploit avec une focale résultante de un peu plus d'1m. Je me dis alors que je vais attendre le passage d'un avion. Mais malheureusement, après environ 20mn d'attente, les avions me narguent tous en passant parfois tout près, mais jamais devant la lune.
       
      Le traitement avec seulement 27 vues est très satisfaisant. Mais pas à la hauteur de ce que l'on pourrait avoir si l'on avait plusieurs centaines de vues.
       
      En contemplant l'image finale, je voie quand même que je suis bien loin de ce que pourrait faire un tube de 90mm d'ouverture et 1m de focale.
      Mais pour un premier essai c'est déjà satisfaisant.
       
      J'imagine alors une caméra astro montée en lieu et place du boitier Nikon D7200.
      Mais peut-être qu'avec un peu d'entraînement, je devrais pouvoir améliorer l'utilisation du mode live view.
      En lisant le manuel du boitier D7200, je voie qu'en mode miroir relevé, l'autofocus ne fonctionne plus. Il faut donc parvenir à bien verrouiller la mise au point une fois pour toutes aussi.
       
      Je me dis que la solution idéale consisterait à reproduire la mécanique du stabilisateur du Zoom 200/500, dans un tube optique dédié pour l'astro.
       
       
      2) Conception d'un tube optique stabilisé
       
      Une lunette est constituée d'un objectif et d'un oculaire.
      Comment parvenir à stabiliser l'image dans le chemin optique d'un tel instrument ?
       
      Le stabilisateur optique fonctionne comment ?
      Sur le site "les numériques" un schéma montre le principe implémenté dans les objectifs photos nikon :
      https://www.lesnumeriques.com/photo/la-stabilisation-pu101497.html
       
      Extrait :
       
      "C’est le procédé le plus ancien. Il est apparu avec le Nikkor VR 38-105 mm f/4-7,8 en 1994, suivi l’année d’après par le Canon EF 75-300 mm f/4-5,6. Deux gyromètres piézo-électriques détectent les vibrations, et une lentille flottante qui leur est asservie se déplace perpendiculairement à l’axe optique pour rétablir la fixité de l’image.
       
      Ce type de système a depuis connu des progrès importants, par exemple pour permettre de supprimer les vibrations lorsqu’on suit un sujet en mouvement.
       
      Dans ce cas, les capteurs différencient les mouvements volontaires des trépidations qui ne le sont pas, et adaptent en conséquence la stabilisation.
       
      Cette différenciation est évidemment indispensable pour un appareil tenue à main levée. Celle-ci était moins efficace sur les premiers objectifs stabilisés, le gain de stabilité était ainsi moins important.
       
      Le système anti-bougé des zooms Fuji de la série X comme le 18-55 mm ou le 40-150 mm est destiné à supprimer à la fois les vibrations rapides de l’appareil et les mouvements involontaires un peu plus amples, tout en ignorant les mouvements volontaires que le photographe veut imprimer à son appareil, par exemple pour suivre un sujet qui se déplace. Illustration *
      Les objectifs stabilisés sont maintenant bien au point, de telle sorte qu’ils se sont imposés. Ce qui ne veut pas dire qu’ils soient sans inconvénients par rapport aux objectifs classiques… lorsque ces derniers sont encore en vente. Ils sont un peu plus fragiles, nettement plus lourds et plus encombrants que leur équivalents non stabilisés. On perd aussi, dans le cas de certains zooms, un bon demi-diaphragme sur la plus longue focale. Ils sont également un peu plus chers. C’est bien entendu dans le cas des téléobjectifs que la stabilisation est la plus intéressante."
       
       
      Merci de vos retours,
      Gilles
       


    • Par Akelox
      Bonjour je vais acheter mon premier télescope et je prévoit de faire de l'astrophoto du ciel profond principalement, j'aimerais donc savoir ce que vous pensez du matériel que j'ai choisi et si j'ai oublié des choses :
      - https://www.astroshop.de/fr/telescopes/telescope-skywatcher-n-150-750-pds-explorer-bd-eq3-pro-synscan-goto/p,19164
      - https://www.astroshop.de/fr/controleurs-et-cables/zwo-mini-ordinateur-d-astrophotographie-asiair-mini/p,77072
      - https://www.astroshop.de/fr/cameras-astronomiques/camera-zwo-asi-662-mc-color/p,75719
       
      Gabriel De Roover
    • Par Phil49
      Bonjour,
       
      Je suis en plein traitement des films SER que j'ai pu faire il y a deux semaines pendant une "trouée" exceptionnelle dans ce long tunnel de mauvais temps.
       
      J'ai généré ces films via mon MAK 180 et ma camera Player One Mars C-II (IMX 662).
       
      J'ai déjà pu travailler sur une demi-douzaine de films au format SER et avec Autostakkert, puis Registax et une petite touche de finition pour l'histo avec Pix, j'ai maintenant un processus de traitement qui marche pas trop mal.
       
      Voici un exemple ci-dessous qui vaut ce qu'il vaut pour une première soirée à photographier la Lune et mon process :
       

       
      Il ne s'agit pas du Tiff mais d'un PNG pour montrer aux personnes que cela intéresse dans mon entourage.
       
      il ne s'agissait que de films uniques pour une région unique à traiter.
       
      J'ai ensuite fait lors des deux dernières soirées, des séries de plusieurs films de la même ROI (Region Of Interest) et je pensais (naïvement) que reprendre le même process à l'exception de l'alignement des images de l'étape 1 sous Registax en étape 2, ferait l'affaire, mais que nenni !
       
      J'ai donc bien traité mes 3 films dans Autostakkert, qui m'a généré mes 3 images au format Tiff, jusque là ok.
       
      Ensuite, je vais dans Registax, je sélectionne les 3 fichiers :
       

       
      ...je vais sur l'onglet "Set Alignpoints" :
       

       
      Je laisse les valeurs par défaut :
       

       
      .. je clique sur "Align" et là, l'appli part en vrille, j'ai le rond qui tourne et plus rien, je dois "killer" l'application !
       
      Si je réduis le nombre de points même à deux, ça plante aussi !
       
      J'ai essayé de trouver des réponses sur le Net mais rien de concluant, il y a  bien des posts pour travailler avec des macros, sous Registax, mais ce n'est pas ce dont j'ai besoin...
       
      Est-il impossible de procéder comme cela !?
       
      Ou alors faut il refaire une passe avec mes trois images Tiff sur Autostakkert pour n''en générer qu'une et sera t'il capable de le faire avec 3 gros fichiers Tiff ?
       
      J'avoue que je sèche !
       
      Merci pour votre aide !
       
      Philippe
       
       
    • Par jeffbax
      Bonjour les amis,
       
      Les dernières semaines de vaches maigres pour les observations n'ont pas eu que des inconvénients (même si c'est mieux quand il fait beau). Elles ont laissé du temps au traitement et à la gestation d'images, dont particulièrement celle-ci.
      L'idée est née avec @GuillaumeGZ, avec qui nous partageons beaucoup, suite à la publication d'un travail colossal effectué par un groupe d'une quinzaine de photographes en plus de 250 heures. Ils ont détecté les extensions de M51 comme jamais, dont en Ha.
       

       
       
      Guillaume voulait tenter cette détection et de mon coté je voulais un truc avec plus de résolution. On a d'abord pensé à des poses rapides au T350 pour la galaxie... C'était déjà pas mal. Mais en voyant s'accumuler les poses en luminance, on a changé de calibre.
       
      Exceptionnellement, nous avons marié les données issues du T1000, publiées en 2021 par la team Omicron avec celles du T250 f/4 de Guillaume.
       
      Il y a au T1000 f/3.2 8h10 de luminance et 1h45 par couche RVB - Ancienne CCD STX. Au T250 f/4 il y a 58h de L conservée sur 69h + 18h de Ha et 3h de RVB avec une 2600 MM Pro. Soit environ 92 heures.
       
      Durant ces dix derniers jours, entre les transferts de données, les versions intermédiaires et les choix partagés de rendu, on a bossé dur et finalement on s'est arrêtés sur l'image suivante. Elle résulte des compromis et corrections à tous les 3 avec @Superfulgur.
       

       
       
       
       
      Ne ratez pas la FULL en 6000 pixels :
       
       

       
       
      C'est un résultat tout en compromis que nous proposons, dont les différentes étapes de mixage seraient bien trop longues à expliquer en détails. En gros, tout ce qui est LSB (extensions lointaines) provient du T250, ainsi que le Ha. La galaxie jusqu'aux moyennes lumières vient du T1000, ainsi que les étoiles faibles et pétouilles de fond de ciel. Les extensions proches sont du T1000 + T250. On est à MAG 24 environ avec l'ancienne STX contre un peu plus de 22,5 avec le T250. Ca reste cohérent.
       
      La dynamique est monstrueuse et pour garder un aspect visuel équilibré, la galaxie est laissée en hautes lumières et brille fort. Le Ha a été intégré dans la couche rouge. Enfin, la couleur RGB vient d'un mixage des 2 télescopes. L'image du T1000 a été un poil réduite et celle du T250 agrandie raisonnablement. Pour finir on a gardé du bruit dans les extensions. On peut lisser ces extensions encore plus, même complètement, mais ça dénaturerait trop ce signal, extrêmement ténu. Ca moutonne déjà un peu là.
       
       
      Pour partage voici la L de 58h, déjà débarrassée d'une grande part de halos en prétraitement "spécial" (il en reste encore). Montée d'histogramme en GHS avec SIRIL + un masque sur la galaxie. On voit bien les structures de marée et c'est déjà surprenant.
       

       
       
      Et le petit lien Astrobin :
       

       
      La team remercie infiniment Guillaume pour ce partage et cette réalisation. Nous n'aurons jamais le temps de télescope pour attaquer ce type de LSB. Mais comme c'est moins le diamètre que le rapport F/D, la noirceur du ciel et le temps de pose qui comptent pour ces extensions, ce partage nous permet d'y accéder quand même.
       
      Voilà... On en est assez contents. Espérons qu'elle vous fera voyager aussi.
       
      Bon ciel.
       
      JF
       
  • Évènements à venir