jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Messages recommandés

Il y a 3 heures, polo0258 a dit :

RGBBGR    ,je pense  la moyenne horaire se faisant sur les  bleus ! on assemble avec winjupos rr gg bb et ensuite rgb  !

 bonne journée !

 

En effet, c'est bien ça (j'étais fatigué hier)

En fait si on pense à la dérotation comme à une "cartographie" à plat (les deux sont liés de toute façon), avec une carte dont on composite les détails au fur et à mesure pour chaque plan de couleur, on aura une capture avec des détails "à l'est" qui se lèvent, et d'autres à l'ouest qui vont disparaître. Mais l'un dans l'autre, la date moyenne permettra d'avoir le maximum d'information aux 2 limbes.

 

Et bien évidemment, à mettre toutes les R d'un coté, à la fin on va manquer de R "à l'est" (et inversement on risque de manquer de B à l'ouest avec une date moyenne antérieure à la première B) lors de la reconstruction et avoir des franges colorées de part et d'autre. Ce qui est galère c'est de devoir refaire le focus très très souvent. Les filtres RGB d'astronomik ont assez rigoureusement la même épaisseur mais il peut subsister la petite fraction de tour pour corriger le chromatisme longitudinal de l'instrument.

 

Pour le coup, faire en une seule fois toutes les couches d'un coup avec une cam couleur c'est plus facile.

 

Marc

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello 😊

Moi qui pensais avoir tout compris suite à l'épisode de Christophe je m'aperçois que rien n'est aussi simple !! 

Après tout ce chinois de calcul, toutes ces speculations basées sur la théorie du calcul embrouillent les esprits ! 

Je m'aperçois surtout que tout ça est très subjectif, pire encore lorsqu'on essais de le quantifié, car en fait ce qui vas faire perdre ou pas de la résolution, ou definition et bien se sont les conditions de ciel et rien d'autres ! 

NB ou couleurs si le ciel est pourris il est pourris ! Et je préfère de loin m'interroger sur ces conditions, car c'est ça qui garanti sur le terrain les futurs images (vent/humidité/temperature etc...) que de calculer d'hypothetiques théories qui ne peuvent ce vérifier que par le calcul... 

 

Fred 😉

 

Modifié par fredo38
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour à tous,

Je vois que ma vidéo suscite des discussions passionnantes avec des intervenants de haut niveau. J'en suis honoré!

Je me permets juste quelques petites précisions sur ma démarche..

- Cette vidéo est la 3ème d'une grande série, qui vise à aider les gens à choisir une (ou 2!) caméras adaptées à leurs setups, et il y a autant de réponses que de personnes... pas facile donc, vous l'avez compris, de dégager une réponse figée dans le marbre. Inutile de vous dire qu’elle se positionne vis-à-vis de certaines vidéos

- nous sommes d’accord que le commun des mortel à qui ma chaîne s’adresse, c’est plutôt des gens qui vont utiliser un instrument industriel, du Newton 115/900 au Dobson 400 en passant par les Mak 180, ou Celestron C8… Je n’ai pas la prétention d’expliquer à un Jean-Luc Dauvergne comment utiliser son exceptionnel Mewlon 250 à L/20…

- Donc l’objectif, c’est de trouver ce bon ratio d’échantillonnage à utiliser, et dans la majorité des cas (livre de Thierry Legault / UtilCCD, etc.), la réflexion part donc des formules de pouvoir séparateur, de la formule de l’échantillonnage, et le rapport minimal « x2 » du théorème de Nyquist-Shanon. On tombe alors sur ma synthèse sous la forme : F/D = 3.438 x P. Cette formule est expliquée dans le 1er épisode de la série.

- mon expérience est d’avoir constaté qu’en utilisant cette formule avec ma QHY5LIIc (donc équivalente à la ASI 120 couleur), que ce soit avec mon Skywatcher 200/800 (les optiques de mon photoStrock), mon Meade Lightbridge 300 (base de mon Strock 300) et mon Meade Lightbridge 400 (base de mon slimStrock), je n’ai jamais réussi à avoir un truc propre sur les hautes fréquences de mes ondelettes. Bref, la composante « haute fréquence » n’était pas là. Et donc, comme je le dis dans la vidéo « il y a des fois où le signal n’est pas là ». Dans mon cas, c’était très clairement à cause de la diffusion des optiques. Donc on comprend bien qu’il est inutile de suréchantillonner avec de tels instruments.

- Cette formule donc, je la considère comme une base de travail, et non comme un absolu. Je n’ai donc aucun problème à ce que certains en viennent à sous-échantillonner légèrement comme je pouvais le faire avec mes télescopes industriels, et à voir Jean-Luc travailler à F/D=25 au lieu des 12.89 recommandés par sa IMX_224c, ou les 9.90 recommandés par sa IMX_290m.

- En revanche, en faisant repolir mon 400 par Franck Grière (vous connaissez la qualité de ses miroirs – et je précise que le secondaire de mon slimStrock a été directement acheté chez lui), alors là oui, j’obtiens du signal en HF, et il faut travailler à optimiser le rapport signal sur bruit de façon à pouvoir l’exploiter correctement. Optimiser l’échantillonnage, etc. Et vous le savez bien, quand suréchantillonne par 2, on divise par 4 la quantité de lumière par pixel, et donc, on perd en rapport signal sur bruit.

- J’ai comme l’impression que les utilisateurs de SC, RC, ou autres Mak du commerce obtiendront un signal dans les HF (toujours avec mes 3.438xP) bien plut tôt qu’avec les Newton.

Voici donc où j’en suis dans l’élaboration de ma réponse à la question initiale :

- Donc si je suis à 3.438xP avec un instrument de qualité suffisante pour offrir un signal HF dans la réalité du signal se trouvant sur le plan focal, comment en tirer le meilleur parti ?

1- utiliser une caméra monochrome nous affranchit des impacts de la matrice de Bayer (c’est le sujet de cet épisode).

2- suréchantillonner avec une caméra couleur (et/ou monochrome), est loin d’être absurde si la chaîne optique et le ciel le permettent, et à fera l’objet d’une des vidéos à venir de la série (et donc de l’opportunité d’utiliser une IMX 178 par exemple). Mais plusieurs utilisateurs me témoignent que çà ne passe pas systématiquement. On devra garder à l’esprit que si on suréchantillonne à mort, on va se retrouver avec un signal bien plus faible (au carré), et donc, un rapport signal sur bruit qui va en souffrir.

 

Alors bien sûr, on peut allonger les temps de poses. Mais dans ce cas, si on allonge le temps de pose par 3 (car la caméra couleur est 3x moins sensible que la caméra monochrome), et/ou par 4 (pour offrir la même résolution spatiale absolue dans le bleu ou le rouge que la caméra monochrome – nous sommes bien d’accord que j’ai expliqué que c’était inutile), ou simplement de 30%, alors on doit comparer le rapport signal sur bruit « à temps de ciel égal ».

Donc si j’ai des poses de 30ms avec une caméra couleur, pour avoir le même histo que des poses de 10ms avec ma caméra couleur, je dois comparer le rapport signal/bruit, et la présence d’un signal HF dans les 3x10ms de ma série monochrome.

Donc là encore, la caméra monochrome offre un gain qu’il ne faut pas oublier !

Ma vidéo a clairement pour objectif de ne pas opposer les 2 types de caméras, mais proposer des façons de les utiliser conjointement et efficacement.

Au plaisir de vous lire, car c’est toujours passionnant d’échanger dans un esprit constructif et respectueux.

Ps : petite remarque : comparer l’IMX174m avec l’IMX224c n’est pas une comparaison qui me semble juste : en effet, le bruit de lecture de la 174 est 4x supérieur !

 

Bien cordialement.

 

Christophe

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

En tout cas Christophe, ta vidéo à généré ce post intéressant, donc merci et Bienvenue sur AS!

L'autre CdlC ;-)

Modifié par Chris277
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, olivdeso a dit :

Il manque une chose ici : le filtre passe bas de restitution.

Je ne vois pas en quoi la représentation de l'échantillonnage en image que j'ai représenté par simulation ne serait pas représentatif d'une réalité.

Tout à chacun a pu observé la figure de diffraction d'une source ponctuelle ou d'une étoile dans un télescope digne de ce nom quand les conditions atmosphérique le permet.

Et chacun comprend que chaque pixel d'une caméra ne peut restituer qu'une intensité à la foi par image, et donc les pixels découpent la figure de diffraction de la source en marche d'escalier d'intensité différente.

C'est cela et seulement cela l'échantillonnage.  

Après le choix de l'échantillonnage dépend du K évoqué avec F/D = K*p / (1.22 onde).

 

Pour prouver mes dires et non du bla bla avec formules sortie d'un chapeau magique comme certain le laisse penser, voici une image d'une étoile double, compilation d'une vidéo faite avec un télescope loin d'être parfait et une simple caméra couleur QHY 5L-II c.

On observe bien que le diamètre du premier anneau sombre de la figure de diffraction (PSF) est proportionnel à la couleur, la longueur d'onde correspondant au filtre de Bayer pour chaque couleur.

5df78fd59d353_Etoiledouble.png.483c89f92493f1b8ed5fb9e140c84c41.png

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, CDLC a dit :

1- utiliser une caméra monochrome nous affranchit des impacts de la matrice de Bayer (c’est le sujet de cet épisode).

2- suréchantillonner avec une caméra couleur (et/ou monochrome), est loin d’être absurde si la chaîne optique et le ciel le permettent, et à fera l’objet d’une des vidéos à venir de la série (et donc de l’opportunité d’utiliser une IMX 178 par exemple). Mais plusieurs utilisateurs me témoignent que çà ne passe pas systématiquement. On devra garder à l’esprit que si on suréchantillonne à mort, on va se retrouver avec un signal bien plus faible (au carré), et donc, un rapport signal sur bruit qui va en souffrir.

 

La matrice de Bayer a un impact sur la résolution si et seulement si on s'approche d'un rapport signal sur bruit proche de la quantification du bit.

...ce qui arrive somme toute souvent sur les objets planétaires (luminosité intrinsèque) ou à faible diamètre d'instrument sur la Lune ou à forte turbulence (réduction du temps de pose).

 

=> Le facteur limitant étant d'obtenir assez de flux pour passer au-dessus du bruit lors de la capture.

 

En résumé quand il y a assez de flux pour dépasser le seuil des bruits d'acquisition : peu importe le capteur on peut atteindre la résolution.

 

La limitation sera la dynamique du capteur car si on doit monter le minima acquis, on va forcément gratter le sommet de la dynamique.

 

Il y a 2 heures, CDLC a dit :

Au plaisir de vous lire, car c’est toujours passionnant d’échanger dans un esprit constructif et respectueux.

Ps : petite remarque : comparer l’IMX174m avec l’IMX224c n’est pas une comparaison qui me semble juste : en effet, le bruit de lecture de la 174 est 4x supérieur !

 

Même remarque, à flux suffisant, montré par chonum en solaire pour l'IMX174, il ne s'agit PAS du bruit total par pixel qui compte mais du bruit en fonction du flux capturé.

Erreur commune sur les capteurs.

 

--------------------------------------------------------

 

Mon idée sur la différence couleur vs monochrome :

la différence de flux par pixel en fonction de ce qui est acquis par photosite.

 

En Vert : efficacité de la bande capturée proche du maxima à combiner au flux diminué, 2 photosites/4 pour faire un pixel => -3dB

En Rouge : efficacité de la bande capturée très utile en planétaire, moins en lunaire sauf pour améliorer la gêne de la turbulence, flux 1/photosite sur 4 => -6dB

En Bleu : efficacité de la bande capturée peu intéressante sauf quelques planètes, esthétique de la couleur autour du bleu-vert, utile en CP bien entendu, flux 1/photosite sur 4 => -6dB

 

L'interprétation de l'image se faisant en visuel il va de soi que la couleur apporte un plus, bien valorisé par les différentes palettes comme la palette Hubble mais je suis incapable de quantifier l'apport.

 

En conclusion : du flux toujours du flux. Ensuite on règle les curseurs pour pallier aux perturbations qui amène du bruit sur ce qu'on cherche.

... du bon principe dans les télécommunications.

Ensuite, il y a les facilités techniques pour accumuler les images d'une manière ou d'une autre, je ne maîtrise pas ces points et j'acquiesce à tous les apports qui ont été présentés ici.

Choix de caméra : prenez celle dont la taille de pixel est compatible avec votre f/D de travail et votre ratio de sur-échantillonnage.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, lyl a dit :

En résumé quand il y a assez de flux pour dépasser le seuil des bruits d'acquisition : peu importe le capteur on peut atteindre la résolution.

Peut être mais cette démonstration là  n'a pas été faite.  Sur quoi te bases tu ?

 

Il y a 2 heures, lyl a dit :

En Bleu : efficacité de la bande capturée peu intéressante sauf quelques planètes, esthétique de la couleur autour du bleu-vert, utile en CP bien entendu, flux 1/photosite sur 4 => -6dB

C'est utile sur toutes les planètes sauf peut être Mercure et la Lune. Encore que le bleu est potentiellement la couche la plus résolue. Et là on peut se demander si la matrice de bayer ne va pas plutôt plafonner en vert. 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, jldauvergne a dit :

Peut être mais cette démonstration là  n'a pas été faite.  Sur quoi te bases tu ?

La démonstration de la dépendance du rapport S/B qui est utilisée dans les télécommunications.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, CPI-Z a dit :

Je ne vois pas en quoi la représentation de l'échantillonnage en image que j'ai représenté par simulation ne serait pas représentatif d'une réalité.

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

 

Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

 

Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

Modifié par olivdeso
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Il le faut car sinon tu vas créer des oscillations dite de Gibbs et l'approximation numérique des écarts de contraste sera moins fiable qu'avec le filtre.

 

On sera toujours limité à l'approche de la limite de résolution spatiale par la fréquence d’échantillonnage la plus haute pour la restitution du delta de contraste.

et comme la proposition pour le sur-échantillonnage est de 3 à 4, ça va limiter les variations entre pixels (3-4 bits de codage)

La c'est à la restitution pour comprendre la pente quand on agrège des pixels (opération en dehors de la capture)

Synthesis_square.gif  sur-ech-3f.JPG.7d0c0b62765a9ed41a97f21b6b040f65.JPG

--------------------

S/B

Parfois le ratio signal sur bruit à la fréquence haute ne permettra pas de discriminer correctement un bit sur le photosite, l'information captée ne sera pas fiable et on ne pourra pas reconstituer le détail ou la pente vers un détail.

 

Modifié par lyl
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, lyl a dit :

La démonstration de la dépendance du rapport S/B qui est utilisée dans les télécommunications.

Ils ont des matrices de bayer aux Télécom ? (Desolé mais je n'arrive pas à suivre)

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, olivdeso a dit :

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

il y a une heure, lyl a dit :

Il le faut car sinon tu vas créer des oscillations dite de Gibbs

 

 

Désolé j'ai mes limites et je ne comprends pas.

Entre un télescope , une barlow, et une vidéo caméra vous parlez de quoi ? Ce serait quoi "le filtre passe bas en sortie, comme en entrée" ?

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 6 minutes, CPI-Z a dit :

Entre un télescope , une barlow, et une vidéo caméra vous parlez de quoi ? Ce serait quoi "le filtre passe bas en sortie, comme en entrée" ?

Il n'est pas dans cette chaîne, il s'agit de traitement numérique. Je laisse  @olivdeso reprendre ce point.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

 

Il y a 3 heures, olivdeso a dit :

Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

 

Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

 

C'est un dirac quoi ... ou encore une étoile (hors de notre système solaire), assez courant en astronomie non ?

En tout cas au travers de nos instruments, cela reste des sources ponctuelles sauf a grossir suffisamment pour faire apparaître l'artefact instrumental qu'est la figure d'airy.

 

Marc

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
1 hour ago, patry said:

C'est un dirac quoi ...

 

Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

 

5 hours ago, olivdeso said:

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

 

Là il y a un truc que je comprend mal.... Faut filtrer spatialement en sortie (avec un flou gaussien adapté par exemple) pour obtenir une image supprimant les artéfacts de numérisation sur une figue d'Airy ? J'ai du louper un truc.
 

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, lyl a dit :

Il n'est pas dans cette chaîne, il s'agit de traitement numérique. Je laisse  @olivdeso reprendre ce point.

Alors le fameux "filtre passe bas en sortie, comme en entré" nécessaire, n'est pas dans la chaîne d'acquisition d'image HR planétaire, (télescope , barlow et caméra) et le dilemme caméra couleur ou NB ainsi que la  problématique de l'échantillonnage optimal correspondant.

On serait dans le post-traitement numérique.

 

Si c'est le dirac que vous cherchiez, il y a la déconvolution de la PSF par la PSF en post traitement. Mais cette solution a aussi ses limites en pratique.

Pour moi la simulation de l'échantillonnage en image reste valable au niveau de l'acquisition, sauf si on m'explique le contraire.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 7 heures, brizhell a dit :

Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

 

Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso qui disait que cela n'existait pas dans la nature. Hors une étoile (non résolue) et à distance respectueuse de l'artefact de la figure d'airy, est assez représentative de la fonction de dirac : un fond à zéro (le ciel) et une étoile qui fournit toute son énergie sur un unique pixel du détecteur.

C'est d'ailleurs bien pratique pour identifier les défauts d'une optique ; photographier un champ d'étoiles permet de rapidement se rendre compte de la qualité du train optique (et on a souvent des surprises).

En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

 

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 8 heures, CPI-Z a dit :

Pour moi la simulation de l'échantillonnage en image reste valable au niveau de l'acquisition, sauf si on m'explique le contraire.

Tu as raison, je préfère qu'on reste côté chaîne optique, c'est le sujet, la numérisation dans la caméra n'en a pas besoin, le DAC n'utilise pas le filtre.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, STF8LZOS6 a dit :

Finalement, je suis bien échantillonnée à 0.185" d'arc par pixel avec une ASI 224 MC et 150mm de diamètre. La séparation entre les centres des deux étoiles est de 0.9" d'arc.

 

image.png

il y a 33 minutes, patry a dit :

En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

Oui on peut résumé en disant que la figure de diffraction d'un télescope, la PSF est un artefact, c'est la TF du dirac au travers de ouverture limitée du télescope.

Et pour STF8LZOS6 le bon échantillonnage, le = dans la figure, correspond bien à un étalement entre 4 et 5 pixels entre le centre et le premier anneau sombre. 4 < K < 5

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 45 minutes, CPI-Z a dit :

Et pour STF8LZOS6 le bon échantillonnage, le = dans la figure, correspond bien à un étalement entre 4 et 5 pixels entre le centre et le premier anneau sombre. 4 < K < 5

Effectivement, j'ai aussi pu faire du visuel sur ce couple aussi par excellent seing, et le premier anneau brillant de la principale semble se superposer et passer au centre de la secondaire, d'où un léger étirement du disque.

 

Modifié par STF8LZOS6

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour moi, la seule solution pour ne pas perdre en résolution sur une matrice couleur est d'aligner et d'empiler en utilisant la technique du bayer-drizzle qui ne nécessite aucune interpolation.

La perte de signal est très importante (matrice de bayer ainsi que le principe du drizzle) mais la résolution peut redevenir semblable à une version monochrome.

Toutes les autres techniques de dématriçage de base (AHD, VNG... ) font perdre de la résolution, entre 30% et 50% selon l'algo.

 

J'arrive avec un APN à avoir une résolution proche du pixel en utilisant un bayer-drizzle avec un paramètre qui optimise la résolution au détriment du rapport signal sur bruit. Bien entendu, je change les paramètres pour obtenir le meilleur compromis. Les logiciels spécialisés (Pixinsight, AstroPixel Processor... ) offrent maintenant plusieurs paramètres très optimisés pour le bayer-drizzle sous réserve du nombre d'images à empiler. Le dithering est aussi un point clé.

Un tuto complet était en préparation mais ça prend un peu de temps toutes ces conneries xD

 

Après, si on parle en signal, là, ce n'est pas la même chose, bien entendu. Mais je crois que la question de base ne portait que sur la résolution.

 

Modifié par Philippe Bernhard
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
2 hours ago, patry said:

Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso

 

C'était aussi mon but Marc, nous sommes entièrement d'accord, et sauf erreur de ma part, il n'y a pas besoin de filtrage numérique sur la représentation d'une réponse impulsionnelle dans les simulations de @CPI-Z

La numérisation introduit des artéfacts fréquentiels en fonction de l'échantillonnage spatial et de la profondeur de numérisation, d’où mon incompréhension dans la remarque d'olivedso.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, Philippe Bernhard a dit :

Pour moi, la seule solution pour ne pas perdre en résolution sur une matrice couleur est d'aligner et d'empiler en utilisant la technique du bayer-drizzle qui ne nécessite aucune interpolation.

La perte de signal est très importante (matrice de bayer ainsi que le principe du drizzle) mais la résolution peut redevenir semblable à une version monochrome.

Toutes les autres techniques de dématriçage de base (AHD, VNG... ) font perdre de la résolution, entre 30% et 50% selon l'algo.

 

J'arrive avec un APN à avoir une résolution proche du pixel en utilisant un bayer-drizzle avec un paramètre qui optimise la résolution au détriment du rapport signal sur bruit. Bien entendu, je change les paramètres pour obtenir le meilleur compromis. Les logiciels spécialisés (Pixinsight, AstroPixel Processor... ) offrent maintenant plusieurs paramètres très optimisés pour le bayer-drizzle sous réserve du nombre d'images à empiler. Le dithering est aussi un point clé.

Un tuto complet était en préparation mais ça prend un peu de temps toutes ces conneries xD

 

Après, si on parle en signal, là, ce n'est pas la même chose, bien entendu. Mais je crois que la question de base ne portait que sur la résolution.

Merci pour cette réponse, on revient au sujet. 
Avec le Bayer drizzle ce que tu dis c'est ce que j'imaginais intuitivement. Par contre je ne suis pas certain du tout que l'on ait cette option là en planétaire, et je ne savais pas qu'elle existe dans les logiciels pour le ciel profond. 

Tu parles de perte de signal, c'est surtout sur les couches B et R que c'est poussif je suppose ? Pour compenser il faut sans doute à partir de ce résultat là  RVB générer une L structurée à 50% par V, 25%B, et 25%R, ne faisant ainsi on doit avoir le meilleur des deux mondes, non ?. 

Et du coup à ton avis si on dématrice proprement les images brutes avant stacking avec une perte de résolution spatiale (de 30% mettons), on a toujours cette perte de résolution après avoir empilé 1000 images ? (c'est ce point là qui est le plus flou dans mon esprit).  

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, jldauvergne a dit :

Avec le Bayer drizzle ce que tu dis c'est ce que j'imaginais intuitivement. Par contre je ne suis pas certain du tout que l'on ait cette option là en planétaire, et je ne savais pas qu'elle existe dans les logiciels pour le ciel profond. 

Le bayer drizzle fonctionne principalement car on a une information commune entre les canaux B et G ainsi que G et R, c'est l'entropie conjointe due au recouvrement des filtres

Le fait également qu'un détail émette une large bande (difficile à qualifier) permet aussi de récupérer des détails en dehors des plages communes.

Autour de 496nm et 585nm, ce sont des longueurs d'ondes intéressantes.

=> amélioration de la résolution en utilisant chaque photosite au lieu du pixel entier.

ZWO-ASI-1600-Pro-CMOS-Telescope-Camera-C

Méthode inventée par Fruchter & Hook pour Hubble, elle est dans Deep Sky Stacker comme PixInsight.

https://ui.adsabs.harvard.edu/abs/2002PASP..114..144F/abstract

https://iopscience.iop.org/article/10.1086/338393/pdf

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Andromedae93
      Bonjour tout le monde,

      Reprenant l'astrophotographie aussi vite que les nuits claires en Alsace, j'ai pu pour la première fois depuis longtemps sortir le matériel hier soir pour une nuit quasi complète.
      6°C et une énorme humidité jusqu'à 5h du matin, les yeux picotent à l'heure d'écrire ces lignes.

      J'avais pour objectif plusieurs points :
      - Affiner la collimation qui m'a posé quelques problèmes de reproductibilité avec le cat's eye et l'Octoplus de Lacerta
      - Trouver le backfocus idéal du nouveau correcteur de coma TS Maxfield x0.95
      - Réglage du tilt qui m'a fait désespérer depuis 1 et demi, mettant l'astro entre paranthèses car n'y arrivant pas
       
      Voici le setup :
       
      Lacerta Newton 200/800 Carbon
      Monture AZ-EQ6
      Guidage Altair 60/240 + asi 120
      TS Maxfield x0.95 + RAF 7*31mm + bague de tilt Gerd Neumann + ASI 1600 mm pro
       
      1) La collimation
       
      Cet aspect là m'a semblé être bien maitrisé. Suite à un précédent post avec Danielo, j'ai pu constater que si je pré-serrais déjà la bague de serrage annulaire pour faire rentrrer le cat'seye dans le PO en laissant le moins de jeu possible au départ, j'arrivais à quelque chose de reproductible plus facilement.
      Cela m'a pris environ 5-10 minutes sur le terrain afin d'obtenir un résultat qui me semble idéal.

      2) Réglage du backfocus (sur M13 pour la suite également)
       
      Le backfocus constructeur est annoncé à 55mm sur l'ensemble des sites (visiblement peu importe la focale). En ajoutant 0.8mm correspond à 1/3 de l'épaisseur d'un filtre, je me place à 55.8mm en partant de chez moi.
      Une fois sur le terrain et que tout est lancé, je fais un auto-focus de NINA :
       

       
      MAP ok, belle courbe en V selon moi.

      Je lance ensuite le module Aberration Inspector et voilà ce que j'obtiens :
       


      Après plusieurs essais afin de voir si c'est une information répétée, il m'indiquait qu'il fallait rajouter 0.2mm. Une fois cela fait, il m'indique que je suis bien dans la zone critique avec mes 56mm. C'était également la valeur qui m'avais été confiée par un ami.
      Au passage, on peut voir un plan du capteur pas bon du tout qui me donne ce tilt ...
      Cela me semble bon sur les photos, le backfocus est correct apparemment.
       
      Je relance avec 56mm :
       
      +
       
      Je pense être pas mal du tout, je suis dans la CFZ et pour l'instant ça me convient.

      3) Réglage du foutu satané tilt
       
      C'était la partie que je redoutais le plus. Malgré le fait que la bague de tilt Gerd Neumann est assez simple à utiliser (1 tirante + 2 poussantes), il n'y a que 3 vis à 120° pour un capteur à 4 côtés.
      J'ai donc eu l'impression de jouer à la loterie en regardant à chaque fois ce que donnais le résultat d'un réglage.
      Néanmoins, ce que je constante, c'est que le capteur à son côté bas trop en arrière et son côté haut trop en avant.

      Après pratiquement 4-5h de réglage, voici l'historique auquel je parviens :
       

       
      Je me suis dit qu'arrivé à ce stade là, le réglage était plutôt bon et que de tenter à l'améliorer aurait certainement dégradé (comme au niveau de la 17ème prise).
      D'autant plus qu'un soft comme BlurXterminator permet de redonner encore un peu de rondeur à des étoiles légèrement ovalisées.

      Entre temps, j'ai affiné les réglage du tilt sur la nébuleuse du croissant (NGC6888) me permettant d'avoir plus d'étoiles dans le champ.
       
      Voici le résultat obtenu sur une pose de 60s à la fin de ma session :
       
      https://uploadnow.io/f/FM964Hh
       

       
      L'image me semble plutôt bonne dans les coins. Setup avec un F/D à 3.8 en raison du correcteur de coma.
      Mise au point refaite juste avant la prise de cette photo.
      Avec un petit coup de BlurXterminator, voici le résultat :
       

       
      https://uploadnow.io/f/cWBpfxW
       
       Et finalement je me dis que là, l'image est propre pratiquement partout. Les étoiles sont fines et ponctuelles même dans les coins ! La mission me semble remplie 😃 
       
      4) Problème rencontré sur l'autoguidage
       
      Cette soirée en revanche m'a fait entrevoir quelques soucis sur la partie guidage.
      Voici une capture d'écran de PHD2 pour vous montrer les courbes & valeurs :
       

       
      Plusieurs soucis :
       
      - Valeur totale RMS à 0.73" (mon échantillonnage est de 0.96" avec mon setup), il faudrait qu'idéalement je sois à 0.5" sur PHD2 si je ne dis pas de bêtises.
      - Des sauts apparaissent de temps en temps sans qu'il n'y ait la moindre raison
      - Les étoiles apparaissent avec un halo énorme et ne sont pas bien contrastée (pourtant pas de buée car système anti buée en marche et optique propre)
      - Pas de vent
      - Beaucoup d'humidité dans l'air hier
       
      Serait-il possible que ces problèmes proviennent des réponses suivantes :
       
      - Zwo asi 120mm mini trop peu sensible
      - Monture AZEQ6 toujours entreposée dans sa sacoche à plat, mais non révisé depuis 6 ans (date d'achat chez Pierro) et non utilisée depuis 1 an et demi
      - Mauvais réglages de PHD2 ?

      Merci pour vos retours !!
    • Par belier1762
      Bonjour à tous
      J'ai deux filtres solaire en verre avec des poussières collées ... ma question est la suivante  :
      Peux t'on nettoyer un filtre solaire en verre des deux cotés , si oui avec quel produit et comment le faire ...
      sans risquer de rayer ou dégrader le filtre solaire définitivement  inutilisable
      Merci
      Marc
    • Par soleil rouge
      L'observatoire de Rocbaron organise la 3eme édition de la Journée du Soleil 
      LE 8 JUIN 2024 sur le site de l'observatoire !
      Cette manifestation est entièrement gratuite et ouverte aux astronomes et au public pour partager et échanger nos
      connaissances et notre passion dans une ambiance sympathique !
       
      Au programme observations et photographies du soleil sous différentes longueurs d'ondes !
      ( Halpha - Calcium - Lumière Blanche ... ) 
      Différents instruments  de 40 mm a 185 mm seront disponible sur place avec des équipements différents 
      Coronado - Lunt - PST modifié - Quark Halpha - Hélioscope d’Herchell .....Double stack Fabry Perot PST Modifié ....
       
      Vous pouvez participer et apporter vos instruments pour que cette journée soit une grande Fête du Soleil  et partager 
      votre expérience avec nous et le public 
       
      Repas Auberge espagnole , le soir sur place !
       
      Parking , électricité sur place !
       
      le soir bien sur , nous restons sur place pour observer le ciel du printemps 
       
      contact / 0674325988
       
       
       
       
       
       
       

    • Par BenjDob
      Salut à tous, 
       
      Question certainement basique, mais je ne trouve pas la réponse.
       
      Possesseur d'un dobson 300/1500 sans suivi, je me pose la question d'acheter un correcteur de coma pour mieux profiter de mes occulaires grand champ ES 9mm 100°, APM 13mm 100°, et quelques chinois à 80°.
       
      Cependant j'ai lu, et je constate, que des occulaires de qualité ont deja une correction sur les bords correcte. D'où ma question: ajouter un correcteur sur ces occulaires ne va-t-il pas au final degrader l'image en surcompensant?
       
      Merci pour vos retours et bon ciel, malgré les conditions actuelles...
    • Par NUNKY
      Pour observation en milieu urbain !?
      Est ce valable ?
      Quid de l'installation des filtres sur les objectifs, et quels filtres ?
      Si qu'un a essayé...
      Merci pour vos retours 
      Christian 
  • Évènements à venir