jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Recommended Posts

Il y a 3 heures, polo0258 a dit :

RGBBGR    ,je pense  la moyenne horaire se faisant sur les  bleus ! on assemble avec winjupos rr gg bb et ensuite rgb  !

 bonne journée !

 

En effet, c'est bien ça (j'étais fatigué hier)

En fait si on pense à la dérotation comme à une "cartographie" à plat (les deux sont liés de toute façon), avec une carte dont on composite les détails au fur et à mesure pour chaque plan de couleur, on aura une capture avec des détails "à l'est" qui se lèvent, et d'autres à l'ouest qui vont disparaître. Mais l'un dans l'autre, la date moyenne permettra d'avoir le maximum d'information aux 2 limbes.

 

Et bien évidemment, à mettre toutes les R d'un coté, à la fin on va manquer de R "à l'est" (et inversement on risque de manquer de B à l'ouest avec une date moyenne antérieure à la première B) lors de la reconstruction et avoir des franges colorées de part et d'autre. Ce qui est galère c'est de devoir refaire le focus très très souvent. Les filtres RGB d'astronomik ont assez rigoureusement la même épaisseur mais il peut subsister la petite fraction de tour pour corriger le chromatisme longitudinal de l'instrument.

 

Pour le coup, faire en une seule fois toutes les couches d'un coup avec une cam couleur c'est plus facile.

 

Marc

 

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com

Hello 😊

Moi qui pensais avoir tout compris suite à l'épisode de Christophe je m'aperçois que rien n'est aussi simple !! 

Après tout ce chinois de calcul, toutes ces speculations basées sur la théorie du calcul embrouillent les esprits ! 

Je m'aperçois surtout que tout ça est très subjectif, pire encore lorsqu'on essais de le quantifié, car en fait ce qui vas faire perdre ou pas de la résolution, ou definition et bien se sont les conditions de ciel et rien d'autres ! 

NB ou couleurs si le ciel est pourris il est pourris ! Et je préfère de loin m'interroger sur ces conditions, car c'est ça qui garanti sur le terrain les futurs images (vent/humidité/temperature etc...) que de calculer d'hypothetiques théories qui ne peuvent ce vérifier que par le calcul... 

 

Fred 😉

 

Edited by fredo38
  • Like 1

Share this post


Link to post
Share on other sites

Bonjour à tous,

Je vois que ma vidéo suscite des discussions passionnantes avec des intervenants de haut niveau. J'en suis honoré!

Je me permets juste quelques petites précisions sur ma démarche..

- Cette vidéo est la 3ème d'une grande série, qui vise à aider les gens à choisir une (ou 2!) caméras adaptées à leurs setups, et il y a autant de réponses que de personnes... pas facile donc, vous l'avez compris, de dégager une réponse figée dans le marbre. Inutile de vous dire qu’elle se positionne vis-à-vis de certaines vidéos

- nous sommes d’accord que le commun des mortel à qui ma chaîne s’adresse, c’est plutôt des gens qui vont utiliser un instrument industriel, du Newton 115/900 au Dobson 400 en passant par les Mak 180, ou Celestron C8… Je n’ai pas la prétention d’expliquer à un Jean-Luc Dauvergne comment utiliser son exceptionnel Mewlon 250 à L/20…

- Donc l’objectif, c’est de trouver ce bon ratio d’échantillonnage à utiliser, et dans la majorité des cas (livre de Thierry Legault / UtilCCD, etc.), la réflexion part donc des formules de pouvoir séparateur, de la formule de l’échantillonnage, et le rapport minimal « x2 » du théorème de Nyquist-Shanon. On tombe alors sur ma synthèse sous la forme : F/D = 3.438 x P. Cette formule est expliquée dans le 1er épisode de la série.

- mon expérience est d’avoir constaté qu’en utilisant cette formule avec ma QHY5LIIc (donc équivalente à la ASI 120 couleur), que ce soit avec mon Skywatcher 200/800 (les optiques de mon photoStrock), mon Meade Lightbridge 300 (base de mon Strock 300) et mon Meade Lightbridge 400 (base de mon slimStrock), je n’ai jamais réussi à avoir un truc propre sur les hautes fréquences de mes ondelettes. Bref, la composante « haute fréquence » n’était pas là. Et donc, comme je le dis dans la vidéo « il y a des fois où le signal n’est pas là ». Dans mon cas, c’était très clairement à cause de la diffusion des optiques. Donc on comprend bien qu’il est inutile de suréchantillonner avec de tels instruments.

- Cette formule donc, je la considère comme une base de travail, et non comme un absolu. Je n’ai donc aucun problème à ce que certains en viennent à sous-échantillonner légèrement comme je pouvais le faire avec mes télescopes industriels, et à voir Jean-Luc travailler à F/D=25 au lieu des 12.89 recommandés par sa IMX_224c, ou les 9.90 recommandés par sa IMX_290m.

- En revanche, en faisant repolir mon 400 par Franck Grière (vous connaissez la qualité de ses miroirs – et je précise que le secondaire de mon slimStrock a été directement acheté chez lui), alors là oui, j’obtiens du signal en HF, et il faut travailler à optimiser le rapport signal sur bruit de façon à pouvoir l’exploiter correctement. Optimiser l’échantillonnage, etc. Et vous le savez bien, quand suréchantillonne par 2, on divise par 4 la quantité de lumière par pixel, et donc, on perd en rapport signal sur bruit.

- J’ai comme l’impression que les utilisateurs de SC, RC, ou autres Mak du commerce obtiendront un signal dans les HF (toujours avec mes 3.438xP) bien plut tôt qu’avec les Newton.

Voici donc où j’en suis dans l’élaboration de ma réponse à la question initiale :

- Donc si je suis à 3.438xP avec un instrument de qualité suffisante pour offrir un signal HF dans la réalité du signal se trouvant sur le plan focal, comment en tirer le meilleur parti ?

1- utiliser une caméra monochrome nous affranchit des impacts de la matrice de Bayer (c’est le sujet de cet épisode).

2- suréchantillonner avec une caméra couleur (et/ou monochrome), est loin d’être absurde si la chaîne optique et le ciel le permettent, et à fera l’objet d’une des vidéos à venir de la série (et donc de l’opportunité d’utiliser une IMX 178 par exemple). Mais plusieurs utilisateurs me témoignent que çà ne passe pas systématiquement. On devra garder à l’esprit que si on suréchantillonne à mort, on va se retrouver avec un signal bien plus faible (au carré), et donc, un rapport signal sur bruit qui va en souffrir.

 

Alors bien sûr, on peut allonger les temps de poses. Mais dans ce cas, si on allonge le temps de pose par 3 (car la caméra couleur est 3x moins sensible que la caméra monochrome), et/ou par 4 (pour offrir la même résolution spatiale absolue dans le bleu ou le rouge que la caméra monochrome – nous sommes bien d’accord que j’ai expliqué que c’était inutile), ou simplement de 30%, alors on doit comparer le rapport signal sur bruit « à temps de ciel égal ».

Donc si j’ai des poses de 30ms avec une caméra couleur, pour avoir le même histo que des poses de 10ms avec ma caméra couleur, je dois comparer le rapport signal/bruit, et la présence d’un signal HF dans les 3x10ms de ma série monochrome.

Donc là encore, la caméra monochrome offre un gain qu’il ne faut pas oublier !

Ma vidéo a clairement pour objectif de ne pas opposer les 2 types de caméras, mais proposer des façons de les utiliser conjointement et efficacement.

Au plaisir de vous lire, car c’est toujours passionnant d’échanger dans un esprit constructif et respectueux.

Ps : petite remarque : comparer l’IMX174m avec l’IMX224c n’est pas une comparaison qui me semble juste : en effet, le bruit de lecture de la 174 est 4x supérieur !

 

Bien cordialement.

 

Christophe

  • Like 3

Share this post


Link to post
Share on other sites

En tout cas Christophe, ta vidéo à généré ce post intéressant, donc merci et Bienvenue sur AS!

L'autre CdlC ;-)

Edited by Chris277
  • Like 1

Share this post


Link to post
Share on other sites
Il y a 5 heures, olivdeso a dit :

Il manque une chose ici : le filtre passe bas de restitution.

Je ne vois pas en quoi la représentation de l'échantillonnage en image que j'ai représenté par simulation ne serait pas représentatif d'une réalité.

Tout à chacun a pu observé la figure de diffraction d'une source ponctuelle ou d'une étoile dans un télescope digne de ce nom quand les conditions atmosphérique le permet.

Et chacun comprend que chaque pixel d'une caméra ne peut restituer qu'une intensité à la foi par image, et donc les pixels découpent la figure de diffraction de la source en marche d'escalier d'intensité différente.

C'est cela et seulement cela l'échantillonnage.  

Après le choix de l'échantillonnage dépend du K évoqué avec F/D = K*p / (1.22 onde).

 

Pour prouver mes dires et non du bla bla avec formules sortie d'un chapeau magique comme certain le laisse penser, voici une image d'une étoile double, compilation d'une vidéo faite avec un télescope loin d'être parfait et une simple caméra couleur QHY 5L-II c.

On observe bien que le diamètre du premier anneau sombre de la figure de diffraction (PSF) est proportionnel à la couleur, la longueur d'onde correspondant au filtre de Bayer pour chaque couleur.

5df78fd59d353_Etoiledouble.png.483c89f92493f1b8ed5fb9e140c84c41.png

 

 

Share this post


Link to post
Share on other sites
Il y a 2 heures, CDLC a dit :

1- utiliser une caméra monochrome nous affranchit des impacts de la matrice de Bayer (c’est le sujet de cet épisode).

2- suréchantillonner avec une caméra couleur (et/ou monochrome), est loin d’être absurde si la chaîne optique et le ciel le permettent, et à fera l’objet d’une des vidéos à venir de la série (et donc de l’opportunité d’utiliser une IMX 178 par exemple). Mais plusieurs utilisateurs me témoignent que çà ne passe pas systématiquement. On devra garder à l’esprit que si on suréchantillonne à mort, on va se retrouver avec un signal bien plus faible (au carré), et donc, un rapport signal sur bruit qui va en souffrir.

 

La matrice de Bayer a un impact sur la résolution si et seulement si on s'approche d'un rapport signal sur bruit proche de la quantification du bit.

...ce qui arrive somme toute souvent sur les objets planétaires (luminosité intrinsèque) ou à faible diamètre d'instrument sur la Lune ou à forte turbulence (réduction du temps de pose).

 

=> Le facteur limitant étant d'obtenir assez de flux pour passer au-dessus du bruit lors de la capture.

 

En résumé quand il y a assez de flux pour dépasser le seuil des bruits d'acquisition : peu importe le capteur on peut atteindre la résolution.

 

La limitation sera la dynamique du capteur car si on doit monter le minima acquis, on va forcément gratter le sommet de la dynamique.

 

Il y a 2 heures, CDLC a dit :

Au plaisir de vous lire, car c’est toujours passionnant d’échanger dans un esprit constructif et respectueux.

Ps : petite remarque : comparer l’IMX174m avec l’IMX224c n’est pas une comparaison qui me semble juste : en effet, le bruit de lecture de la 174 est 4x supérieur !

 

Même remarque, à flux suffisant, montré par chonum en solaire pour l'IMX174, il ne s'agit PAS du bruit total par pixel qui compte mais du bruit en fonction du flux capturé.

Erreur commune sur les capteurs.

 

--------------------------------------------------------

 

Mon idée sur la différence couleur vs monochrome :

la différence de flux par pixel en fonction de ce qui est acquis par photosite.

 

En Vert : efficacité de la bande capturée proche du maxima à combiner au flux diminué, 2 photosites/4 pour faire un pixel => -3dB

En Rouge : efficacité de la bande capturée très utile en planétaire, moins en lunaire sauf pour améliorer la gêne de la turbulence, flux 1/photosite sur 4 => -6dB

En Bleu : efficacité de la bande capturée peu intéressante sauf quelques planètes, esthétique de la couleur autour du bleu-vert, utile en CP bien entendu, flux 1/photosite sur 4 => -6dB

 

L'interprétation de l'image se faisant en visuel il va de soi que la couleur apporte un plus, bien valorisé par les différentes palettes comme la palette Hubble mais je suis incapable de quantifier l'apport.

 

En conclusion : du flux toujours du flux. Ensuite on règle les curseurs pour pallier aux perturbations qui amène du bruit sur ce qu'on cherche.

... du bon principe dans les télécommunications.

Ensuite, il y a les facilités techniques pour accumuler les images d'une manière ou d'une autre, je ne maîtrise pas ces points et j'acquiesce à tous les apports qui ont été présentés ici.

Choix de caméra : prenez celle dont la taille de pixel est compatible avec votre f/D de travail et votre ratio de sur-échantillonnage.

Edited by lyl

Share this post


Link to post
Share on other sites
Il y a 1 heure, lyl a dit :

En résumé quand il y a assez de flux pour dépasser le seuil des bruits d'acquisition : peu importe le capteur on peut atteindre la résolution.

Peut être mais cette démonstration là  n'a pas été faite.  Sur quoi te bases tu ?

 

Il y a 2 heures, lyl a dit :

En Bleu : efficacité de la bande capturée peu intéressante sauf quelques planètes, esthétique de la couleur autour du bleu-vert, utile en CP bien entendu, flux 1/photosite sur 4 => -6dB

C'est utile sur toutes les planètes sauf peut être Mercure et la Lune. Encore que le bleu est potentiellement la couche la plus résolue. Et là on peut se demander si la matrice de bayer ne va pas plutôt plafonner en vert. 

Share this post


Link to post
Share on other sites
il y a 1 minute, jldauvergne a dit :

Peut être mais cette démonstration là  n'a pas été faite.  Sur quoi te bases tu ?

La démonstration de la dépendance du rapport S/B qui est utilisée dans les télécommunications.

Share this post


Link to post
Share on other sites
Il y a 3 heures, CPI-Z a dit :

Je ne vois pas en quoi la représentation de l'échantillonnage en image que j'ai représenté par simulation ne serait pas représentatif d'une réalité.

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

 

Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

 

Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

Edited by olivdeso
  • Like 2

Share this post


Link to post
Share on other sites

Il le faut car sinon tu vas créer des oscillations dite de Gibbs et l'approximation numérique des écarts de contraste sera moins fiable qu'avec le filtre.

 

On sera toujours limité à l'approche de la limite de résolution spatiale par la fréquence d’échantillonnage la plus haute pour la restitution du delta de contraste.

et comme la proposition pour le sur-échantillonnage est de 3 à 4, ça va limiter les variations entre pixels (3-4 bits de codage)

La c'est à la restitution pour comprendre la pente quand on agrège des pixels (opération en dehors de la capture)

Synthesis_square.gif  sur-ech-3f.JPG.7d0c0b62765a9ed41a97f21b6b040f65.JPG

--------------------

S/B

Parfois le ratio signal sur bruit à la fréquence haute ne permettra pas de discriminer correctement un bit sur le photosite, l'information captée ne sera pas fiable et on ne pourra pas reconstituer le détail ou la pente vers un détail.

 

Edited by lyl
  • Thanks 1

Share this post


Link to post
Share on other sites
il y a une heure, lyl a dit :

La démonstration de la dépendance du rapport S/B qui est utilisée dans les télécommunications.

Ils ont des matrices de bayer aux Télécom ? (Desolé mais je n'arrive pas à suivre)

Share this post


Link to post
Share on other sites
il y a une heure, olivdeso a dit :

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

il y a une heure, lyl a dit :

Il le faut car sinon tu vas créer des oscillations dite de Gibbs

 

 

Désolé j'ai mes limites et je ne comprends pas.

Entre un télescope , une barlow, et une vidéo caméra vous parlez de quoi ? Ce serait quoi "le filtre passe bas en sortie, comme en entrée" ?

Edited by CPI-Z

Share this post


Link to post
Share on other sites
il y a 6 minutes, CPI-Z a dit :

Entre un télescope , une barlow, et une vidéo caméra vous parlez de quoi ? Ce serait quoi "le filtre passe bas en sortie, comme en entrée" ?

Il n'est pas dans cette chaîne, il s'agit de traitement numérique. Je laisse  @olivdeso reprendre ce point.

Edited by lyl

Share this post


Link to post
Share on other sites

 

Il y a 3 heures, olivdeso a dit :

Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

 

Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

 

C'est un dirac quoi ... ou encore une étoile (hors de notre système solaire), assez courant en astronomie non ?

En tout cas au travers de nos instruments, cela reste des sources ponctuelles sauf a grossir suffisamment pour faire apparaître l'artefact instrumental qu'est la figure d'airy.

 

Marc

 

  • Like 1

Share this post


Link to post
Share on other sites
1 hour ago, patry said:

C'est un dirac quoi ...

 

Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

 

5 hours ago, olivdeso said:

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

 

Là il y a un truc que je comprend mal.... Faut filtrer spatialement en sortie (avec un flou gaussien adapté par exemple) pour obtenir une image supprimant les artéfacts de numérisation sur une figue d'Airy ? J'ai du louper un truc.
 

 

 

Share this post


Link to post
Share on other sites
Il y a 4 heures, lyl a dit :

Il n'est pas dans cette chaîne, il s'agit de traitement numérique. Je laisse  @olivdeso reprendre ce point.

Alors le fameux "filtre passe bas en sortie, comme en entré" nécessaire, n'est pas dans la chaîne d'acquisition d'image HR planétaire, (télescope , barlow et caméra) et le dilemme caméra couleur ou NB ainsi que la  problématique de l'échantillonnage optimal correspondant.

On serait dans le post-traitement numérique.

 

Si c'est le dirac que vous cherchiez, il y a la déconvolution de la PSF par la PSF en post traitement. Mais cette solution a aussi ses limites en pratique.

Pour moi la simulation de l'échantillonnage en image reste valable au niveau de l'acquisition, sauf si on m'explique le contraire.

Share this post


Link to post
Share on other sites
Il y a 7 heures, brizhell a dit :

Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

 

Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso qui disait que cela n'existait pas dans la nature. Hors une étoile (non résolue) et à distance respectueuse de l'artefact de la figure d'airy, est assez représentative de la fonction de dirac : un fond à zéro (le ciel) et une étoile qui fournit toute son énergie sur un unique pixel du détecteur.

C'est d'ailleurs bien pratique pour identifier les défauts d'une optique ; photographier un champ d'étoiles permet de rapidement se rendre compte de la qualité du train optique (et on a souvent des surprises).

En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

 

Marc

Share this post


Link to post
Share on other sites
Il y a 8 heures, CPI-Z a dit :

Pour moi la simulation de l'échantillonnage en image reste valable au niveau de l'acquisition, sauf si on m'explique le contraire.

Tu as raison, je préfère qu'on reste côté chaîne optique, c'est le sujet, la numérisation dans la caméra n'en a pas besoin, le DAC n'utilise pas le filtre.

Share this post


Link to post
Share on other sites
il y a 35 minutes, STF8LZOS6 a dit :

Finalement, je suis bien échantillonnée à 0.185" d'arc par pixel avec une ASI 224 MC et 150mm de diamètre. La séparation entre les centres des deux étoiles est de 0.9" d'arc.

 

image.png

il y a 33 minutes, patry a dit :

En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

Oui on peut résumé en disant que la figure de diffraction d'un télescope, la PSF est un artefact, c'est la TF du dirac au travers de ouverture limitée du télescope.

Et pour STF8LZOS6 le bon échantillonnage, le = dans la figure, correspond bien à un étalement entre 4 et 5 pixels entre le centre et le premier anneau sombre. 4 < K < 5

  • Like 1

Share this post


Link to post
Share on other sites
il y a 45 minutes, CPI-Z a dit :

Et pour STF8LZOS6 le bon échantillonnage, le = dans la figure, correspond bien à un étalement entre 4 et 5 pixels entre le centre et le premier anneau sombre. 4 < K < 5

Effectivement, j'ai aussi pu faire du visuel sur ce couple aussi par excellent seing, et le premier anneau brillant de la principale semble se superposer et passer au centre de la secondaire, d'où un léger étirement du disque.

 

Edited by STF8LZOS6

Share this post


Link to post
Share on other sites

Pour moi, la seule solution pour ne pas perdre en résolution sur une matrice couleur est d'aligner et d'empiler en utilisant la technique du bayer-drizzle qui ne nécessite aucune interpolation.

La perte de signal est très importante (matrice de bayer ainsi que le principe du drizzle) mais la résolution peut redevenir semblable à une version monochrome.

Toutes les autres techniques de dématriçage de base (AHD, VNG... ) font perdre de la résolution, entre 30% et 50% selon l'algo.

 

J'arrive avec un APN à avoir une résolution proche du pixel en utilisant un bayer-drizzle avec un paramètre qui optimise la résolution au détriment du rapport signal sur bruit. Bien entendu, je change les paramètres pour obtenir le meilleur compromis. Les logiciels spécialisés (Pixinsight, AstroPixel Processor... ) offrent maintenant plusieurs paramètres très optimisés pour le bayer-drizzle sous réserve du nombre d'images à empiler. Le dithering est aussi un point clé.

Un tuto complet était en préparation mais ça prend un peu de temps toutes ces conneries xD

 

Après, si on parle en signal, là, ce n'est pas la même chose, bien entendu. Mais je crois que la question de base ne portait que sur la résolution.

 

Edited by Philippe Bernhard
  • Like 2

Share this post


Link to post
Share on other sites
2 hours ago, patry said:

Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso

 

C'était aussi mon but Marc, nous sommes entièrement d'accord, et sauf erreur de ma part, il n'y a pas besoin de filtrage numérique sur la représentation d'une réponse impulsionnelle dans les simulations de @CPI-Z

La numérisation introduit des artéfacts fréquentiels en fonction de l'échantillonnage spatial et de la profondeur de numérisation, d’où mon incompréhension dans la remarque d'olivedso.

  • Like 1

Share this post


Link to post
Share on other sites
Il y a 4 heures, Philippe Bernhard a dit :

Pour moi, la seule solution pour ne pas perdre en résolution sur une matrice couleur est d'aligner et d'empiler en utilisant la technique du bayer-drizzle qui ne nécessite aucune interpolation.

La perte de signal est très importante (matrice de bayer ainsi que le principe du drizzle) mais la résolution peut redevenir semblable à une version monochrome.

Toutes les autres techniques de dématriçage de base (AHD, VNG... ) font perdre de la résolution, entre 30% et 50% selon l'algo.

 

J'arrive avec un APN à avoir une résolution proche du pixel en utilisant un bayer-drizzle avec un paramètre qui optimise la résolution au détriment du rapport signal sur bruit. Bien entendu, je change les paramètres pour obtenir le meilleur compromis. Les logiciels spécialisés (Pixinsight, AstroPixel Processor... ) offrent maintenant plusieurs paramètres très optimisés pour le bayer-drizzle sous réserve du nombre d'images à empiler. Le dithering est aussi un point clé.

Un tuto complet était en préparation mais ça prend un peu de temps toutes ces conneries xD

 

Après, si on parle en signal, là, ce n'est pas la même chose, bien entendu. Mais je crois que la question de base ne portait que sur la résolution.

Merci pour cette réponse, on revient au sujet. 
Avec le Bayer drizzle ce que tu dis c'est ce que j'imaginais intuitivement. Par contre je ne suis pas certain du tout que l'on ait cette option là en planétaire, et je ne savais pas qu'elle existe dans les logiciels pour le ciel profond. 

Tu parles de perte de signal, c'est surtout sur les couches B et R que c'est poussif je suppose ? Pour compenser il faut sans doute à partir de ce résultat là  RVB générer une L structurée à 50% par V, 25%B, et 25%R, ne faisant ainsi on doit avoir le meilleur des deux mondes, non ?. 

Et du coup à ton avis si on dématrice proprement les images brutes avant stacking avec une perte de résolution spatiale (de 30% mettons), on a toujours cette perte de résolution après avoir empilé 1000 images ? (c'est ce point là qui est le plus flou dans mon esprit).  

Edited by jldauvergne
  • Like 1

Share this post


Link to post
Share on other sites
Il y a 3 heures, jldauvergne a dit :

Avec le Bayer drizzle ce que tu dis c'est ce que j'imaginais intuitivement. Par contre je ne suis pas certain du tout que l'on ait cette option là en planétaire, et je ne savais pas qu'elle existe dans les logiciels pour le ciel profond. 

Le bayer drizzle fonctionne principalement car on a une information commune entre les canaux B et G ainsi que G et R, c'est l'entropie conjointe due au recouvrement des filtres

Le fait également qu'un détail émette une large bande (difficile à qualifier) permet aussi de récupérer des détails en dehors des plages communes.

Autour de 496nm et 585nm, ce sont des longueurs d'ondes intéressantes.

=> amélioration de la résolution en utilisant chaque photosite au lieu du pixel entier.

ZWO-ASI-1600-Pro-CMOS-Telescope-Camera-C

Méthode inventée par Fruchter & Hook pour Hubble, elle est dans Deep Sky Stacker comme PixInsight.

https://ui.adsabs.harvard.edu/abs/2002PASP..114..144F/abstract

https://iopscience.iop.org/article/10.1086/338393/pdf

Edited by lyl

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By Ben2407
      Bonjour à tous,
       
      Ayant desormais une ASI2600 avec un capteur de taille APSc, je me rends compte que mes photos plafonnent à seulement 13 à 17% de courbure de champ.
      Je me demande donc si c’est normal ? Ou si cela vient du backfocus de mes bagues qui n’est peut-être pas optimal derrière mes flatteners ou Réducteurs.

      Si certains d’entre vous ont deja optimisé leurs setups au niveau des backfocus, pourriez vous me dire quels sont vos resultats en terme de courbure de champ (si possible avec une mesure faite par CCD Inspector)
       
      Je suis principalement intéressé par vos résultats sur les lunettes:
      - FSQ106ED avec et sans réducteur,
      - FSQ85ED avec flattener et avec reducteur,
      - et FS60 avec flattener et avec reducteur,
      en indiquant bien sur la taille du capteur (24x36, APSc ou autres) et si possible le tirage optique exact de vos bagues (du flattener/reducteur au capteur) ainsi que l’epaisseur du ou des filtres utilisés.
       
      Mais si ce sujet intéresse des personnes possédant d’autres lunettes Takahashi, cela peut aussi être l’occasion de partager ici toutes les mesures.
      Et je pourrai faire la synthese dans un tableau que je partegerai avec vous tous
       
      Merci d’avance pour votre participation
      Bon ciel à tous
      Benoit
       
    • By SkyGuy
      Bonjour à tous,
      J’utilise depuis 3 ans une AP130GT en astrophotographie couplée à un réducteur APM Riccardi ×0.75 et une CCD G2-4000 (capteur ≈ 15mm × 15 mm).  Néanmoins je souhaite repasser à la focale native de la lunette et je cherche donc un aplanisseur de champ.
      Après de nombreuses recherches, je suis arrivé à la liste suivante :
      - aplanisseur AP 2.7’’  éliminé car trop cher (>1100 € !!)
      - aplanisseur APM Riccardi Model 1 (3’’) ( 395 €)
      -aplanisseur 2.5’’ TS  (290 €)

      Des avis ? Y- aurait-il des utilisateurs de ces correcteurs ? Je ne trouve que très peu de retours d’expérience (surtout pour l’APM)...  
      Merci d’avance ! :)
    • By Haltea
      Salut a tous,
      J'ai mon nouveau setup depuis quelques semaines maintenant : lacerta 250/1000 et qhy ccd 174mm cool, correcteur de coma GPU.
      Je progresse , mes images s'améliorent mais je me pose quelques questions . J'ai toujours des étoiles un peu allongées et je n'arrive pas à définitivement régler le problème.
       
      1) la collimation : je la réalise au cheshire et vais prendre l'habitude de vérifier sur une etoile mais je lis ici et là que le réglage fin sur une etoile poserai problème à f/d 4 avec les gros newton, du fait de l'ofset et d'un cercle noir qui ne serai donc pas centré, même si le scope est bien collimaté.
      Vous êtes assez nombreux à utiliser avec succès des gros newton à f/d 4 voir moins , quelle méthode utilisez vous?
      2) j'ai essayé de régler le backfocus au poil près, 55mm. Sachant que la distance de la cam avec son adaptateur (livré avec la cam) est donné à 18 mm, j'ai mesuré le reste au pied à coulisse.
       
      Si voyez des pistes d'amélioration,  n'hésitez pas, voici deux images et une brute
      M13 avec des poses de 0.5 secondes et m109 avec des poses de 3 secondes
       
      Merci par avance 😉
       
       
       



    • By Marc684
      Bonjour,
      J'ai acquis récemment une 72ed avec son correcteur de champ dédié 0,85x
      J'ai fait quelques tests rapidement hier soir après la déception de l'annulation du lancement et j'ai utilisé le même montage que sur mon newton pour respecter le backfocus de 55 mm (j'ai juste remplacé le correcteur de coma par le correcteur 0,85x)
      Et on observe un problème sur les brutes et donc sur le stack de test final (20 images de 180" que je n'ai pas traitées plus que ça)
      On peut voir clairement que la partie est problématique avec des étoiles allongées , comme si le correcteur n'était pas centré et mes étoiles sur le bord gauche ne sont pas hyper bien non plus
      Voici d'abord une brute

      Et maintenant le stack vite fait

      Est ce un problème de collimation ? tilt ? backfocus ?
      Merci de votre aide
      Marc
    • By albinszten
      Bonjour,
       
      J ai une eq3-2 goto avec une lunette ts Ed 102/714.et un canon 1000d defilter partiellement.
       
      Je souhaiterais faire de l autoguidage afin de faire des poses plus longues. ( A ce jour je tien 60 a 90secondes).
       
      Que me conseillez vous comme.camera?
       
      J ai entendu dire que la zwo asi 120mini était bien et que son clone la caméra t7 était.moins cher et équivalente.
       
      Pouvez vous m aider dans mon choix
       
      Merci
  • Images