jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Messages recommandés

Il y a 3 heures, polo0258 a dit :

RGBBGR    ,je pense  la moyenne horaire se faisant sur les  bleus ! on assemble avec winjupos rr gg bb et ensuite rgb  !

 bonne journée !

 

En effet, c'est bien ça (j'étais fatigué hier)

En fait si on pense à la dérotation comme à une "cartographie" à plat (les deux sont liés de toute façon), avec une carte dont on composite les détails au fur et à mesure pour chaque plan de couleur, on aura une capture avec des détails "à l'est" qui se lèvent, et d'autres à l'ouest qui vont disparaître. Mais l'un dans l'autre, la date moyenne permettra d'avoir le maximum d'information aux 2 limbes.

 

Et bien évidemment, à mettre toutes les R d'un coté, à la fin on va manquer de R "à l'est" (et inversement on risque de manquer de B à l'ouest avec une date moyenne antérieure à la première B) lors de la reconstruction et avoir des franges colorées de part et d'autre. Ce qui est galère c'est de devoir refaire le focus très très souvent. Les filtres RGB d'astronomik ont assez rigoureusement la même épaisseur mais il peut subsister la petite fraction de tour pour corriger le chromatisme longitudinal de l'instrument.

 

Pour le coup, faire en une seule fois toutes les couches d'un coup avec une cam couleur c'est plus facile.

 

Marc

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello 😊

Moi qui pensais avoir tout compris suite à l'épisode de Christophe je m'aperçois que rien n'est aussi simple !! 

Après tout ce chinois de calcul, toutes ces speculations basées sur la théorie du calcul embrouillent les esprits ! 

Je m'aperçois surtout que tout ça est très subjectif, pire encore lorsqu'on essais de le quantifié, car en fait ce qui vas faire perdre ou pas de la résolution, ou definition et bien se sont les conditions de ciel et rien d'autres ! 

NB ou couleurs si le ciel est pourris il est pourris ! Et je préfère de loin m'interroger sur ces conditions, car c'est ça qui garanti sur le terrain les futurs images (vent/humidité/temperature etc...) que de calculer d'hypothetiques théories qui ne peuvent ce vérifier que par le calcul... 

 

Fred 😉

 

Modifié par fredo38
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour à tous,

Je vois que ma vidéo suscite des discussions passionnantes avec des intervenants de haut niveau. J'en suis honoré!

Je me permets juste quelques petites précisions sur ma démarche..

- Cette vidéo est la 3ème d'une grande série, qui vise à aider les gens à choisir une (ou 2!) caméras adaptées à leurs setups, et il y a autant de réponses que de personnes... pas facile donc, vous l'avez compris, de dégager une réponse figée dans le marbre. Inutile de vous dire qu’elle se positionne vis-à-vis de certaines vidéos

- nous sommes d’accord que le commun des mortel à qui ma chaîne s’adresse, c’est plutôt des gens qui vont utiliser un instrument industriel, du Newton 115/900 au Dobson 400 en passant par les Mak 180, ou Celestron C8… Je n’ai pas la prétention d’expliquer à un Jean-Luc Dauvergne comment utiliser son exceptionnel Mewlon 250 à L/20…

- Donc l’objectif, c’est de trouver ce bon ratio d’échantillonnage à utiliser, et dans la majorité des cas (livre de Thierry Legault / UtilCCD, etc.), la réflexion part donc des formules de pouvoir séparateur, de la formule de l’échantillonnage, et le rapport minimal « x2 » du théorème de Nyquist-Shanon. On tombe alors sur ma synthèse sous la forme : F/D = 3.438 x P. Cette formule est expliquée dans le 1er épisode de la série.

- mon expérience est d’avoir constaté qu’en utilisant cette formule avec ma QHY5LIIc (donc équivalente à la ASI 120 couleur), que ce soit avec mon Skywatcher 200/800 (les optiques de mon photoStrock), mon Meade Lightbridge 300 (base de mon Strock 300) et mon Meade Lightbridge 400 (base de mon slimStrock), je n’ai jamais réussi à avoir un truc propre sur les hautes fréquences de mes ondelettes. Bref, la composante « haute fréquence » n’était pas là. Et donc, comme je le dis dans la vidéo « il y a des fois où le signal n’est pas là ». Dans mon cas, c’était très clairement à cause de la diffusion des optiques. Donc on comprend bien qu’il est inutile de suréchantillonner avec de tels instruments.

- Cette formule donc, je la considère comme une base de travail, et non comme un absolu. Je n’ai donc aucun problème à ce que certains en viennent à sous-échantillonner légèrement comme je pouvais le faire avec mes télescopes industriels, et à voir Jean-Luc travailler à F/D=25 au lieu des 12.89 recommandés par sa IMX_224c, ou les 9.90 recommandés par sa IMX_290m.

- En revanche, en faisant repolir mon 400 par Franck Grière (vous connaissez la qualité de ses miroirs – et je précise que le secondaire de mon slimStrock a été directement acheté chez lui), alors là oui, j’obtiens du signal en HF, et il faut travailler à optimiser le rapport signal sur bruit de façon à pouvoir l’exploiter correctement. Optimiser l’échantillonnage, etc. Et vous le savez bien, quand suréchantillonne par 2, on divise par 4 la quantité de lumière par pixel, et donc, on perd en rapport signal sur bruit.

- J’ai comme l’impression que les utilisateurs de SC, RC, ou autres Mak du commerce obtiendront un signal dans les HF (toujours avec mes 3.438xP) bien plut tôt qu’avec les Newton.

Voici donc où j’en suis dans l’élaboration de ma réponse à la question initiale :

- Donc si je suis à 3.438xP avec un instrument de qualité suffisante pour offrir un signal HF dans la réalité du signal se trouvant sur le plan focal, comment en tirer le meilleur parti ?

1- utiliser une caméra monochrome nous affranchit des impacts de la matrice de Bayer (c’est le sujet de cet épisode).

2- suréchantillonner avec une caméra couleur (et/ou monochrome), est loin d’être absurde si la chaîne optique et le ciel le permettent, et à fera l’objet d’une des vidéos à venir de la série (et donc de l’opportunité d’utiliser une IMX 178 par exemple). Mais plusieurs utilisateurs me témoignent que çà ne passe pas systématiquement. On devra garder à l’esprit que si on suréchantillonne à mort, on va se retrouver avec un signal bien plus faible (au carré), et donc, un rapport signal sur bruit qui va en souffrir.

 

Alors bien sûr, on peut allonger les temps de poses. Mais dans ce cas, si on allonge le temps de pose par 3 (car la caméra couleur est 3x moins sensible que la caméra monochrome), et/ou par 4 (pour offrir la même résolution spatiale absolue dans le bleu ou le rouge que la caméra monochrome – nous sommes bien d’accord que j’ai expliqué que c’était inutile), ou simplement de 30%, alors on doit comparer le rapport signal sur bruit « à temps de ciel égal ».

Donc si j’ai des poses de 30ms avec une caméra couleur, pour avoir le même histo que des poses de 10ms avec ma caméra couleur, je dois comparer le rapport signal/bruit, et la présence d’un signal HF dans les 3x10ms de ma série monochrome.

Donc là encore, la caméra monochrome offre un gain qu’il ne faut pas oublier !

Ma vidéo a clairement pour objectif de ne pas opposer les 2 types de caméras, mais proposer des façons de les utiliser conjointement et efficacement.

Au plaisir de vous lire, car c’est toujours passionnant d’échanger dans un esprit constructif et respectueux.

Ps : petite remarque : comparer l’IMX174m avec l’IMX224c n’est pas une comparaison qui me semble juste : en effet, le bruit de lecture de la 174 est 4x supérieur !

 

Bien cordialement.

 

Christophe

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

En tout cas Christophe, ta vidéo à généré ce post intéressant, donc merci et Bienvenue sur AS!

L'autre CdlC ;-)

Modifié par Chris277
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, olivdeso a dit :

Il manque une chose ici : le filtre passe bas de restitution.

Je ne vois pas en quoi la représentation de l'échantillonnage en image que j'ai représenté par simulation ne serait pas représentatif d'une réalité.

Tout à chacun a pu observé la figure de diffraction d'une source ponctuelle ou d'une étoile dans un télescope digne de ce nom quand les conditions atmosphérique le permet.

Et chacun comprend que chaque pixel d'une caméra ne peut restituer qu'une intensité à la foi par image, et donc les pixels découpent la figure de diffraction de la source en marche d'escalier d'intensité différente.

C'est cela et seulement cela l'échantillonnage.  

Après le choix de l'échantillonnage dépend du K évoqué avec F/D = K*p / (1.22 onde).

 

Pour prouver mes dires et non du bla bla avec formules sortie d'un chapeau magique comme certain le laisse penser, voici une image d'une étoile double, compilation d'une vidéo faite avec un télescope loin d'être parfait et une simple caméra couleur QHY 5L-II c.

On observe bien que le diamètre du premier anneau sombre de la figure de diffraction (PSF) est proportionnel à la couleur, la longueur d'onde correspondant au filtre de Bayer pour chaque couleur.

5df78fd59d353_Etoiledouble.png.483c89f92493f1b8ed5fb9e140c84c41.png

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, CDLC a dit :

1- utiliser une caméra monochrome nous affranchit des impacts de la matrice de Bayer (c’est le sujet de cet épisode).

2- suréchantillonner avec une caméra couleur (et/ou monochrome), est loin d’être absurde si la chaîne optique et le ciel le permettent, et à fera l’objet d’une des vidéos à venir de la série (et donc de l’opportunité d’utiliser une IMX 178 par exemple). Mais plusieurs utilisateurs me témoignent que çà ne passe pas systématiquement. On devra garder à l’esprit que si on suréchantillonne à mort, on va se retrouver avec un signal bien plus faible (au carré), et donc, un rapport signal sur bruit qui va en souffrir.

 

La matrice de Bayer a un impact sur la résolution si et seulement si on s'approche d'un rapport signal sur bruit proche de la quantification du bit.

...ce qui arrive somme toute souvent sur les objets planétaires (luminosité intrinsèque) ou à faible diamètre d'instrument sur la Lune ou à forte turbulence (réduction du temps de pose).

 

=> Le facteur limitant étant d'obtenir assez de flux pour passer au-dessus du bruit lors de la capture.

 

En résumé quand il y a assez de flux pour dépasser le seuil des bruits d'acquisition : peu importe le capteur on peut atteindre la résolution.

 

La limitation sera la dynamique du capteur car si on doit monter le minima acquis, on va forcément gratter le sommet de la dynamique.

 

Il y a 2 heures, CDLC a dit :

Au plaisir de vous lire, car c’est toujours passionnant d’échanger dans un esprit constructif et respectueux.

Ps : petite remarque : comparer l’IMX174m avec l’IMX224c n’est pas une comparaison qui me semble juste : en effet, le bruit de lecture de la 174 est 4x supérieur !

 

Même remarque, à flux suffisant, montré par chonum en solaire pour l'IMX174, il ne s'agit PAS du bruit total par pixel qui compte mais du bruit en fonction du flux capturé.

Erreur commune sur les capteurs.

 

--------------------------------------------------------

 

Mon idée sur la différence couleur vs monochrome :

la différence de flux par pixel en fonction de ce qui est acquis par photosite.

 

En Vert : efficacité de la bande capturée proche du maxima à combiner au flux diminué, 2 photosites/4 pour faire un pixel => -3dB

En Rouge : efficacité de la bande capturée très utile en planétaire, moins en lunaire sauf pour améliorer la gêne de la turbulence, flux 1/photosite sur 4 => -6dB

En Bleu : efficacité de la bande capturée peu intéressante sauf quelques planètes, esthétique de la couleur autour du bleu-vert, utile en CP bien entendu, flux 1/photosite sur 4 => -6dB

 

L'interprétation de l'image se faisant en visuel il va de soi que la couleur apporte un plus, bien valorisé par les différentes palettes comme la palette Hubble mais je suis incapable de quantifier l'apport.

 

En conclusion : du flux toujours du flux. Ensuite on règle les curseurs pour pallier aux perturbations qui amène du bruit sur ce qu'on cherche.

... du bon principe dans les télécommunications.

Ensuite, il y a les facilités techniques pour accumuler les images d'une manière ou d'une autre, je ne maîtrise pas ces points et j'acquiesce à tous les apports qui ont été présentés ici.

Choix de caméra : prenez celle dont la taille de pixel est compatible avec votre f/D de travail et votre ratio de sur-échantillonnage.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, lyl a dit :

En résumé quand il y a assez de flux pour dépasser le seuil des bruits d'acquisition : peu importe le capteur on peut atteindre la résolution.

Peut être mais cette démonstration là  n'a pas été faite.  Sur quoi te bases tu ?

 

Il y a 2 heures, lyl a dit :

En Bleu : efficacité de la bande capturée peu intéressante sauf quelques planètes, esthétique de la couleur autour du bleu-vert, utile en CP bien entendu, flux 1/photosite sur 4 => -6dB

C'est utile sur toutes les planètes sauf peut être Mercure et la Lune. Encore que le bleu est potentiellement la couche la plus résolue. Et là on peut se demander si la matrice de bayer ne va pas plutôt plafonner en vert. 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, jldauvergne a dit :

Peut être mais cette démonstration là  n'a pas été faite.  Sur quoi te bases tu ?

La démonstration de la dépendance du rapport S/B qui est utilisée dans les télécommunications.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, CPI-Z a dit :

Je ne vois pas en quoi la représentation de l'échantillonnage en image que j'ai représenté par simulation ne serait pas représentatif d'une réalité.

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

 

Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

 

Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

Modifié par olivdeso
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Il le faut car sinon tu vas créer des oscillations dite de Gibbs et l'approximation numérique des écarts de contraste sera moins fiable qu'avec le filtre.

 

On sera toujours limité à l'approche de la limite de résolution spatiale par la fréquence d’échantillonnage la plus haute pour la restitution du delta de contraste.

et comme la proposition pour le sur-échantillonnage est de 3 à 4, ça va limiter les variations entre pixels (3-4 bits de codage)

La c'est à la restitution pour comprendre la pente quand on agrège des pixels (opération en dehors de la capture)

Synthesis_square.gif  sur-ech-3f.JPG.7d0c0b62765a9ed41a97f21b6b040f65.JPG

--------------------

S/B

Parfois le ratio signal sur bruit à la fréquence haute ne permettra pas de discriminer correctement un bit sur le photosite, l'information captée ne sera pas fiable et on ne pourra pas reconstituer le détail ou la pente vers un détail.

 

Modifié par lyl
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, lyl a dit :

La démonstration de la dépendance du rapport S/B qui est utilisée dans les télécommunications.

Ils ont des matrices de bayer aux Télécom ? (Desolé mais je n'arrive pas à suivre)

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, olivdeso a dit :

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

il y a une heure, lyl a dit :

Il le faut car sinon tu vas créer des oscillations dite de Gibbs

 

 

Désolé j'ai mes limites et je ne comprends pas.

Entre un télescope , une barlow, et une vidéo caméra vous parlez de quoi ? Ce serait quoi "le filtre passe bas en sortie, comme en entrée" ?

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 6 minutes, CPI-Z a dit :

Entre un télescope , une barlow, et une vidéo caméra vous parlez de quoi ? Ce serait quoi "le filtre passe bas en sortie, comme en entrée" ?

Il n'est pas dans cette chaîne, il s'agit de traitement numérique. Je laisse  @olivdeso reprendre ce point.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

 

Il y a 3 heures, olivdeso a dit :

Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

 

Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

 

C'est un dirac quoi ... ou encore une étoile (hors de notre système solaire), assez courant en astronomie non ?

En tout cas au travers de nos instruments, cela reste des sources ponctuelles sauf a grossir suffisamment pour faire apparaître l'artefact instrumental qu'est la figure d'airy.

 

Marc

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
1 hour ago, patry said:

C'est un dirac quoi ...

 

Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

 

5 hours ago, olivdeso said:

parce que si tu veux reproduire fidèlement le signal d'entrée, il te faut un filtre passe bas en sortie, comme en entré.

 

Là il y a un truc que je comprend mal.... Faut filtrer spatialement en sortie (avec un flou gaussien adapté par exemple) pour obtenir une image supprimant les artéfacts de numérisation sur une figue d'Airy ? J'ai du louper un truc.
 

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, lyl a dit :

Il n'est pas dans cette chaîne, il s'agit de traitement numérique. Je laisse  @olivdeso reprendre ce point.

Alors le fameux "filtre passe bas en sortie, comme en entré" nécessaire, n'est pas dans la chaîne d'acquisition d'image HR planétaire, (télescope , barlow et caméra) et le dilemme caméra couleur ou NB ainsi que la  problématique de l'échantillonnage optimal correspondant.

On serait dans le post-traitement numérique.

 

Si c'est le dirac que vous cherchiez, il y a la déconvolution de la PSF par la PSF en post traitement. Mais cette solution a aussi ses limites en pratique.

Pour moi la simulation de l'échantillonnage en image reste valable au niveau de l'acquisition, sauf si on m'explique le contraire.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 7 heures, brizhell a dit :

Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

 

Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso qui disait que cela n'existait pas dans la nature. Hors une étoile (non résolue) et à distance respectueuse de l'artefact de la figure d'airy, est assez représentative de la fonction de dirac : un fond à zéro (le ciel) et une étoile qui fournit toute son énergie sur un unique pixel du détecteur.

C'est d'ailleurs bien pratique pour identifier les défauts d'une optique ; photographier un champ d'étoiles permet de rapidement se rendre compte de la qualité du train optique (et on a souvent des surprises).

En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

 

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 8 heures, CPI-Z a dit :

Pour moi la simulation de l'échantillonnage en image reste valable au niveau de l'acquisition, sauf si on m'explique le contraire.

Tu as raison, je préfère qu'on reste côté chaîne optique, c'est le sujet, la numérisation dans la caméra n'en a pas besoin, le DAC n'utilise pas le filtre.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, STF8LZOS6 a dit :

Finalement, je suis bien échantillonnée à 0.185" d'arc par pixel avec une ASI 224 MC et 150mm de diamètre. La séparation entre les centres des deux étoiles est de 0.9" d'arc.

 

image.png

il y a 33 minutes, patry a dit :

En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

Oui on peut résumé en disant que la figure de diffraction d'un télescope, la PSF est un artefact, c'est la TF du dirac au travers de ouverture limitée du télescope.

Et pour STF8LZOS6 le bon échantillonnage, le = dans la figure, correspond bien à un étalement entre 4 et 5 pixels entre le centre et le premier anneau sombre. 4 < K < 5

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 45 minutes, CPI-Z a dit :

Et pour STF8LZOS6 le bon échantillonnage, le = dans la figure, correspond bien à un étalement entre 4 et 5 pixels entre le centre et le premier anneau sombre. 4 < K < 5

Effectivement, j'ai aussi pu faire du visuel sur ce couple aussi par excellent seing, et le premier anneau brillant de la principale semble se superposer et passer au centre de la secondaire, d'où un léger étirement du disque.

 

Modifié par STF8LZOS6

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour moi, la seule solution pour ne pas perdre en résolution sur une matrice couleur est d'aligner et d'empiler en utilisant la technique du bayer-drizzle qui ne nécessite aucune interpolation.

La perte de signal est très importante (matrice de bayer ainsi que le principe du drizzle) mais la résolution peut redevenir semblable à une version monochrome.

Toutes les autres techniques de dématriçage de base (AHD, VNG... ) font perdre de la résolution, entre 30% et 50% selon l'algo.

 

J'arrive avec un APN à avoir une résolution proche du pixel en utilisant un bayer-drizzle avec un paramètre qui optimise la résolution au détriment du rapport signal sur bruit. Bien entendu, je change les paramètres pour obtenir le meilleur compromis. Les logiciels spécialisés (Pixinsight, AstroPixel Processor... ) offrent maintenant plusieurs paramètres très optimisés pour le bayer-drizzle sous réserve du nombre d'images à empiler. Le dithering est aussi un point clé.

Un tuto complet était en préparation mais ça prend un peu de temps toutes ces conneries xD

 

Après, si on parle en signal, là, ce n'est pas la même chose, bien entendu. Mais je crois que la question de base ne portait que sur la résolution.

 

Modifié par Philippe Bernhard
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
2 hours ago, patry said:

Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso

 

C'était aussi mon but Marc, nous sommes entièrement d'accord, et sauf erreur de ma part, il n'y a pas besoin de filtrage numérique sur la représentation d'une réponse impulsionnelle dans les simulations de @CPI-Z

La numérisation introduit des artéfacts fréquentiels en fonction de l'échantillonnage spatial et de la profondeur de numérisation, d’où mon incompréhension dans la remarque d'olivedso.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, Philippe Bernhard a dit :

Pour moi, la seule solution pour ne pas perdre en résolution sur une matrice couleur est d'aligner et d'empiler en utilisant la technique du bayer-drizzle qui ne nécessite aucune interpolation.

La perte de signal est très importante (matrice de bayer ainsi que le principe du drizzle) mais la résolution peut redevenir semblable à une version monochrome.

Toutes les autres techniques de dématriçage de base (AHD, VNG... ) font perdre de la résolution, entre 30% et 50% selon l'algo.

 

J'arrive avec un APN à avoir une résolution proche du pixel en utilisant un bayer-drizzle avec un paramètre qui optimise la résolution au détriment du rapport signal sur bruit. Bien entendu, je change les paramètres pour obtenir le meilleur compromis. Les logiciels spécialisés (Pixinsight, AstroPixel Processor... ) offrent maintenant plusieurs paramètres très optimisés pour le bayer-drizzle sous réserve du nombre d'images à empiler. Le dithering est aussi un point clé.

Un tuto complet était en préparation mais ça prend un peu de temps toutes ces conneries xD

 

Après, si on parle en signal, là, ce n'est pas la même chose, bien entendu. Mais je crois que la question de base ne portait que sur la résolution.

Merci pour cette réponse, on revient au sujet. 
Avec le Bayer drizzle ce que tu dis c'est ce que j'imaginais intuitivement. Par contre je ne suis pas certain du tout que l'on ait cette option là en planétaire, et je ne savais pas qu'elle existe dans les logiciels pour le ciel profond. 

Tu parles de perte de signal, c'est surtout sur les couches B et R que c'est poussif je suppose ? Pour compenser il faut sans doute à partir de ce résultat là  RVB générer une L structurée à 50% par V, 25%B, et 25%R, ne faisant ainsi on doit avoir le meilleur des deux mondes, non ?. 

Et du coup à ton avis si on dématrice proprement les images brutes avant stacking avec une perte de résolution spatiale (de 30% mettons), on a toujours cette perte de résolution après avoir empilé 1000 images ? (c'est ce point là qui est le plus flou dans mon esprit).  

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, jldauvergne a dit :

Avec le Bayer drizzle ce que tu dis c'est ce que j'imaginais intuitivement. Par contre je ne suis pas certain du tout que l'on ait cette option là en planétaire, et je ne savais pas qu'elle existe dans les logiciels pour le ciel profond. 

Le bayer drizzle fonctionne principalement car on a une information commune entre les canaux B et G ainsi que G et R, c'est l'entropie conjointe due au recouvrement des filtres

Le fait également qu'un détail émette une large bande (difficile à qualifier) permet aussi de récupérer des détails en dehors des plages communes.

Autour de 496nm et 585nm, ce sont des longueurs d'ondes intéressantes.

=> amélioration de la résolution en utilisant chaque photosite au lieu du pixel entier.

ZWO-ASI-1600-Pro-CMOS-Telescope-Camera-C

Méthode inventée par Fruchter & Hook pour Hubble, elle est dans Deep Sky Stacker comme PixInsight.

https://ui.adsabs.harvard.edu/abs/2002PASP..114..144F/abstract

https://iopscience.iop.org/article/10.1086/338393/pdf

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par guy03
      Bonsoir
      Quelle est la marque SVP de cette bino en 31.75. Je viens d'observer avec sur ma lunette de 80/480 la full moon. Le pied .... car je n'ai pas besoin de barlow pour avoir la netteté comme avec la mienne, une TS grand champ. Du coup la lune est plus petite et c'est hyper agréable!!! Avec la TS, la lune est plus grosse et prend presque tout le champ des oculaires de 20mm par exemple. Avec cette petite bino je me suis vraiment éclaté en observant la lune. J'avais 2 oculaires de 20mm Masuyama. J'obtiens la netteté avec des oculaires de 20mm ou plus comme des 25. Avec des 15mm ce n'est pas possible mais pas grave.Merci et bon ciel surtout!


    • Par lkaiser
      Bonjour,
       
      Pour obtenir un grossissement particulier, j'ai besoin de fixer directement la tête de ma barlow TeleVuex2 sur le nosepiece livré avec ma camera ZWO.
      Problème : ce n'est pas le même filetage, mais un qui est très légèrement différent... super 
      Et en bout de cette tête j'ai déjà fixé des filtres 
       
      Je ne trouve pas d'info sur cette bonne blague, si quelqu'un a une astuce, je suis preneur
       
      Merci
       
      Lionel
    • Par Marko
      Bonjour à tous

      Je viens de faire acquisition d'un A7S defiltré - refiltré via Irphotomax. Je vais l'utiliser avec ma lulu 66/400 et son réducteur 0.8 (66/320).
      Après lecture de plusieurs sujets, je me suis complétement perdu dans mes choix.
      Je pensai prendre un objo Sony FE 28mm F2 pour tout ce qui est voie lactée, aurores boréales ... bref, du grand champ.
      Est ce que cet objectif est bon ? est ce qu'il correspond à ce que je veux faire ? Il y a t'il mieux ou aussi bien moins cher ?
       
      D'ici cet été, je pensai l'accompagner d'un Samyang 135mm.
      Est ce que ça va faire doublon avec la lunette ??
      Je prends toutes idées, critiques etc ...
      Je vous remercie d'avance pour votre aide et vos réponses.
      Cordialement
      Marc
    • Par Laurent fd3
      Bonjour,
      Avant de commander un 150mm plan, qui peut paraitre grand pour un 500mm f3.3 seulement, mais j'ai l'intention de faire un peu de photo avec mon A7s...
      Quelle taille fond vos secondaires ?
      Laurent.
    • Par xmeex
      Bonjour à tous.
       
      Depuis l'acquisition d'un C11 en juillet 2023, j'ai renoué avec l'astro et je me suis lancé dans l'astrophoto planétaire.
      Comme beaucoup d'autres, Saturne et Jupiter m'ont fait de l'oeil (à moins que ça soit l'inverse).
      J'ai vite compris que sans collimation impeccable, pas de haute définition envisageable. Et un Schmidt-Cassegrain, c'est très sympa pour le planétaire, mais qu'est-ce que c'est sensible à la collimation !
      Par défaut, le secondaire du C11 est muni de 3 vis phillips.
      Par facilité et par peur de toucher la lame avec un tournevis dans le noir, je les ai remplacé par des bob's knobs de chez Pierro Astro.
      Quelle facilité de manipulation ! Maintenant, je n'avais plus qu'à m'entraîner pour que cet exercice devienne naturel et rapide.
      Je n'utilise que la collimation à la caméra, ce qui permet de faire les réglages et voir en même temps le résultat.
      Avec mon ciel très "mouvant", j'ai du quand même apprendre à être patient car impossible de voir la tâche d'Airy pour finaliser. Donc stacking de la vidéo de l'étoile, réglage/stacking/réglage ...
       
      Bref, le tour de main, maintenant, je l'ai. En revanche, je constate que ma collim ne tient même pas durant une session d'observation, ce que je considère quand même comme le minimum syndical.
       
      Le soucis, j'en suis persuadé, vient des vis boutons. Probablement légèrement trop fine et, malgré un serrage correct (pas trop pour éviter le trefoil), je ressens que c'est près à bouger. De plus, le ressenti entre les doigts du dernier serrage n'est pas satisfaisant. Je confirme finalement par l'expérience ce que j'ai pu lire quelques fois sur les forums. 
       
      La mort dans l'âme, je décide de revenir à des vis plus classiques, mais cette fois avec clé allen. J'opte pour des vis BTR en titane M3 0.5 / 12mm selon les spec Celestron. 10€ la vis frais de port compris ça pique mais je me dis "qu'est-ce que je risque" ?
       
      Et bien franchement, si vous avez ce soucis, allez-y !
      Les vis sont parfaitement ajustées au filet => bon suivi du réglage la clé allen est plus facile à manipuler que le tournevis et offre une sensation de serrage plus précise lorsqu'on peaufine au 32ème de tour. La collimation tient. Du moins durant ma session. Vu le démontage systématique, je revérifie en début de session et refait un réglage minime si nécessaire.  
      Pour info, la réf de mes nouvelles vis (or anodisé) : 
      https://www.bst-moto.com/vis-titane-chc-m3-x-0-5mm-x-12mm-art_fr_757162.html

       
      Bonne journée et bon ciel à tous.
       
      Xavier
  • Évènements à venir