jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Messages recommandés

il y a 26 minutes, patry a dit :

commande split_rgb de mémoire

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

[a] étant l'image qu'avec les pixels rouges, [d] qu'avec les pixels bleus, [c] avec les pixels verts.

Cela implique des traitements indépendants des séries rouge et bleu. Pour le vert je pense qu'il est préférable d'utiliser la série verte extraite d'un dématriçage  car je ne vois pas comment reconstituer l'image verte à partir des 2 fichiers [c].

La reconstitution se fait avec > merge_cfa [c1] [c2] [c3] [c4] ou  > merge_cfa2 [a] [c] [d] [sortie] [nombre] pour une série.

Là au moins il n'y aurais pas d'approximation pour le rouge et bleu.

 

Dans ce cas on retrouve bien la conversion de l'échantillonnage entre la couleur et le NB comme je l'avais expliqué

Il y a 17 heures, CPI-Z a dit :

Pour une caméra couleur on peut dire que les pixels rouge ou bleu sont de 1 sur 4, soit 25% par rapport à une caméra NB. Pour une QHY 5L-II c entre le vert et le bleu il y a un rapport de longueur d'onde 460/550 = 0.83.  Si K = 5 pour le NB on obtient un équivalent de K = 5*0.83*25% = 1.04

Pour le rouge on passe à 610/550 = 1.11,   K devient 5*1.11*25% = 1.13

Pour le vert K devient 5*1*50% = 2.5

Ce type de calcul donne l'échantillonnage couleur réel par rapport à un échantillonnage NB du tableau K.

On peut trouver le bon échantillonnage pour qu'une caméra couleur corresponde à l'échantillonnage NB choisi, donc son équivalent en résolution.

 

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 18 minutes, patry a dit :

Cela devrait bien donner le même résultat que le bayer drizzle

Je ne pense pas vu que ce n'est pas le même algo. Enfin j'ai l'impression. Moi ce que j'imagine du fonctionnement du Bayer Drizzle c'est que tu prends l'info là où elle est quand tu l'as. La première photo de ton stack B par exemple, c'est une image à trou avec 1/4 des pixels renseignés, et la suivante si la planète s'est décalée de 1 pixel par exemple, tu as l'infos du pixel d’à côté. Au bout de 4 images stackées si on s'est déplacé à chaque fois d'un pixel pour couvrir le carré 2x2, on a l'info B complète sans bricolage à l'échelle 1 pixel par photosite. Là où c'est peu efficace en bruit c'est qu'il faut au moins 4 photos pour reconstruire une couche. Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp ! Au contraire, une débayerisation classique nous donne la couche B immédiatement mais peu résolue. 

En suivant ta logique, on partirait d'une image B par exemple interpolée, avec donc une information partiellement inventée (de façon intelligente, mais inventée). Intuitivement ça ne me semble pas saint de partir de là. Ce qui pourrait marcher peut être pour les B et R, c'est faire une réduction 2x2 sans aucune interpolation, juste en créant une image dans laquelle les pixels V et R on été supprimés. Faire du Drizzle classique là dessus ça fonctionne peut être (mais je ne suis pas certain vu que le barycentre du photosite bouge d'une image à l'autre, c'est donc potentiellement merdique). Le problème de cette stratégie c'est quand tu arrives à la couche verte, il n'y a pas vraiment de moyen de réduire l'image sans la bricoler, un binning 2x2 contraint à faire la moyenne des 2 pixels verts, est ce que l'on ne perd pas bêtement de l'information spatiale ?
Enfin tout ça pour dire que le Bayer Drizzle est à mon avis plus dans la logique de ce que je décris. Sa faiblesse c'est que les couche B et R sont forcément très bruitées par rapport à V. Mais une fois que l'on a cette info là il y a moyen d'optimiser l'image en synthétisant un L dans laquelle le poids de B et R est minoré par rapport à V.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 33 minutes, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y. 
Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

Après ce qui m'importait avec ce fil c'est d'avoir une réponse à la question, c'est juste de la curiosité intellectuelle. Ce que je retiens c'est qu'en débayerisation classique on a bien perte de résolution même après stacking. Pour contourner ça la seule solution serait que AS3 implémente une fonction de Bayer Drizzle, ce que l'on peut souffler à Emil (ceci dit si quelqu'un a une documentation de la fonction pour être certain de son fonctionnement ce serait intéressant). 
Après à titre perso, perdre en résolution avec ma caméra couleur franchement ça m'importe peu vu que je ne mise pas sur elle pour sortir les plus fins détails. Et quand bien même si on pouvait utiliser ces caméras couleur sans perte de résolution je continuerais à faire du N&B pour la cadence de prise de vue et les images spéciales (UV, CH4, IR, etc). 

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, jldauvergne a dit :

la seule solution serait que AS3 implémente une fonction de Bayer Drizzle

 

Tu as parfaitement raison là-dessus, je ne sais pas comment fonctionne le drizzle qu'il propose. De toute façon il faut lui poser la question, je n'en ai pas été satisfaite.

 

Je ne l'utilise pas car je n'ai pas exploré : je fais plutôt du lunaire avec un instrument de taille modérée et je passe par le principe du super-pixel à gros f/D comme dis plus haut (empilement par canal) ou du classique interpolation (comme dans DCraw)

 

Mais comme tu tires sur un objet moins éclairé, le signal sur bruit est à la limite, tu peux y gagner en baissant le sur-échantillonnage.

 

Après malheureusement, je ne sais pas comment procède Winjupos savoir si tu peux combiner.

 

Il y a une explication du comment procéder pour la dérive naturelle mais je suppose qu'il lui faudrait l'algorithme :

 

BayerBruine.JPG.fd8651c142cf87f30bb961093a945f44.JPG

 

-----------------------

une autre explication qui est sur ASTAP.

 

Citation

Bayer drizzle, no interpolation but large amount of images are required. The raw image is coloured depending on the Bayer pattern and used in stacking. When sufficient images are stacked and there is some natural drift each position will get red, green or blues values averaged. For good stack result at least 100 images are required and the sky background and transparancy should be stable.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu.

Pas du tout. Je crois que l'on sait mal compris.

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

 

Mais c'est bien sur : split_cfa et pas split_rgb, merci CPI-Z.

 

il y a une heure, jldauvergne a dit :

Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp !

 

Oui c'est pour cela qu'il faut beaucoup d'images en drizzle. D'une part pour remplir statistiquement les trous (et on ne maîtrise pas vraiment les déplacements en astro, cela se fait en photo directement depuis les capteurs montés sur des piezzos) et d'autre part car le but second sera d'améliorer le rapport S/B pour préparer au filtrage. Donc on est parti là pour accumuler des milliers (des dizaines de milliers ?) d'images. Cela ne se conçoit QUE pour de très très belles séances pour moi. Dans ces cas là, le drizzle permet de gratter un peu, mais sinon tu aura une super-résolution mais pas assez de S/B pour appliquer les ondelettes (ou tout autre filtre de contraste) sinon à ruiner le résultat.

 

il y a 59 minutes, jldauvergne a dit :

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y.

 

En fait c'est plus compliqué car si tu peux faire effectivement la séparation avant tout autre traitement, s'assurer que les décalages seront identiques (ils devraient) sur tous les flux est une gageure.

 

il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

 

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

 

Là encore, c'est beaucoup de boulot qui ne se conçoit que pour nos plus belles séances.

Dommage qu'on ne puisse pas facilement scripter tout ça car si on doit faire : la séparation CFA (IRIS), la dérotation de chaque flux (winjupos), les traitements (AS!3) la recombinaison ... même avec des grosses machines (i7 pour moi dans une tour, pas un portable), c'est beaucoup de temps !

 

Marc

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, patry a dit :

en espérant que les décalages seront identiques

Non, moi j'ai toujours traité chaque couleur séparément pour obtenir les meilleurs résultats finaux.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 4 minutes, patry a dit :

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

 

à vérifier, je ne retrouve pas ma lecture la dessus.

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 11 minutes, CPI-Z a dit :

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

Je comprends bien oui, mais la difficulté, c'est qu'il ne s'agit pas uniquement d'isoler les couches, il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique. Chose peut être possible dans Iris tellement c'est une boîte à outils, mais impossible dans AS3 qui est une boîte noire (sans connotation péjorative de ma part).

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, lyl a dit :

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs, le fichier d'alignement est issu d'une analyse des images dématricées à l'ancienne. En ciel profond c'est relativement simple c'est une série de x,y, en planétaire avec la turbu c'est plus poilu. 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, jldauvergne a dit :

il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique.

"images issues d'un dématrissage classique" : NON pas besoin.

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ? Tu peux même faire le traitement final par ondelettes sur chaque image NB correspondant à 1 couleur.

Comment tu alignes des images NB avec AS3, et bien c'est la même chose ...

 

Après tu alignes les 3 images résultats pour obtenir l'image finale couleur.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, jldauvergne a dit :

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs

Ok, le terme dématriçage est tellement teinté d'utilisation de l'interpolation que je suis passée à côté de ce qu'il a écrit. C'est la raison de mon retour historique sur le super-pixel qui est un terme modernisé pour LE PIXEL d'origine.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, CPI-Z a dit :

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ?

Je viens de regarder, je n'avais pas pigé qu'il réduit la taille des images avec la fonction split. Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique.  Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème. C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler. Mais ce que tu dis serait à tester dans tous les cas. 

 En tout cas comme dit @patry ça peut difficilement rentrer dans une production de flux. Sur une bonne nuit on a 50 Go, on arrive à bout de cette pile uniquement par l'automatisation (mais on revient parfois s'acharner sur quelques vidéos en particulier pour en sortir la quintessence). 

Partager ce message


Lien à poster
Partager sur d’autres sites

Au moins, avec un capteur Foveon, on ne se pose pas la question ;)

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, Jijil a dit :

Au moins, avec un capteur Foveon, on ne se pose pas la question

Si seulement il y avait la sensibilité et le bruit de lecture qui va avec :) 
La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290 :)
Avec le prix des capteurs qui diminue, le retour au tri capteur mériterait d'être considéré. On a eu d'abord du tri-ccd car les capteur étaient tellement mauvais que c'était un gros levier d'amélioration. 

La solution reste quand même difficile en terme de tirage, on a déjà du mal à intégrer proprement les ADC et les roues à filtres, ... En partant de f/12 en ce qui me concerne j'ai cherché les caméras qui ont le moins de tirage. Altair pour l'imx224 et ZWO mini pour le 290.
Et puis en vrai perso je n'ai pas de problématique, la stratégie de séquence de prise de vue IMX224 puis IMX290  puis de nouveau IMX 224 fonctionne très bien et permet de profiter du meilleur des 2 mondes entre capteur couleur et monochrome. Vive Winjupos, quel bonheur ce soft !

  • J'adore 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, jldauvergne a dit :

Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

Rappel : La fonction split_CFA sépare une image RAW en 4 fichiers RVVB.

Si au départ ton RAW fait 100x100 pixels chaque image mono ne fait donc que 50x50 pixels en respectant la géométrie de chaque couleur au pixel près.

Il créé la brut de chaque couleur correspondant à ce que le capteur à capturé.

 

il y a 35 minutes, jldauvergne a dit :

 Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème.

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

 

il y a 35 minutes, jldauvergne a dit :

C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).

Avec split_CFA là on est en un vrai x1. Seul l'échantillonnage change comme je te l'ai expliqué par rapport à un capteur MONO pour un même F/D.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, CPI-Z a dit :

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

Dans la zone 4x4 pixels avec un seul pixel sensible à notre filtre, le signal est différent selon le coin du carré où on se trouve, en ça c'est très différent d'un binning 2x2. Si tu prends un exemple extrême avec un système sous échantillonné visant des étoiles par exemple. Une étoile donné sera visible sur certaines trames et pas sur d'autres. Tu auras aussi tout un cas de cas intermédiaires avec l'étoiles à cheval du pixel sensible avec le signal partagé avec le pixel d'à côté, ... où il n'y a pas de récepteur. 
Photométriquement c'est la cata, et même astrométriquement calculer le baycentre à partir de ça, ça me semble hasardeux. Donc faire du drizzle à partir de cette info de mauvaise qualité, est ce que ça peut vraiment donner quelque chose de bon ? Intuitivement j'ai l'impression que faire ça, c'est assez analogue à faire du drizzle à partir d'un dématrissage classique.
Le drizzle fonctionne fonctionne parce que lorsqu'une étoile est à cheval sur 2 pixels tu le détectes, tu as bien une réponse des deux pixels, et c'est bien ce qui permet de déduire ce qui se passe à l'échelle sub-pixel. 

 

il y a 17 minutes, CPI-Z a dit :

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).


Tu m'as peut être mal compris, je ne parle pas de débayerisé  dans ce cas. Je parle d'une couche bleue basée sur l'image CFA sur laquelle on passe à 0 rouge et vert. 

La planète se déplace, donc l'information réelle de ce qui se passe dans tes trous tu finis par l'avoir vraiment, tu bouches les trous avec la vraie information au fur et à mesure. Sur le papier c'est simple et c'est propre, on génère bien une image à l'échelle x1 avec la vraie information de cette échelle. Dans la pratique sur des images de ciel profond j'ai l'impression que c'est ce que fait PixInsight, mais en planétaire c'est plus compliqué à appliquer à cause de la turbu (et concrètement du manque de logiciel approprié).

Partager ce message


Lien à poster
Partager sur d’autres sites

En résumé tu me redis ce que j'ai montré entre une étoile centrée sur un pixel et sur cette étoile à cheval sur 2 ou 4 pixels consécutifs dans le tableau d'échantillonnage K.

Je le redis seul l'échantillonnage change entre une caméra couleur et une caméra mono (4 fois mois de pixels pour le R et B).

Avec un échantillonnage suffisant de la PSF (équivalent à celui du mono) , le résultat est fidèle et est le même en barycentre, en photométrie ...

( Contre exemple à ton raisonnement : Sur un capteur réel il y a toujours un espace noir entre chaque pixels. Un mesureur de front d'onde à micro lentilles ou un Shack Hartmann sont constitués de trous séparés  dans un plan et cela n'empêche en rien de reconstituer le front-d'onde). L'ensemble par exemple des pixels rouges "séparés"  reste fidèle à l'image dans le plan focale si l'échantillonnage est suffisant.

C'est le problème depuis le début du post, quel doit être l'échantillonnage pour que la série d'images restitue la résolution du télescope si les conditions atmosphérique le permet.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Je vais faire un peu neuneu mais il est vrai qu'à partir de la question simple du titre du sujet : ça a été largement couvert.

Mais la question va plus loin, je reformule pour essayer de comprendre si on est exhaustif à ton besoin.

J'utilise mes mots mais ce n'est pas obligatoire.

 

Citation

Est ce que l'on perd en résolution avec une matrice de bayer ?

oui

Le 14/12/2019 à 15:43, jldauvergne a dit :

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot.

c'est approximatif mais assez réaliste quand on est à la limite des paramètres d'acquisitions : on tire ces derniers jusqu'à réduire le signal/bruit jusqu'au minima de quantification

 

Image one shot :

les paramètres divers du "one shot" en cam couleur : temps de pose, ratio f/D (corrélée avec luminosité et résolution), gain, taille de photosite, type de matrice (RGGB pour la plupart)...

En bref, on arrive à un jeu de paramètres fondamentaux, je pense 3 : 

quantité de signal (entropie d'information : intensité et symbôle)

résolution

bruits (électronique et optique : turbulence, qualité instrumentale) 


L'empilement :

La position effective du signal déplacé par l'effet de turbulence peut être recalé sur l'image par le procédé du drizzle, principe de reconstruction de sous-pixels manquants ou virtuels

C'est l'exploitation statistique par calcul de la position moyenne de chaque élément d'information qu'on a pu corréler avec son voisin de la pile (de l'image précédente ou suivante) 

C'est issu d'un paramètre qui est orthogonal (partiellement indépendant) des autres paramètres, il est amené par la quantité d'image.

 

Apparté : c'est efficace, on utilise ce même type de corrélation sur les codecs vidéo pour approximer la reconstruction d'une image (HEVC fait de la prédiction de mouvement, jusqu'au sous-pixel)

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

 

Pour l'amélioration de la résolution d'une pile de photo astronomique, ce procédé doit apporter une amélioration. Le chiffrer reste compliqué, c'est l'exploitation d'un phénomène statistique dont on a pas encore décrit les meilleurs comportements. (PEC de la monture, image glissante, adaptation à la turbulence ?)

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 5 minutes, lyl a dit :

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

Oui je suis d'accord sur l'ensemble de ta présentation.

Mais parce qu'il y a un mais, en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

En astro image HR planétaire on veut atteindre les limites de l'optique, acquérir la PSF qui n'est que la transposée de l'ouverture du télescope. Et dans ce cas seul l'échantillonnage suffisant permet l'acquisition de l'information.

Après des outils d'interpolation entre pixels peuvent aider. Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, CPI-Z a dit :

en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

Oui

Il y a 4 heures, CPI-Z a dit :

Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Oui, l'idéal est de tenter au mieux de la précision mais être sûr d'être au bon niveau de signal/bruit c'est pas simple : le temps tourne et le choix est à faire pour une longue durée d'acquisition avec des variables qui peuvent changer en cours de route comme la turbulence.

L'idée est de disposer de l'outil qui permet de pousser plus loin, si nécessaire. Une fois l'acquisition faite, on peut être un peu à côté de la résolution optimale.

C'est sans prétention mais pour les perfectionnistes, ça peut faire pencher la balance dans le cas de conditions qui échappent à notre contrôle.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 17 heures, CPI-Z a dit :

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

 

En fait, quand tu fait un split_CFA tu retrouve une image 4x plus petite, donc si tu la traite classiquement, autant faire du super-pixel (la matrice de bayer en un pixel), tu aura le même résultat.

Traiter en drizzle (avec le bon facteur x2) dans ce cas permet de retrouver la résolution native des photosites ... comme avec une matrice mono tel que souhaité par JLD.

 

Marc

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Et attention, tu récupère également 2 "images" vertes qu'il faut traiter séparément (spatialement c'est important).

 

Toujours marc

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 18/12/2019 à 14:10, jldauvergne a dit :

La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290

Mon projet là dessus avance et a pas mal évolué, je vais présenter un design "abouti" sur le forum dans quelques temps ;)

Dans les caméras à faible tirage, tu as aussi les qhy5III290M qui sont du niveau de la 290 mini. Tu peux même dévisser le pas de vis en monture cs pour faire apparaitre le capteur "à nu"...

Après la largeur du "boitier caméra" limite de toutes façons le rapprochement maximal possible entre les capteurs. 

Modifié par Roch
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Un essai de 2 modes différents de bayer-drizzle (images zoomées à 400%)

Les images viennent d'un A7s et sampang 135mm à f/2

Le plus "doux" est le mode bayer-drizzleavec réglages de base que l'on trouve assez souvent.

L'autre est optimisé en résolution mais avec une perte en S/B

Bien entendu, l'empilement normal en VNG est pire en résolution... 

 

bayerdrizzle2.gif.f73a7dc0cc9cd76c98f299bfea2add54.gif

  • J'aime 3
  • Triste 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par guy03
      Bonsoir
      Quelle est la marque SVP de cette bino en 31.75. Je viens d'observer avec sur ma lunette de 80/480 la full moon. Le pied .... car je n'ai pas besoin de barlow pour avoir la netteté comme avec la mienne, une TS grand champ. Du coup la lune est plus petite et c'est hyper agréable!!! Avec la TS, la lune est plus grosse et prend presque tout le champ des oculaires de 20mm par exemple. Avec cette petite bino je me suis vraiment éclaté en observant la lune. J'avais 2 oculaires de 20mm Masuyama. J'obtiens la netteté avec des oculaires de 20mm ou plus comme des 25. Avec des 15mm ce n'est pas possible mais pas grave.Merci et bon ciel surtout!


    • Par lkaiser
      Bonjour,
       
      Pour obtenir un grossissement particulier, j'ai besoin de fixer directement la tête de ma barlow TeleVuex2 sur le nosepiece livré avec ma camera ZWO.
      Problème : ce n'est pas le même filetage, mais un qui est très légèrement différent... super 
      Et en bout de cette tête j'ai déjà fixé des filtres 
       
      Je ne trouve pas d'info sur cette bonne blague, si quelqu'un a une astuce, je suis preneur
       
      Merci
       
      Lionel
    • Par Marko
      Bonjour à tous

      Je viens de faire acquisition d'un A7S defiltré - refiltré via Irphotomax. Je vais l'utiliser avec ma lulu 66/400 et son réducteur 0.8 (66/320).
      Après lecture de plusieurs sujets, je me suis complétement perdu dans mes choix.
      Je pensai prendre un objo Sony FE 28mm F2 pour tout ce qui est voie lactée, aurores boréales ... bref, du grand champ.
      Est ce que cet objectif est bon ? est ce qu'il correspond à ce que je veux faire ? Il y a t'il mieux ou aussi bien moins cher ?
       
      D'ici cet été, je pensai l'accompagner d'un Samyang 135mm.
      Est ce que ça va faire doublon avec la lunette ??
      Je prends toutes idées, critiques etc ...
      Je vous remercie d'avance pour votre aide et vos réponses.
      Cordialement
      Marc
    • Par Laurent23
      Bonjour,
      Avant de commander un 150mm plan, qui peut paraitre grand pour un 500mm f3.3 seulement, mais j'ai l'intention de faire un peu de photo avec mon A7s...
      Quelle taille fond vos secondaires ?
      Laurent.
    • Par xmeex
      Bonjour à tous.
       
      Depuis l'acquisition d'un C11 en juillet 2023, j'ai renoué avec l'astro et je me suis lancé dans l'astrophoto planétaire.
      Comme beaucoup d'autres, Saturne et Jupiter m'ont fait de l'oeil (à moins que ça soit l'inverse).
      J'ai vite compris que sans collimation impeccable, pas de haute définition envisageable. Et un Schmidt-Cassegrain, c'est très sympa pour le planétaire, mais qu'est-ce que c'est sensible à la collimation !
      Par défaut, le secondaire du C11 est muni de 3 vis phillips.
      Par facilité et par peur de toucher la lame avec un tournevis dans le noir, je les ai remplacé par des bob's knobs de chez Pierro Astro.
      Quelle facilité de manipulation ! Maintenant, je n'avais plus qu'à m'entraîner pour que cet exercice devienne naturel et rapide.
      Je n'utilise que la collimation à la caméra, ce qui permet de faire les réglages et voir en même temps le résultat.
      Avec mon ciel très "mouvant", j'ai du quand même apprendre à être patient car impossible de voir la tâche d'Airy pour finaliser. Donc stacking de la vidéo de l'étoile, réglage/stacking/réglage ...
       
      Bref, le tour de main, maintenant, je l'ai. En revanche, je constate que ma collim ne tient même pas durant une session d'observation, ce que je considère quand même comme le minimum syndical.
       
      Le soucis, j'en suis persuadé, vient des vis boutons. Probablement légèrement trop fine et, malgré un serrage correct (pas trop pour éviter le trefoil), je ressens que c'est près à bouger. De plus, le ressenti entre les doigts du dernier serrage n'est pas satisfaisant. Je confirme finalement par l'expérience ce que j'ai pu lire quelques fois sur les forums. 
       
      La mort dans l'âme, je décide de revenir à des vis plus classiques, mais cette fois avec clé allen. J'opte pour des vis BTR en titane M3 0.5 / 12mm selon les spec Celestron. 10€ la vis frais de port compris ça pique mais je me dis "qu'est-ce que je risque" ?
       
      Et bien franchement, si vous avez ce soucis, allez-y !
      Les vis sont parfaitement ajustées au filet => bon suivi du réglage la clé allen est plus facile à manipuler que le tournevis et offre une sensation de serrage plus précise lorsqu'on peaufine au 32ème de tour. La collimation tient. Du moins durant ma session. Vu le démontage systématique, je revérifie en début de session et refait un réglage minime si nécessaire.  
      Pour info, la réf de mes nouvelles vis (or anodisé) : 
      https://www.bst-moto.com/vis-titane-chc-m3-x-0-5mm-x-12mm-art_fr_757162.html

       
      Bonne journée et bon ciel à tous.
       
      Xavier
  • Évènements à venir