jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Messages recommandés

il y a 26 minutes, patry a dit :

commande split_rgb de mémoire

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

[a] étant l'image qu'avec les pixels rouges, [d] qu'avec les pixels bleus, [c] avec les pixels verts.

Cela implique des traitements indépendants des séries rouge et bleu. Pour le vert je pense qu'il est préférable d'utiliser la série verte extraite d'un dématriçage  car je ne vois pas comment reconstituer l'image verte à partir des 2 fichiers [c].

La reconstitution se fait avec > merge_cfa [c1] [c2] [c3] [c4] ou  > merge_cfa2 [a] [c] [d] [sortie] [nombre] pour une série.

Là au moins il n'y aurais pas d'approximation pour le rouge et bleu.

 

Dans ce cas on retrouve bien la conversion de l'échantillonnage entre la couleur et le NB comme je l'avais expliqué

Il y a 17 heures, CPI-Z a dit :

Pour une caméra couleur on peut dire que les pixels rouge ou bleu sont de 1 sur 4, soit 25% par rapport à une caméra NB. Pour une QHY 5L-II c entre le vert et le bleu il y a un rapport de longueur d'onde 460/550 = 0.83.  Si K = 5 pour le NB on obtient un équivalent de K = 5*0.83*25% = 1.04

Pour le rouge on passe à 610/550 = 1.11,   K devient 5*1.11*25% = 1.13

Pour le vert K devient 5*1*50% = 2.5

Ce type de calcul donne l'échantillonnage couleur réel par rapport à un échantillonnage NB du tableau K.

On peut trouver le bon échantillonnage pour qu'une caméra couleur corresponde à l'échantillonnage NB choisi, donc son équivalent en résolution.

 

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 18 minutes, patry a dit :

Cela devrait bien donner le même résultat que le bayer drizzle

Je ne pense pas vu que ce n'est pas le même algo. Enfin j'ai l'impression. Moi ce que j'imagine du fonctionnement du Bayer Drizzle c'est que tu prends l'info là où elle est quand tu l'as. La première photo de ton stack B par exemple, c'est une image à trou avec 1/4 des pixels renseignés, et la suivante si la planète s'est décalée de 1 pixel par exemple, tu as l'infos du pixel d’à côté. Au bout de 4 images stackées si on s'est déplacé à chaque fois d'un pixel pour couvrir le carré 2x2, on a l'info B complète sans bricolage à l'échelle 1 pixel par photosite. Là où c'est peu efficace en bruit c'est qu'il faut au moins 4 photos pour reconstruire une couche. Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp ! Au contraire, une débayerisation classique nous donne la couche B immédiatement mais peu résolue. 

En suivant ta logique, on partirait d'une image B par exemple interpolée, avec donc une information partiellement inventée (de façon intelligente, mais inventée). Intuitivement ça ne me semble pas saint de partir de là. Ce qui pourrait marcher peut être pour les B et R, c'est faire une réduction 2x2 sans aucune interpolation, juste en créant une image dans laquelle les pixels V et R on été supprimés. Faire du Drizzle classique là dessus ça fonctionne peut être (mais je ne suis pas certain vu que le barycentre du photosite bouge d'une image à l'autre, c'est donc potentiellement merdique). Le problème de cette stratégie c'est quand tu arrives à la couche verte, il n'y a pas vraiment de moyen de réduire l'image sans la bricoler, un binning 2x2 contraint à faire la moyenne des 2 pixels verts, est ce que l'on ne perd pas bêtement de l'information spatiale ?
Enfin tout ça pour dire que le Bayer Drizzle est à mon avis plus dans la logique de ce que je décris. Sa faiblesse c'est que les couche B et R sont forcément très bruitées par rapport à V. Mais une fois que l'on a cette info là il y a moyen d'optimiser l'image en synthétisant un L dans laquelle le poids de B et R est minoré par rapport à V.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 33 minutes, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y. 
Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

Après ce qui m'importait avec ce fil c'est d'avoir une réponse à la question, c'est juste de la curiosité intellectuelle. Ce que je retiens c'est qu'en débayerisation classique on a bien perte de résolution même après stacking. Pour contourner ça la seule solution serait que AS3 implémente une fonction de Bayer Drizzle, ce que l'on peut souffler à Emil (ceci dit si quelqu'un a une documentation de la fonction pour être certain de son fonctionnement ce serait intéressant). 
Après à titre perso, perdre en résolution avec ma caméra couleur franchement ça m'importe peu vu que je ne mise pas sur elle pour sortir les plus fins détails. Et quand bien même si on pouvait utiliser ces caméras couleur sans perte de résolution je continuerais à faire du N&B pour la cadence de prise de vue et les images spéciales (UV, CH4, IR, etc). 

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, jldauvergne a dit :

la seule solution serait que AS3 implémente une fonction de Bayer Drizzle

 

Tu as parfaitement raison là-dessus, je ne sais pas comment fonctionne le drizzle qu'il propose. De toute façon il faut lui poser la question, je n'en ai pas été satisfaite.

 

Je ne l'utilise pas car je n'ai pas exploré : je fais plutôt du lunaire avec un instrument de taille modérée et je passe par le principe du super-pixel à gros f/D comme dis plus haut (empilement par canal) ou du classique interpolation (comme dans DCraw)

 

Mais comme tu tires sur un objet moins éclairé, le signal sur bruit est à la limite, tu peux y gagner en baissant le sur-échantillonnage.

 

Après malheureusement, je ne sais pas comment procède Winjupos savoir si tu peux combiner.

 

Il y a une explication du comment procéder pour la dérive naturelle mais je suppose qu'il lui faudrait l'algorithme :

 

BayerBruine.JPG.fd8651c142cf87f30bb961093a945f44.JPG

 

-----------------------

une autre explication qui est sur ASTAP.

 

Citation

Bayer drizzle, no interpolation but large amount of images are required. The raw image is coloured depending on the Bayer pattern and used in stacking. When sufficient images are stacked and there is some natural drift each position will get red, green or blues values averaged. For good stack result at least 100 images are required and the sky background and transparancy should be stable.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu.

Pas du tout. Je crois que l'on sait mal compris.

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

 

Mais c'est bien sur : split_cfa et pas split_rgb, merci CPI-Z.

 

il y a une heure, jldauvergne a dit :

Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp !

 

Oui c'est pour cela qu'il faut beaucoup d'images en drizzle. D'une part pour remplir statistiquement les trous (et on ne maîtrise pas vraiment les déplacements en astro, cela se fait en photo directement depuis les capteurs montés sur des piezzos) et d'autre part car le but second sera d'améliorer le rapport S/B pour préparer au filtrage. Donc on est parti là pour accumuler des milliers (des dizaines de milliers ?) d'images. Cela ne se conçoit QUE pour de très très belles séances pour moi. Dans ces cas là, le drizzle permet de gratter un peu, mais sinon tu aura une super-résolution mais pas assez de S/B pour appliquer les ondelettes (ou tout autre filtre de contraste) sinon à ruiner le résultat.

 

il y a 59 minutes, jldauvergne a dit :

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y.

 

En fait c'est plus compliqué car si tu peux faire effectivement la séparation avant tout autre traitement, s'assurer que les décalages seront identiques (ils devraient) sur tous les flux est une gageure.

 

il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

 

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

 

Là encore, c'est beaucoup de boulot qui ne se conçoit que pour nos plus belles séances.

Dommage qu'on ne puisse pas facilement scripter tout ça car si on doit faire : la séparation CFA (IRIS), la dérotation de chaque flux (winjupos), les traitements (AS!3) la recombinaison ... même avec des grosses machines (i7 pour moi dans une tour, pas un portable), c'est beaucoup de temps !

 

Marc

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, patry a dit :

en espérant que les décalages seront identiques

Non, moi j'ai toujours traité chaque couleur séparément pour obtenir les meilleurs résultats finaux.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 4 minutes, patry a dit :

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

 

à vérifier, je ne retrouve pas ma lecture la dessus.

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 11 minutes, CPI-Z a dit :

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

Je comprends bien oui, mais la difficulté, c'est qu'il ne s'agit pas uniquement d'isoler les couches, il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique. Chose peut être possible dans Iris tellement c'est une boîte à outils, mais impossible dans AS3 qui est une boîte noire (sans connotation péjorative de ma part).

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, lyl a dit :

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs, le fichier d'alignement est issu d'une analyse des images dématricées à l'ancienne. En ciel profond c'est relativement simple c'est une série de x,y, en planétaire avec la turbu c'est plus poilu. 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, jldauvergne a dit :

il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique.

"images issues d'un dématrissage classique" : NON pas besoin.

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ? Tu peux même faire le traitement final par ondelettes sur chaque image NB correspondant à 1 couleur.

Comment tu alignes des images NB avec AS3, et bien c'est la même chose ...

 

Après tu alignes les 3 images résultats pour obtenir l'image finale couleur.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, jldauvergne a dit :

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs

Ok, le terme dématriçage est tellement teinté d'utilisation de l'interpolation que je suis passée à côté de ce qu'il a écrit. C'est la raison de mon retour historique sur le super-pixel qui est un terme modernisé pour LE PIXEL d'origine.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, CPI-Z a dit :

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ?

Je viens de regarder, je n'avais pas pigé qu'il réduit la taille des images avec la fonction split. Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique.  Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème. C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler. Mais ce que tu dis serait à tester dans tous les cas. 

 En tout cas comme dit @patry ça peut difficilement rentrer dans une production de flux. Sur une bonne nuit on a 50 Go, on arrive à bout de cette pile uniquement par l'automatisation (mais on revient parfois s'acharner sur quelques vidéos en particulier pour en sortir la quintessence). 

Partager ce message


Lien à poster
Partager sur d’autres sites

Au moins, avec un capteur Foveon, on ne se pose pas la question ;)

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, Jijil a dit :

Au moins, avec un capteur Foveon, on ne se pose pas la question

Si seulement il y avait la sensibilité et le bruit de lecture qui va avec :) 
La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290 :)
Avec le prix des capteurs qui diminue, le retour au tri capteur mériterait d'être considéré. On a eu d'abord du tri-ccd car les capteur étaient tellement mauvais que c'était un gros levier d'amélioration. 

La solution reste quand même difficile en terme de tirage, on a déjà du mal à intégrer proprement les ADC et les roues à filtres, ... En partant de f/12 en ce qui me concerne j'ai cherché les caméras qui ont le moins de tirage. Altair pour l'imx224 et ZWO mini pour le 290.
Et puis en vrai perso je n'ai pas de problématique, la stratégie de séquence de prise de vue IMX224 puis IMX290  puis de nouveau IMX 224 fonctionne très bien et permet de profiter du meilleur des 2 mondes entre capteur couleur et monochrome. Vive Winjupos, quel bonheur ce soft !

  • J'adore 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, jldauvergne a dit :

Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

Rappel : La fonction split_CFA sépare une image RAW en 4 fichiers RVVB.

Si au départ ton RAW fait 100x100 pixels chaque image mono ne fait donc que 50x50 pixels en respectant la géométrie de chaque couleur au pixel près.

Il créé la brut de chaque couleur correspondant à ce que le capteur à capturé.

 

il y a 35 minutes, jldauvergne a dit :

 Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème.

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

 

il y a 35 minutes, jldauvergne a dit :

C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).

Avec split_CFA là on est en un vrai x1. Seul l'échantillonnage change comme je te l'ai expliqué par rapport à un capteur MONO pour un même F/D.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, CPI-Z a dit :

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

Dans la zone 4x4 pixels avec un seul pixel sensible à notre filtre, le signal est différent selon le coin du carré où on se trouve, en ça c'est très différent d'un binning 2x2. Si tu prends un exemple extrême avec un système sous échantillonné visant des étoiles par exemple. Une étoile donné sera visible sur certaines trames et pas sur d'autres. Tu auras aussi tout un cas de cas intermédiaires avec l'étoiles à cheval du pixel sensible avec le signal partagé avec le pixel d'à côté, ... où il n'y a pas de récepteur. 
Photométriquement c'est la cata, et même astrométriquement calculer le baycentre à partir de ça, ça me semble hasardeux. Donc faire du drizzle à partir de cette info de mauvaise qualité, est ce que ça peut vraiment donner quelque chose de bon ? Intuitivement j'ai l'impression que faire ça, c'est assez analogue à faire du drizzle à partir d'un dématrissage classique.
Le drizzle fonctionne fonctionne parce que lorsqu'une étoile est à cheval sur 2 pixels tu le détectes, tu as bien une réponse des deux pixels, et c'est bien ce qui permet de déduire ce qui se passe à l'échelle sub-pixel. 

 

il y a 17 minutes, CPI-Z a dit :

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).


Tu m'as peut être mal compris, je ne parle pas de débayerisé  dans ce cas. Je parle d'une couche bleue basée sur l'image CFA sur laquelle on passe à 0 rouge et vert. 

La planète se déplace, donc l'information réelle de ce qui se passe dans tes trous tu finis par l'avoir vraiment, tu bouches les trous avec la vraie information au fur et à mesure. Sur le papier c'est simple et c'est propre, on génère bien une image à l'échelle x1 avec la vraie information de cette échelle. Dans la pratique sur des images de ciel profond j'ai l'impression que c'est ce que fait PixInsight, mais en planétaire c'est plus compliqué à appliquer à cause de la turbu (et concrètement du manque de logiciel approprié).

Partager ce message


Lien à poster
Partager sur d’autres sites

En résumé tu me redis ce que j'ai montré entre une étoile centrée sur un pixel et sur cette étoile à cheval sur 2 ou 4 pixels consécutifs dans le tableau d'échantillonnage K.

Je le redis seul l'échantillonnage change entre une caméra couleur et une caméra mono (4 fois mois de pixels pour le R et B).

Avec un échantillonnage suffisant de la PSF (équivalent à celui du mono) , le résultat est fidèle et est le même en barycentre, en photométrie ...

( Contre exemple à ton raisonnement : Sur un capteur réel il y a toujours un espace noir entre chaque pixels. Un mesureur de front d'onde à micro lentilles ou un Shack Hartmann sont constitués de trous séparés  dans un plan et cela n'empêche en rien de reconstituer le front-d'onde). L'ensemble par exemple des pixels rouges "séparés"  reste fidèle à l'image dans le plan focale si l'échantillonnage est suffisant.

C'est le problème depuis le début du post, quel doit être l'échantillonnage pour que la série d'images restitue la résolution du télescope si les conditions atmosphérique le permet.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Je vais faire un peu neuneu mais il est vrai qu'à partir de la question simple du titre du sujet : ça a été largement couvert.

Mais la question va plus loin, je reformule pour essayer de comprendre si on est exhaustif à ton besoin.

J'utilise mes mots mais ce n'est pas obligatoire.

 

Citation

Est ce que l'on perd en résolution avec une matrice de bayer ?

oui

Le 14/12/2019 à 15:43, jldauvergne a dit :

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot.

c'est approximatif mais assez réaliste quand on est à la limite des paramètres d'acquisitions : on tire ces derniers jusqu'à réduire le signal/bruit jusqu'au minima de quantification

 

Image one shot :

les paramètres divers du "one shot" en cam couleur : temps de pose, ratio f/D (corrélée avec luminosité et résolution), gain, taille de photosite, type de matrice (RGGB pour la plupart)...

En bref, on arrive à un jeu de paramètres fondamentaux, je pense 3 : 

quantité de signal (entropie d'information : intensité et symbôle)

résolution

bruits (électronique et optique : turbulence, qualité instrumentale) 


L'empilement :

La position effective du signal déplacé par l'effet de turbulence peut être recalé sur l'image par le procédé du drizzle, principe de reconstruction de sous-pixels manquants ou virtuels

C'est l'exploitation statistique par calcul de la position moyenne de chaque élément d'information qu'on a pu corréler avec son voisin de la pile (de l'image précédente ou suivante) 

C'est issu d'un paramètre qui est orthogonal (partiellement indépendant) des autres paramètres, il est amené par la quantité d'image.

 

Apparté : c'est efficace, on utilise ce même type de corrélation sur les codecs vidéo pour approximer la reconstruction d'une image (HEVC fait de la prédiction de mouvement, jusqu'au sous-pixel)

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

 

Pour l'amélioration de la résolution d'une pile de photo astronomique, ce procédé doit apporter une amélioration. Le chiffrer reste compliqué, c'est l'exploitation d'un phénomène statistique dont on a pas encore décrit les meilleurs comportements. (PEC de la monture, image glissante, adaptation à la turbulence ?)

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 5 minutes, lyl a dit :

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

Oui je suis d'accord sur l'ensemble de ta présentation.

Mais parce qu'il y a un mais, en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

En astro image HR planétaire on veut atteindre les limites de l'optique, acquérir la PSF qui n'est que la transposée de l'ouverture du télescope. Et dans ce cas seul l'échantillonnage suffisant permet l'acquisition de l'information.

Après des outils d'interpolation entre pixels peuvent aider. Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, CPI-Z a dit :

en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

Oui

Il y a 4 heures, CPI-Z a dit :

Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Oui, l'idéal est de tenter au mieux de la précision mais être sûr d'être au bon niveau de signal/bruit c'est pas simple : le temps tourne et le choix est à faire pour une longue durée d'acquisition avec des variables qui peuvent changer en cours de route comme la turbulence.

L'idée est de disposer de l'outil qui permet de pousser plus loin, si nécessaire. Une fois l'acquisition faite, on peut être un peu à côté de la résolution optimale.

C'est sans prétention mais pour les perfectionnistes, ça peut faire pencher la balance dans le cas de conditions qui échappent à notre contrôle.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 17 heures, CPI-Z a dit :

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

 

En fait, quand tu fait un split_CFA tu retrouve une image 4x plus petite, donc si tu la traite classiquement, autant faire du super-pixel (la matrice de bayer en un pixel), tu aura le même résultat.

Traiter en drizzle (avec le bon facteur x2) dans ce cas permet de retrouver la résolution native des photosites ... comme avec une matrice mono tel que souhaité par JLD.

 

Marc

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Et attention, tu récupère également 2 "images" vertes qu'il faut traiter séparément (spatialement c'est important).

 

Toujours marc

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 18/12/2019 à 14:10, jldauvergne a dit :

La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290

Mon projet là dessus avance et a pas mal évolué, je vais présenter un design "abouti" sur le forum dans quelques temps ;)

Dans les caméras à faible tirage, tu as aussi les qhy5III290M qui sont du niveau de la 290 mini. Tu peux même dévisser le pas de vis en monture cs pour faire apparaitre le capteur "à nu"...

Après la largeur du "boitier caméra" limite de toutes façons le rapprochement maximal possible entre les capteurs. 

Modifié par Roch
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Un essai de 2 modes différents de bayer-drizzle (images zoomées à 400%)

Les images viennent d'un A7s et sampang 135mm à f/2

Le plus "doux" est le mode bayer-drizzleavec réglages de base que l'on trouve assez souvent.

L'autre est optimisé en résolution mais avec une perte en S/B

Bien entendu, l'empilement normal en VNG est pire en résolution... 

 

bayerdrizzle2.gif.f73a7dc0cc9cd76c98f299bfea2add54.gif

  • J'aime 3
  • Triste 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par grelots
      Bonjour
      Après pas mal d'années d'absence sur ce forum...
      Je reviens parmi vous, ça doit être le double effet de l'éclipse...
      Je n'ai jamais vraiment lâché l'astronomie mais plus trop en pratique...
      Me suis même remis a observer le soleil ce Week-end. J'ai ressorti mon vieux PST qui fait encore le job et mon petit 127 avec un filtre pour un chouette spectacle
      J'ai toujours mon vieux Orion XX14i qui sèche dans une pièce en bas et je me pose la question de m'en séparer, je n'ai plus le courage de le charger dans la voiture le monter et le démonter... Trop lourd
      Je songe sérieusement a m'en séparer, je suis sur qu'entre de bonnes mains il ferait encore des miracles...
      J'aimerai me diriger vers de grosses jumelles, et en farfouillant sur le net j'ai vu que la famille des bino s'était pas mal agrandi avec de nouveau venu sur le marché... Explore scientific...
      Une petite idée du diamètre, 120mm me parait un bon compromis car 150mm est inaccessible pour moi...
      Quid de la qualité? Les APM 120mm APO, qui sont, à priori ce qui se fait de mieux dans la gamme, sont aussi hors budget, même en vendant le dob plus tout les gros cailloux qui vont avec...
      Alors une 120mm semi Apo?!
      Y a t_il eu des test comparatifs sur les APM semi APO et leur cousine chez Explore Scientific?
      J'ai lu qu'il fallait les régler pour améliorer leur qualité?!
      Certains d'entre vous ont ils pu comparer ces modèles? Faire des essai?
      Voilà impatient de découvrir vos retour...
      Amitiés
       
    • Par indra
      Bonjour à tous
       
      Retraité, j'ai décidé de me faire plaisir! J'hésite entre un Celestron C11 et un C14. Je vis à la campagne et l'instrument restera plus ou moins au même endroit. Auparavant, j'ai utilisé un Newton 160mm monture azimutale, fait maison de A à Z façon Texereau. Tout manuel, très inconfortable, mais mes premières observations de la lune, en 1975, me restent encore en mémoire. Je me demande si un C14 ne va pas être "too much" pour moi, mais si je prends un C11, je ne vais pas le regretter assez vite. Merci pour vos avis.
    • Par Andromedae93
      Bonjour tout le monde,
       
      Désireux de réduire les embêtements en nomade en terme d’installation de matériel, réglage optique etc …. Je pense revendre mon Newton 200/800 Carbone pour passer sur une lunette quadruplet ou quintuplet. 
       
      Habitant en appartement, je dois constamment démonter / remonter le matériel. 
      Un réglage du tilt sur le Newton qui n’est pas évident, une collimation à refaire à chaque sortie aux petits oignons, un tube plus volumineux qu’une lunette etc etc …
      Je reprendrais peut être un Newton le jour où je pourrais espérer d’un poste fixe. 
       
      Je sais que je vais perdre en rapport F/D, donc en temps d’acquisition, mais je suis prêt à prendre ce risque pour gagner en facilité d’utilisation et d’installation. 
       
      Cibles envisagées : nébuleuses LRGB et SHO dans un premier temps puis galaxie dans un second 
       
      Matériel acquisition : zwo 1600 mono refroidie 
      monture : SW AZ EQ6
       
      J’ai pu voir dans les PA une askar 107 PHQ avec son réducteur qui me semble pas mal. 
      Quelle(s) lunette(s) me conseillez vous dans un budget de 3000€ max pour avoir une lunette de belle qualité, un champ bien corrigé, un piquet agréable etc …
       
      Merci !!
    • Par bricodob300
      Bonsoir 
      Je suis actuellement en train de polir un DK de 250 à F12 (un plagiat du Mewlon de même puissance) 
      Et je me disais qu'avant de le faire aluminer je pouvais l'utiliser un peu tel quel pour mater notre étoile.
      N'ayant aucune expérience de cette utilisation je préfère demander à ceux qui savent... 
      J'imagine que je ne dois faire traiter aucun des 2 miroirs ? 
      Quel type de filtre utiliser (pour du visuel) ? 
      Je compte utiliser le RC Baader miroir argenté 2"
      Bref ce qu'il faut savoir pour ne pas perdre un œil 
      Merci beaucoup 
      Jp 
    • Par guy03
      Bonsoir
      Quelle est la marque SVP de cette bino en 31.75. Je viens d'observer avec sur ma lunette de 80/480 la full moon. Le pied .... car je n'ai pas besoin de barlow pour avoir la netteté comme avec la mienne, une TS grand champ. Du coup la lune est plus petite et c'est hyper agréable!!! Avec la TS, la lune est plus grosse et prend presque tout le champ des oculaires de 20mm par exemple. Avec cette petite bino je me suis vraiment éclaté en observant la lune. J'avais 2 oculaires de 20mm Masuyama. J'obtiens la netteté avec des oculaires de 20mm ou plus comme des 25. Avec des 15mm ce n'est pas possible mais pas grave.Merci et bon ciel surtout!


  • Évènements à venir