jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Recommended Posts

il y a 26 minutes, patry a dit :

commande split_rgb de mémoire

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

[a] étant l'image qu'avec les pixels rouges, [d] qu'avec les pixels bleus, [c] avec les pixels verts.

Cela implique des traitements indépendants des séries rouge et bleu. Pour le vert je pense qu'il est préférable d'utiliser la série verte extraite d'un dématriçage  car je ne vois pas comment reconstituer l'image verte à partir des 2 fichiers [c].

La reconstitution se fait avec > merge_cfa [c1] [c2] [c3] [c4] ou  > merge_cfa2 [a] [c] [d] [sortie] [nombre] pour une série.

Là au moins il n'y aurais pas d'approximation pour le rouge et bleu.

 

Dans ce cas on retrouve bien la conversion de l'échantillonnage entre la couleur et le NB comme je l'avais expliqué

Il y a 17 heures, CPI-Z a dit :

Pour une caméra couleur on peut dire que les pixels rouge ou bleu sont de 1 sur 4, soit 25% par rapport à une caméra NB. Pour une QHY 5L-II c entre le vert et le bleu il y a un rapport de longueur d'onde 460/550 = 0.83.  Si K = 5 pour le NB on obtient un équivalent de K = 5*0.83*25% = 1.04

Pour le rouge on passe à 610/550 = 1.11,   K devient 5*1.11*25% = 1.13

Pour le vert K devient 5*1*50% = 2.5

Ce type de calcul donne l'échantillonnage couleur réel par rapport à un échantillonnage NB du tableau K.

On peut trouver le bon échantillonnage pour qu'une caméra couleur corresponde à l'échantillonnage NB choisi, donc son équivalent en résolution.

 

Edited by CPI-Z

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Photographier la Lune
Guide complet pour la photographier de la Lune.
Information et commande sur www.photographierlalune.com
il y a 18 minutes, patry a dit :

Cela devrait bien donner le même résultat que le bayer drizzle

Je ne pense pas vu que ce n'est pas le même algo. Enfin j'ai l'impression. Moi ce que j'imagine du fonctionnement du Bayer Drizzle c'est que tu prends l'info là où elle est quand tu l'as. La première photo de ton stack B par exemple, c'est une image à trou avec 1/4 des pixels renseignés, et la suivante si la planète s'est décalée de 1 pixel par exemple, tu as l'infos du pixel d’à côté. Au bout de 4 images stackées si on s'est déplacé à chaque fois d'un pixel pour couvrir le carré 2x2, on a l'info B complète sans bricolage à l'échelle 1 pixel par photosite. Là où c'est peu efficace en bruit c'est qu'il faut au moins 4 photos pour reconstruire une couche. Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp ! Au contraire, une débayerisation classique nous donne la couche B immédiatement mais peu résolue. 

En suivant ta logique, on partirait d'une image B par exemple interpolée, avec donc une information partiellement inventée (de façon intelligente, mais inventée). Intuitivement ça ne me semble pas saint de partir de là. Ce qui pourrait marcher peut être pour les B et R, c'est faire une réduction 2x2 sans aucune interpolation, juste en créant une image dans laquelle les pixels V et R on été supprimés. Faire du Drizzle classique là dessus ça fonctionne peut être (mais je ne suis pas certain vu que le barycentre du photosite bouge d'une image à l'autre, c'est donc potentiellement merdique). Le problème de cette stratégie c'est quand tu arrives à la couche verte, il n'y a pas vraiment de moyen de réduire l'image sans la bricoler, un binning 2x2 contraint à faire la moyenne des 2 pixels verts, est ce que l'on ne perd pas bêtement de l'information spatiale ?
Enfin tout ça pour dire que le Bayer Drizzle est à mon avis plus dans la logique de ce que je décris. Sa faiblesse c'est que les couche B et R sont forcément très bruitées par rapport à V. Mais une fois que l'on a cette info là il y a moyen d'optimiser l'image en synthétisant un L dans laquelle le poids de B et R est minoré par rapport à V.

Share this post


Link to post
Share on other sites
il y a 33 minutes, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y. 
Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

Après ce qui m'importait avec ce fil c'est d'avoir une réponse à la question, c'est juste de la curiosité intellectuelle. Ce que je retiens c'est qu'en débayerisation classique on a bien perte de résolution même après stacking. Pour contourner ça la seule solution serait que AS3 implémente une fonction de Bayer Drizzle, ce que l'on peut souffler à Emil (ceci dit si quelqu'un a une documentation de la fonction pour être certain de son fonctionnement ce serait intéressant). 
Après à titre perso, perdre en résolution avec ma caméra couleur franchement ça m'importe peu vu que je ne mise pas sur elle pour sortir les plus fins détails. Et quand bien même si on pouvait utiliser ces caméras couleur sans perte de résolution je continuerais à faire du N&B pour la cadence de prise de vue et les images spéciales (UV, CH4, IR, etc). 

Edited by jldauvergne
  • Like 1

Share this post


Link to post
Share on other sites
Il y a 1 heure, jldauvergne a dit :

la seule solution serait que AS3 implémente une fonction de Bayer Drizzle

 

Tu as parfaitement raison là-dessus, je ne sais pas comment fonctionne le drizzle qu'il propose. De toute façon il faut lui poser la question, je n'en ai pas été satisfaite.

 

Je ne l'utilise pas car je n'ai pas exploré : je fais plutôt du lunaire avec un instrument de taille modérée et je passe par le principe du super-pixel à gros f/D comme dis plus haut (empilement par canal) ou du classique interpolation (comme dans DCraw)

 

Mais comme tu tires sur un objet moins éclairé, le signal sur bruit est à la limite, tu peux y gagner en baissant le sur-échantillonnage.

 

Après malheureusement, je ne sais pas comment procède Winjupos savoir si tu peux combiner.

 

Il y a une explication du comment procéder pour la dérive naturelle mais je suppose qu'il lui faudrait l'algorithme :

 

BayerBruine.JPG.fd8651c142cf87f30bb961093a945f44.JPG

 

-----------------------

une autre explication qui est sur ASTAP.

 

Citation

Bayer drizzle, no interpolation but large amount of images are required. The raw image is coloured depending on the Bayer pattern and used in stacking. When sufficient images are stacked and there is some natural drift each position will get red, green or blues values averaged. For good stack result at least 100 images are required and the sky background and transparancy should be stable.

 

Edited by lyl
  • Like 1

Share this post


Link to post
Share on other sites
il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu.

Pas du tout. Je crois que l'on sait mal compris.

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

  • Like 1

Share this post


Link to post
Share on other sites
il y a une heure, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

 

Mais c'est bien sur : split_cfa et pas split_rgb, merci CPI-Z.

 

il y a une heure, jldauvergne a dit :

Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp !

 

Oui c'est pour cela qu'il faut beaucoup d'images en drizzle. D'une part pour remplir statistiquement les trous (et on ne maîtrise pas vraiment les déplacements en astro, cela se fait en photo directement depuis les capteurs montés sur des piezzos) et d'autre part car le but second sera d'améliorer le rapport S/B pour préparer au filtrage. Donc on est parti là pour accumuler des milliers (des dizaines de milliers ?) d'images. Cela ne se conçoit QUE pour de très très belles séances pour moi. Dans ces cas là, le drizzle permet de gratter un peu, mais sinon tu aura une super-résolution mais pas assez de S/B pour appliquer les ondelettes (ou tout autre filtre de contraste) sinon à ruiner le résultat.

 

il y a 59 minutes, jldauvergne a dit :

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y.

 

En fait c'est plus compliqué car si tu peux faire effectivement la séparation avant tout autre traitement, s'assurer que les décalages seront identiques (ils devraient) sur tous les flux est une gageure.

 

il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

 

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

 

Là encore, c'est beaucoup de boulot qui ne se conçoit que pour nos plus belles séances.

Dommage qu'on ne puisse pas facilement scripter tout ça car si on doit faire : la séparation CFA (IRIS), la dérotation de chaque flux (winjupos), les traitements (AS!3) la recombinaison ... même avec des grosses machines (i7 pour moi dans une tour, pas un portable), c'est beaucoup de temps !

 

Marc

 

Share this post


Link to post
Share on other sites
il y a 1 minute, patry a dit :

en espérant que les décalages seront identiques

Non, moi j'ai toujours traité chaque couleur séparément pour obtenir les meilleurs résultats finaux.

  • Like 1

Share this post


Link to post
Share on other sites
il y a 4 minutes, patry a dit :

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

 

à vérifier, je ne retrouve pas ma lecture la dessus.

Edited by lyl
  • Like 1

Share this post


Link to post
Share on other sites
il y a 11 minutes, CPI-Z a dit :

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

Je comprends bien oui, mais la difficulté, c'est qu'il ne s'agit pas uniquement d'isoler les couches, il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique. Chose peut être possible dans Iris tellement c'est une boîte à outils, mais impossible dans AS3 qui est une boîte noire (sans connotation péjorative de ma part).

Share this post


Link to post
Share on other sites
il y a 7 minutes, lyl a dit :

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs, le fichier d'alignement est issu d'une analyse des images dématricées à l'ancienne. En ciel profond c'est relativement simple c'est une série de x,y, en planétaire avec la turbu c'est plus poilu. 

  • Like 1

Share this post


Link to post
Share on other sites
il y a 9 minutes, jldauvergne a dit :

il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique.

"images issues d'un dématrissage classique" : NON pas besoin.

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ? Tu peux même faire le traitement final par ondelettes sur chaque image NB correspondant à 1 couleur.

Comment tu alignes des images NB avec AS3, et bien c'est la même chose ...

 

Après tu alignes les 3 images résultats pour obtenir l'image finale couleur.

Edited by CPI-Z

Share this post


Link to post
Share on other sites
il y a 7 minutes, jldauvergne a dit :

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs

Ok, le terme dématriçage est tellement teinté d'utilisation de l'interpolation que je suis passée à côté de ce qu'il a écrit. C'est la raison de mon retour historique sur le super-pixel qui est un terme modernisé pour LE PIXEL d'origine.

Edited by lyl

Share this post


Link to post
Share on other sites
il y a 1 minute, CPI-Z a dit :

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ?

Je viens de regarder, je n'avais pas pigé qu'il réduit la taille des images avec la fonction split. Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique.  Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème. C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler. Mais ce que tu dis serait à tester dans tous les cas. 

 En tout cas comme dit @patry ça peut difficilement rentrer dans une production de flux. Sur une bonne nuit on a 50 Go, on arrive à bout de cette pile uniquement par l'automatisation (mais on revient parfois s'acharner sur quelques vidéos en particulier pour en sortir la quintessence). 

Share this post


Link to post
Share on other sites

Au moins, avec un capteur Foveon, on ne se pose pas la question ;)

  • Like 1

Share this post


Link to post
Share on other sites
il y a 2 minutes, Jijil a dit :

Au moins, avec un capteur Foveon, on ne se pose pas la question

Si seulement il y avait la sensibilité et le bruit de lecture qui va avec :) 
La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290 :)
Avec le prix des capteurs qui diminue, le retour au tri capteur mériterait d'être considéré. On a eu d'abord du tri-ccd car les capteur étaient tellement mauvais que c'était un gros levier d'amélioration. 

La solution reste quand même difficile en terme de tirage, on a déjà du mal à intégrer proprement les ADC et les roues à filtres, ... En partant de f/12 en ce qui me concerne j'ai cherché les caméras qui ont le moins de tirage. Altair pour l'imx224 et ZWO mini pour le 290.
Et puis en vrai perso je n'ai pas de problématique, la stratégie de séquence de prise de vue IMX224 puis IMX290  puis de nouveau IMX 224 fonctionne très bien et permet de profiter du meilleur des 2 mondes entre capteur couleur et monochrome. Vive Winjupos, quel bonheur ce soft !

  • Love 2

Share this post


Link to post
Share on other sites
il y a 35 minutes, jldauvergne a dit :

Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

Rappel : La fonction split_CFA sépare une image RAW en 4 fichiers RVVB.

Si au départ ton RAW fait 100x100 pixels chaque image mono ne fait donc que 50x50 pixels en respectant la géométrie de chaque couleur au pixel près.

Il créé la brut de chaque couleur correspondant à ce que le capteur à capturé.

 

il y a 35 minutes, jldauvergne a dit :

 Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème.

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

 

il y a 35 minutes, jldauvergne a dit :

C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).

Avec split_CFA là on est en un vrai x1. Seul l'échantillonnage change comme je te l'ai expliqué par rapport à un capteur MONO pour un même F/D.

Edited by CPI-Z

Share this post


Link to post
Share on other sites
il y a 9 minutes, CPI-Z a dit :

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

Dans la zone 4x4 pixels avec un seul pixel sensible à notre filtre, le signal est différent selon le coin du carré où on se trouve, en ça c'est très différent d'un binning 2x2. Si tu prends un exemple extrême avec un système sous échantillonné visant des étoiles par exemple. Une étoile donné sera visible sur certaines trames et pas sur d'autres. Tu auras aussi tout un cas de cas intermédiaires avec l'étoiles à cheval du pixel sensible avec le signal partagé avec le pixel d'à côté, ... où il n'y a pas de récepteur. 
Photométriquement c'est la cata, et même astrométriquement calculer le baycentre à partir de ça, ça me semble hasardeux. Donc faire du drizzle à partir de cette info de mauvaise qualité, est ce que ça peut vraiment donner quelque chose de bon ? Intuitivement j'ai l'impression que faire ça, c'est assez analogue à faire du drizzle à partir d'un dématrissage classique.
Le drizzle fonctionne fonctionne parce que lorsqu'une étoile est à cheval sur 2 pixels tu le détectes, tu as bien une réponse des deux pixels, et c'est bien ce qui permet de déduire ce qui se passe à l'échelle sub-pixel. 

 

il y a 17 minutes, CPI-Z a dit :

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).


Tu m'as peut être mal compris, je ne parle pas de débayerisé  dans ce cas. Je parle d'une couche bleue basée sur l'image CFA sur laquelle on passe à 0 rouge et vert. 

La planète se déplace, donc l'information réelle de ce qui se passe dans tes trous tu finis par l'avoir vraiment, tu bouches les trous avec la vraie information au fur et à mesure. Sur le papier c'est simple et c'est propre, on génère bien une image à l'échelle x1 avec la vraie information de cette échelle. Dans la pratique sur des images de ciel profond j'ai l'impression que c'est ce que fait PixInsight, mais en planétaire c'est plus compliqué à appliquer à cause de la turbu (et concrètement du manque de logiciel approprié).

Share this post


Link to post
Share on other sites

En résumé tu me redis ce que j'ai montré entre une étoile centrée sur un pixel et sur cette étoile à cheval sur 2 ou 4 pixels consécutifs dans le tableau d'échantillonnage K.

Je le redis seul l'échantillonnage change entre une caméra couleur et une caméra mono (4 fois mois de pixels pour le R et B).

Avec un échantillonnage suffisant de la PSF (équivalent à celui du mono) , le résultat est fidèle et est le même en barycentre, en photométrie ...

( Contre exemple à ton raisonnement : Sur un capteur réel il y a toujours un espace noir entre chaque pixels. Un mesureur de front d'onde à micro lentilles ou un Shack Hartmann sont constitués de trous séparés  dans un plan et cela n'empêche en rien de reconstituer le front-d'onde). L'ensemble par exemple des pixels rouges "séparés"  reste fidèle à l'image dans le plan focale si l'échantillonnage est suffisant.

C'est le problème depuis le début du post, quel doit être l'échantillonnage pour que la série d'images restitue la résolution du télescope si les conditions atmosphérique le permet.

 

Share this post


Link to post
Share on other sites

Je vais faire un peu neuneu mais il est vrai qu'à partir de la question simple du titre du sujet : ça a été largement couvert.

Mais la question va plus loin, je reformule pour essayer de comprendre si on est exhaustif à ton besoin.

J'utilise mes mots mais ce n'est pas obligatoire.

 

Citation

Est ce que l'on perd en résolution avec une matrice de bayer ?

oui

Le 14/12/2019 à 15:43, jldauvergne a dit :

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot.

c'est approximatif mais assez réaliste quand on est à la limite des paramètres d'acquisitions : on tire ces derniers jusqu'à réduire le signal/bruit jusqu'au minima de quantification

 

Image one shot :

les paramètres divers du "one shot" en cam couleur : temps de pose, ratio f/D (corrélée avec luminosité et résolution), gain, taille de photosite, type de matrice (RGGB pour la plupart)...

En bref, on arrive à un jeu de paramètres fondamentaux, je pense 3 : 

quantité de signal (entropie d'information : intensité et symbôle)

résolution

bruits (électronique et optique : turbulence, qualité instrumentale) 


L'empilement :

La position effective du signal déplacé par l'effet de turbulence peut être recalé sur l'image par le procédé du drizzle, principe de reconstruction de sous-pixels manquants ou virtuels

C'est l'exploitation statistique par calcul de la position moyenne de chaque élément d'information qu'on a pu corréler avec son voisin de la pile (de l'image précédente ou suivante) 

C'est issu d'un paramètre qui est orthogonal (partiellement indépendant) des autres paramètres, il est amené par la quantité d'image.

 

Apparté : c'est efficace, on utilise ce même type de corrélation sur les codecs vidéo pour approximer la reconstruction d'une image (HEVC fait de la prédiction de mouvement, jusqu'au sous-pixel)

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

 

Pour l'amélioration de la résolution d'une pile de photo astronomique, ce procédé doit apporter une amélioration. Le chiffrer reste compliqué, c'est l'exploitation d'un phénomène statistique dont on a pas encore décrit les meilleurs comportements. (PEC de la monture, image glissante, adaptation à la turbulence ?)

  • Like 2

Share this post


Link to post
Share on other sites
il y a 5 minutes, lyl a dit :

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

Oui je suis d'accord sur l'ensemble de ta présentation.

Mais parce qu'il y a un mais, en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

En astro image HR planétaire on veut atteindre les limites de l'optique, acquérir la PSF qui n'est que la transposée de l'ouverture du télescope. Et dans ce cas seul l'échantillonnage suffisant permet l'acquisition de l'information.

Après des outils d'interpolation entre pixels peuvent aider. Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Share this post


Link to post
Share on other sites
Il y a 4 heures, CPI-Z a dit :

en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

Oui

Il y a 4 heures, CPI-Z a dit :

Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Oui, l'idéal est de tenter au mieux de la précision mais être sûr d'être au bon niveau de signal/bruit c'est pas simple : le temps tourne et le choix est à faire pour une longue durée d'acquisition avec des variables qui peuvent changer en cours de route comme la turbulence.

L'idée est de disposer de l'outil qui permet de pousser plus loin, si nécessaire. Une fois l'acquisition faite, on peut être un peu à côté de la résolution optimale.

C'est sans prétention mais pour les perfectionnistes, ça peut faire pencher la balance dans le cas de conditions qui échappent à notre contrôle.

 

Edited by lyl
  • Like 1

Share this post


Link to post
Share on other sites
Il y a 17 heures, CPI-Z a dit :

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

 

En fait, quand tu fait un split_CFA tu retrouve une image 4x plus petite, donc si tu la traite classiquement, autant faire du super-pixel (la matrice de bayer en un pixel), tu aura le même résultat.

Traiter en drizzle (avec le bon facteur x2) dans ce cas permet de retrouver la résolution native des photosites ... comme avec une matrice mono tel que souhaité par JLD.

 

Marc

 

  • Like 2

Share this post


Link to post
Share on other sites

Et attention, tu récupère également 2 "images" vertes qu'il faut traiter séparément (spatialement c'est important).

 

Toujours marc

  • Like 1

Share this post


Link to post
Share on other sites
Le 18/12/2019 à 14:10, jldauvergne a dit :

La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290

Mon projet là dessus avance et a pas mal évolué, je vais présenter un design "abouti" sur le forum dans quelques temps ;)

Dans les caméras à faible tirage, tu as aussi les qhy5III290M qui sont du niveau de la 290 mini. Tu peux même dévisser le pas de vis en monture cs pour faire apparaitre le capteur "à nu"...

Après la largeur du "boitier caméra" limite de toutes façons le rapprochement maximal possible entre les capteurs. 

Edited by Roch
  • Like 1

Share this post


Link to post
Share on other sites

Un essai de 2 modes différents de bayer-drizzle (images zoomées à 400%)

Les images viennent d'un A7s et sampang 135mm à f/2

Le plus "doux" est le mode bayer-drizzleavec réglages de base que l'on trouve assez souvent.

L'autre est optimisé en résolution mais avec une perte en S/B

Bien entendu, l'empilement normal en VNG est pire en résolution... 

 

bayerdrizzle2.gif.f73a7dc0cc9cd76c98f299bfea2add54.gif

  • Like 3
  • Sad 1

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By Achaim
      Pour infos
      Je sais que nombre n aime pas le business de cette boîte  , mais j' ai trouvé ça ....ils testent les instruments acheté chez eux ou pas 
      Interressant ..
       
       
      https://www.astroshop.de/fr/maintenance-reglages-de-precision/astroshop-test-major-optics-pour-apochromate-de-80mm-a-152mm/p,33413?utm_medium=cpc&utm_term=33413&utm_campaign=2002&utm_source=leguide-fr&utm_content=
    • By cinlilu
      Bonjour,
      Cela fait presque un an que j'ai  eu la chance de pouvoir m'offrir cette G3 qui est une super caméra.
      Le seul soucis que je rencontre est que je ne peux l'utiliser qu'avec son logiciel dédié qui est "sips".
      En effet, j'ai remarqué que quand je l'utilise avec un autre logiciel style "Nina" ou "apt" qui gèrent les prises de vues, j'ai des traces sur mes brutes.
      Je reviens sous "sips" et là l'image est bonne.
      Idem si j'utilise "sips" en parallèle avec un autre logiciel comme " Phd max" pour faire du dithering, j'ai des traces.
      Donc je n'utilise que "sips" sans dithering  ça marche. 
      Je ne comprends rien ou alors je passe à coté de quelque chose !!!
      Je joints 2 brutes de 300s, vous allez tout de suite voir de quoi je parle.
      Si quelqu'un avait une idée du pourquoi du comment ...
      merci
      P@sc@L


    • By zirkel 2
      Bonjour,
       
      Pour ma Lunette Bresser AR-102 f/10, quel filtre pour atténuer le chromatisme  :
       
      Filtre jaune léger ? Baader Semi-Apo (combinaison Baader FK & Moon and Skyglow) ? Baader Frange Killer ? Autres combinaisons de filtres ?  
      Merci pour vos réponses...
    • By MagicStar
      Bonjour à tous,
       
      Possesseur d'un 254 mm dobson avec des oculaires Hyperion (13 et 21 mm), je souhaiterais acheter un instrument que je puisse transporter en vacances, pas trop encombrant donc car le tube de 250 c'est même pas la peine :-)
       
      Je ne sais pas trop quoi prendre... mon budget est de 600€ environ que je peux pousser a 1000, 1200 si vraiment ça fait une différence (on achète pas des instruments tous les jours).
       
      L'idée serait de pouvoir faire du planétaire (pas trop problématique je pense) et d'aller reluquer un peu sur du CP. Pourquoi pas mais je rêve probablement pouvoir faire un peu d'astrophoto avec un reflex (je pratique déjà la photo par ailleurs)...
       
      J'ai trouvé un nexstar 6 se (de 2016) d’occasion a 600€. La personne me vend le scope plus un nagler 7mm (qui je pense complétera bien mes hyperions 13 et 21 et ma barlow 2x) pour 800€ ce qui me semble être un prix correct.
       
      Qu’en pensez-vous ? N’ayant jamais acheté de telescope d’occasion que faut il regarder sur ce type d’instruments pour ne pas se faire arnaquer ? Le nexstar 6 se a-t-il des défauts récurrents ou des faiblesses auxquelles il faut porter attention ?
       
      Vous pensez qu’il y a un autre choix qui serait plus cohérent ? (Mak 127 par exemple ?)
       
      Je vous remercie et vous souhaite une belle soiree
    • By Haltea
      Salut a tous 
      Voici les premiers tests de mon telescope lacerta , qui arrive dans les jours qui viennent (j'aurai la documentation complète à  la livraison du tube)
      C'est un miroir industriel (donc pas au niveau d'un mirrosphere ou autre artisan bien sur).
      Il s'agit pour moi d'avoir un miroir correcte, suffisant pour la pratique en astrophoto d'un amateur de mon niveau (moyen). 
      D'apres les connaissances que j'ai pu glaner ici et là,  l'optique semble correcte. 
      Qu'en pensez vous ?



  • Images