jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Messages recommandés

il y a 26 minutes, patry a dit :

commande split_rgb de mémoire

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

[a] étant l'image qu'avec les pixels rouges, [d] qu'avec les pixels bleus, [c] avec les pixels verts.

Cela implique des traitements indépendants des séries rouge et bleu. Pour le vert je pense qu'il est préférable d'utiliser la série verte extraite d'un dématriçage  car je ne vois pas comment reconstituer l'image verte à partir des 2 fichiers [c].

La reconstitution se fait avec > merge_cfa [c1] [c2] [c3] [c4] ou  > merge_cfa2 [a] [c] [d] [sortie] [nombre] pour une série.

Là au moins il n'y aurais pas d'approximation pour le rouge et bleu.

 

Dans ce cas on retrouve bien la conversion de l'échantillonnage entre la couleur et le NB comme je l'avais expliqué

Il y a 17 heures, CPI-Z a dit :

Pour une caméra couleur on peut dire que les pixels rouge ou bleu sont de 1 sur 4, soit 25% par rapport à une caméra NB. Pour une QHY 5L-II c entre le vert et le bleu il y a un rapport de longueur d'onde 460/550 = 0.83.  Si K = 5 pour le NB on obtient un équivalent de K = 5*0.83*25% = 1.04

Pour le rouge on passe à 610/550 = 1.11,   K devient 5*1.11*25% = 1.13

Pour le vert K devient 5*1*50% = 2.5

Ce type de calcul donne l'échantillonnage couleur réel par rapport à un échantillonnage NB du tableau K.

On peut trouver le bon échantillonnage pour qu'une caméra couleur corresponde à l'échantillonnage NB choisi, donc son équivalent en résolution.

 

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 18 minutes, patry a dit :

Cela devrait bien donner le même résultat que le bayer drizzle

Je ne pense pas vu que ce n'est pas le même algo. Enfin j'ai l'impression. Moi ce que j'imagine du fonctionnement du Bayer Drizzle c'est que tu prends l'info là où elle est quand tu l'as. La première photo de ton stack B par exemple, c'est une image à trou avec 1/4 des pixels renseignés, et la suivante si la planète s'est décalée de 1 pixel par exemple, tu as l'infos du pixel d’à côté. Au bout de 4 images stackées si on s'est déplacé à chaque fois d'un pixel pour couvrir le carré 2x2, on a l'info B complète sans bricolage à l'échelle 1 pixel par photosite. Là où c'est peu efficace en bruit c'est qu'il faut au moins 4 photos pour reconstruire une couche. Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp ! Au contraire, une débayerisation classique nous donne la couche B immédiatement mais peu résolue. 

En suivant ta logique, on partirait d'une image B par exemple interpolée, avec donc une information partiellement inventée (de façon intelligente, mais inventée). Intuitivement ça ne me semble pas saint de partir de là. Ce qui pourrait marcher peut être pour les B et R, c'est faire une réduction 2x2 sans aucune interpolation, juste en créant une image dans laquelle les pixels V et R on été supprimés. Faire du Drizzle classique là dessus ça fonctionne peut être (mais je ne suis pas certain vu que le barycentre du photosite bouge d'une image à l'autre, c'est donc potentiellement merdique). Le problème de cette stratégie c'est quand tu arrives à la couche verte, il n'y a pas vraiment de moyen de réduire l'image sans la bricoler, un binning 2x2 contraint à faire la moyenne des 2 pixels verts, est ce que l'on ne perd pas bêtement de l'information spatiale ?
Enfin tout ça pour dire que le Bayer Drizzle est à mon avis plus dans la logique de ce que je décris. Sa faiblesse c'est que les couche B et R sont forcément très bruitées par rapport à V. Mais une fois que l'on a cette info là il y a moyen d'optimiser l'image en synthétisant un L dans laquelle le poids de B et R est minoré par rapport à V.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 33 minutes, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y. 
Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

Après ce qui m'importait avec ce fil c'est d'avoir une réponse à la question, c'est juste de la curiosité intellectuelle. Ce que je retiens c'est qu'en débayerisation classique on a bien perte de résolution même après stacking. Pour contourner ça la seule solution serait que AS3 implémente une fonction de Bayer Drizzle, ce que l'on peut souffler à Emil (ceci dit si quelqu'un a une documentation de la fonction pour être certain de son fonctionnement ce serait intéressant). 
Après à titre perso, perdre en résolution avec ma caméra couleur franchement ça m'importe peu vu que je ne mise pas sur elle pour sortir les plus fins détails. Et quand bien même si on pouvait utiliser ces caméras couleur sans perte de résolution je continuerais à faire du N&B pour la cadence de prise de vue et les images spéciales (UV, CH4, IR, etc). 

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, jldauvergne a dit :

la seule solution serait que AS3 implémente une fonction de Bayer Drizzle

 

Tu as parfaitement raison là-dessus, je ne sais pas comment fonctionne le drizzle qu'il propose. De toute façon il faut lui poser la question, je n'en ai pas été satisfaite.

 

Je ne l'utilise pas car je n'ai pas exploré : je fais plutôt du lunaire avec un instrument de taille modérée et je passe par le principe du super-pixel à gros f/D comme dis plus haut (empilement par canal) ou du classique interpolation (comme dans DCraw)

 

Mais comme tu tires sur un objet moins éclairé, le signal sur bruit est à la limite, tu peux y gagner en baissant le sur-échantillonnage.

 

Après malheureusement, je ne sais pas comment procède Winjupos savoir si tu peux combiner.

 

Il y a une explication du comment procéder pour la dérive naturelle mais je suppose qu'il lui faudrait l'algorithme :

 

BayerBruine.JPG.fd8651c142cf87f30bb961093a945f44.JPG

 

-----------------------

une autre explication qui est sur ASTAP.

 

Citation

Bayer drizzle, no interpolation but large amount of images are required. The raw image is coloured depending on the Bayer pattern and used in stacking. When sufficient images are stacked and there is some natural drift each position will get red, green or blues values averaged. For good stack result at least 100 images are required and the sky background and transparancy should be stable.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu.

Pas du tout. Je crois que l'on sait mal compris.

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

 

Mais c'est bien sur : split_cfa et pas split_rgb, merci CPI-Z.

 

il y a une heure, jldauvergne a dit :

Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp !

 

Oui c'est pour cela qu'il faut beaucoup d'images en drizzle. D'une part pour remplir statistiquement les trous (et on ne maîtrise pas vraiment les déplacements en astro, cela se fait en photo directement depuis les capteurs montés sur des piezzos) et d'autre part car le but second sera d'améliorer le rapport S/B pour préparer au filtrage. Donc on est parti là pour accumuler des milliers (des dizaines de milliers ?) d'images. Cela ne se conçoit QUE pour de très très belles séances pour moi. Dans ces cas là, le drizzle permet de gratter un peu, mais sinon tu aura une super-résolution mais pas assez de S/B pour appliquer les ondelettes (ou tout autre filtre de contraste) sinon à ruiner le résultat.

 

il y a 59 minutes, jldauvergne a dit :

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y.

 

En fait c'est plus compliqué car si tu peux faire effectivement la séparation avant tout autre traitement, s'assurer que les décalages seront identiques (ils devraient) sur tous les flux est une gageure.

 

il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

 

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

 

Là encore, c'est beaucoup de boulot qui ne se conçoit que pour nos plus belles séances.

Dommage qu'on ne puisse pas facilement scripter tout ça car si on doit faire : la séparation CFA (IRIS), la dérotation de chaque flux (winjupos), les traitements (AS!3) la recombinaison ... même avec des grosses machines (i7 pour moi dans une tour, pas un portable), c'est beaucoup de temps !

 

Marc

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, patry a dit :

en espérant que les décalages seront identiques

Non, moi j'ai toujours traité chaque couleur séparément pour obtenir les meilleurs résultats finaux.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 4 minutes, patry a dit :

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

 

à vérifier, je ne retrouve pas ma lecture la dessus.

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 11 minutes, CPI-Z a dit :

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

Je comprends bien oui, mais la difficulté, c'est qu'il ne s'agit pas uniquement d'isoler les couches, il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique. Chose peut être possible dans Iris tellement c'est une boîte à outils, mais impossible dans AS3 qui est une boîte noire (sans connotation péjorative de ma part).

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, lyl a dit :

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs, le fichier d'alignement est issu d'une analyse des images dématricées à l'ancienne. En ciel profond c'est relativement simple c'est une série de x,y, en planétaire avec la turbu c'est plus poilu. 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, jldauvergne a dit :

il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique.

"images issues d'un dématrissage classique" : NON pas besoin.

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ? Tu peux même faire le traitement final par ondelettes sur chaque image NB correspondant à 1 couleur.

Comment tu alignes des images NB avec AS3, et bien c'est la même chose ...

 

Après tu alignes les 3 images résultats pour obtenir l'image finale couleur.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, jldauvergne a dit :

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs

Ok, le terme dématriçage est tellement teinté d'utilisation de l'interpolation que je suis passée à côté de ce qu'il a écrit. C'est la raison de mon retour historique sur le super-pixel qui est un terme modernisé pour LE PIXEL d'origine.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, CPI-Z a dit :

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ?

Je viens de regarder, je n'avais pas pigé qu'il réduit la taille des images avec la fonction split. Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique.  Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème. C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler. Mais ce que tu dis serait à tester dans tous les cas. 

 En tout cas comme dit @patry ça peut difficilement rentrer dans une production de flux. Sur une bonne nuit on a 50 Go, on arrive à bout de cette pile uniquement par l'automatisation (mais on revient parfois s'acharner sur quelques vidéos en particulier pour en sortir la quintessence). 

Partager ce message


Lien à poster
Partager sur d’autres sites

Au moins, avec un capteur Foveon, on ne se pose pas la question ;)

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, Jijil a dit :

Au moins, avec un capteur Foveon, on ne se pose pas la question

Si seulement il y avait la sensibilité et le bruit de lecture qui va avec :) 
La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290 :)
Avec le prix des capteurs qui diminue, le retour au tri capteur mériterait d'être considéré. On a eu d'abord du tri-ccd car les capteur étaient tellement mauvais que c'était un gros levier d'amélioration. 

La solution reste quand même difficile en terme de tirage, on a déjà du mal à intégrer proprement les ADC et les roues à filtres, ... En partant de f/12 en ce qui me concerne j'ai cherché les caméras qui ont le moins de tirage. Altair pour l'imx224 et ZWO mini pour le 290.
Et puis en vrai perso je n'ai pas de problématique, la stratégie de séquence de prise de vue IMX224 puis IMX290  puis de nouveau IMX 224 fonctionne très bien et permet de profiter du meilleur des 2 mondes entre capteur couleur et monochrome. Vive Winjupos, quel bonheur ce soft !

  • J'adore 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, jldauvergne a dit :

Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

Rappel : La fonction split_CFA sépare une image RAW en 4 fichiers RVVB.

Si au départ ton RAW fait 100x100 pixels chaque image mono ne fait donc que 50x50 pixels en respectant la géométrie de chaque couleur au pixel près.

Il créé la brut de chaque couleur correspondant à ce que le capteur à capturé.

 

il y a 35 minutes, jldauvergne a dit :

 Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème.

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

 

il y a 35 minutes, jldauvergne a dit :

C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).

Avec split_CFA là on est en un vrai x1. Seul l'échantillonnage change comme je te l'ai expliqué par rapport à un capteur MONO pour un même F/D.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, CPI-Z a dit :

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

Dans la zone 4x4 pixels avec un seul pixel sensible à notre filtre, le signal est différent selon le coin du carré où on se trouve, en ça c'est très différent d'un binning 2x2. Si tu prends un exemple extrême avec un système sous échantillonné visant des étoiles par exemple. Une étoile donné sera visible sur certaines trames et pas sur d'autres. Tu auras aussi tout un cas de cas intermédiaires avec l'étoiles à cheval du pixel sensible avec le signal partagé avec le pixel d'à côté, ... où il n'y a pas de récepteur. 
Photométriquement c'est la cata, et même astrométriquement calculer le baycentre à partir de ça, ça me semble hasardeux. Donc faire du drizzle à partir de cette info de mauvaise qualité, est ce que ça peut vraiment donner quelque chose de bon ? Intuitivement j'ai l'impression que faire ça, c'est assez analogue à faire du drizzle à partir d'un dématrissage classique.
Le drizzle fonctionne fonctionne parce que lorsqu'une étoile est à cheval sur 2 pixels tu le détectes, tu as bien une réponse des deux pixels, et c'est bien ce qui permet de déduire ce qui se passe à l'échelle sub-pixel. 

 

il y a 17 minutes, CPI-Z a dit :

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).


Tu m'as peut être mal compris, je ne parle pas de débayerisé  dans ce cas. Je parle d'une couche bleue basée sur l'image CFA sur laquelle on passe à 0 rouge et vert. 

La planète se déplace, donc l'information réelle de ce qui se passe dans tes trous tu finis par l'avoir vraiment, tu bouches les trous avec la vraie information au fur et à mesure. Sur le papier c'est simple et c'est propre, on génère bien une image à l'échelle x1 avec la vraie information de cette échelle. Dans la pratique sur des images de ciel profond j'ai l'impression que c'est ce que fait PixInsight, mais en planétaire c'est plus compliqué à appliquer à cause de la turbu (et concrètement du manque de logiciel approprié).

Partager ce message


Lien à poster
Partager sur d’autres sites

En résumé tu me redis ce que j'ai montré entre une étoile centrée sur un pixel et sur cette étoile à cheval sur 2 ou 4 pixels consécutifs dans le tableau d'échantillonnage K.

Je le redis seul l'échantillonnage change entre une caméra couleur et une caméra mono (4 fois mois de pixels pour le R et B).

Avec un échantillonnage suffisant de la PSF (équivalent à celui du mono) , le résultat est fidèle et est le même en barycentre, en photométrie ...

( Contre exemple à ton raisonnement : Sur un capteur réel il y a toujours un espace noir entre chaque pixels. Un mesureur de front d'onde à micro lentilles ou un Shack Hartmann sont constitués de trous séparés  dans un plan et cela n'empêche en rien de reconstituer le front-d'onde). L'ensemble par exemple des pixels rouges "séparés"  reste fidèle à l'image dans le plan focale si l'échantillonnage est suffisant.

C'est le problème depuis le début du post, quel doit être l'échantillonnage pour que la série d'images restitue la résolution du télescope si les conditions atmosphérique le permet.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Je vais faire un peu neuneu mais il est vrai qu'à partir de la question simple du titre du sujet : ça a été largement couvert.

Mais la question va plus loin, je reformule pour essayer de comprendre si on est exhaustif à ton besoin.

J'utilise mes mots mais ce n'est pas obligatoire.

 

Citation

Est ce que l'on perd en résolution avec une matrice de bayer ?

oui

Le 14/12/2019 à 15:43, jldauvergne a dit :

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot.

c'est approximatif mais assez réaliste quand on est à la limite des paramètres d'acquisitions : on tire ces derniers jusqu'à réduire le signal/bruit jusqu'au minima de quantification

 

Image one shot :

les paramètres divers du "one shot" en cam couleur : temps de pose, ratio f/D (corrélée avec luminosité et résolution), gain, taille de photosite, type de matrice (RGGB pour la plupart)...

En bref, on arrive à un jeu de paramètres fondamentaux, je pense 3 : 

quantité de signal (entropie d'information : intensité et symbôle)

résolution

bruits (électronique et optique : turbulence, qualité instrumentale) 


L'empilement :

La position effective du signal déplacé par l'effet de turbulence peut être recalé sur l'image par le procédé du drizzle, principe de reconstruction de sous-pixels manquants ou virtuels

C'est l'exploitation statistique par calcul de la position moyenne de chaque élément d'information qu'on a pu corréler avec son voisin de la pile (de l'image précédente ou suivante) 

C'est issu d'un paramètre qui est orthogonal (partiellement indépendant) des autres paramètres, il est amené par la quantité d'image.

 

Apparté : c'est efficace, on utilise ce même type de corrélation sur les codecs vidéo pour approximer la reconstruction d'une image (HEVC fait de la prédiction de mouvement, jusqu'au sous-pixel)

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

 

Pour l'amélioration de la résolution d'une pile de photo astronomique, ce procédé doit apporter une amélioration. Le chiffrer reste compliqué, c'est l'exploitation d'un phénomène statistique dont on a pas encore décrit les meilleurs comportements. (PEC de la monture, image glissante, adaptation à la turbulence ?)

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 5 minutes, lyl a dit :

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

Oui je suis d'accord sur l'ensemble de ta présentation.

Mais parce qu'il y a un mais, en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

En astro image HR planétaire on veut atteindre les limites de l'optique, acquérir la PSF qui n'est que la transposée de l'ouverture du télescope. Et dans ce cas seul l'échantillonnage suffisant permet l'acquisition de l'information.

Après des outils d'interpolation entre pixels peuvent aider. Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, CPI-Z a dit :

en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

Oui

Il y a 4 heures, CPI-Z a dit :

Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Oui, l'idéal est de tenter au mieux de la précision mais être sûr d'être au bon niveau de signal/bruit c'est pas simple : le temps tourne et le choix est à faire pour une longue durée d'acquisition avec des variables qui peuvent changer en cours de route comme la turbulence.

L'idée est de disposer de l'outil qui permet de pousser plus loin, si nécessaire. Une fois l'acquisition faite, on peut être un peu à côté de la résolution optimale.

C'est sans prétention mais pour les perfectionnistes, ça peut faire pencher la balance dans le cas de conditions qui échappent à notre contrôle.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 17 heures, CPI-Z a dit :

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

 

En fait, quand tu fait un split_CFA tu retrouve une image 4x plus petite, donc si tu la traite classiquement, autant faire du super-pixel (la matrice de bayer en un pixel), tu aura le même résultat.

Traiter en drizzle (avec le bon facteur x2) dans ce cas permet de retrouver la résolution native des photosites ... comme avec une matrice mono tel que souhaité par JLD.

 

Marc

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Et attention, tu récupère également 2 "images" vertes qu'il faut traiter séparément (spatialement c'est important).

 

Toujours marc

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 18/12/2019 à 14:10, jldauvergne a dit :

La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290

Mon projet là dessus avance et a pas mal évolué, je vais présenter un design "abouti" sur le forum dans quelques temps ;)

Dans les caméras à faible tirage, tu as aussi les qhy5III290M qui sont du niveau de la 290 mini. Tu peux même dévisser le pas de vis en monture cs pour faire apparaitre le capteur "à nu"...

Après la largeur du "boitier caméra" limite de toutes façons le rapprochement maximal possible entre les capteurs. 

Modifié par Roch
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Un essai de 2 modes différents de bayer-drizzle (images zoomées à 400%)

Les images viennent d'un A7s et sampang 135mm à f/2

Le plus "doux" est le mode bayer-drizzleavec réglages de base que l'on trouve assez souvent.

L'autre est optimisé en résolution mais avec une perte en S/B

Bien entendu, l'empilement normal en VNG est pire en résolution... 

 

bayerdrizzle2.gif.f73a7dc0cc9cd76c98f299bfea2add54.gif

  • J'aime 3
  • Triste 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par ndesprez
      Question simple : comment ça fonctionne ? Quelle différence technologique
      avec une Barlow ?
    • Par Gilles Pascal
      Bonjour,
       
      ayant récemment testé un objectif photo 500mm stabilisé, j'ai été impressionné par le résultat.
      Je me prends alors à imaginer un montage à lentilles stabilisées, qui viendrait s'insérer dans le chemin optique d'une lunette astronomique, de façon à pouvoir l'utiliser à main levée...
       
      Mais la question est : comment faire ? Est-ce seulement envisageable ?
      Certains parmi-vous ont déjà imaginé/envisagé une telle réalisation ?
      Quel groupe de lentilles faut-il implanter dans le chemin optique ?
      Trouve-t-on des modules tout-faits (lentilles, capteurs, moteurs) pour pouvoir les monter soi-même dans des prototypes d'étude ?
       
      Je détaille ci-dessous tout le cheminement qui m'a conduit à cette réflexion (je devrais plutôt dire transmission  ;o)
       
       
      1) Mes prises de vues avec le 500mm
       
      Ma config :
      Zoom Nikon 200/500mm FD5.6,  réglé à 500mm.
      Autofocus ON
      Plage de mise au point : limitée
      Stabilisateur : ON
      Boitier : D7200 Nikon
      Multiplieur de focale : 1.4
      Focale résultante : 700mm
      FD résultant : 8. à cette valeur, on est à la limite de ce que l'autofocus peut accepter. Il se peut qu'il ne fonctionne pas bien. Et en effet, les prises de vues vont le confirmer.
      De plus comme le boîtier est au format DX, on peut alors considérer que la focale finale obtenue est de 1.5 * 700 soit 1050mm.
       
      Objet photographié : lune du 17 Avril
       
      Réglage boitier :
      ISO fixe : 100
      Vitesse : 1/80s
      Format : RAW
       
      Prise de vue : à main levée bien-sûr
      Heure : 21h20
      Orientation : lune très haute dans le ciel. L'appareil est donc en visée presque verticale, ce qui n'est pas très agréable.
       
      Mais le maintien dans l'axe de la lune est sans doute plus facile que si la visée était horizontale, car le bras gauche qui soutient l'objectif par l'avant, n'a pas à exercer un couple de rappel trop important. En visée horizontale le couple de rappel serait beaucoup plus important et ajouterait davantage de micro-mouvements que devrait compenser le stabilisateur de l'objectif.
       
      Par contre  en visée verticale, la main droite qui tient le boîtier et dont l'index appuie sur le déclencheur, doit supporter tout le poids de l'appareil et rester souple pour ne pas provoquer de crampe par exemple.
       
      J'ai pris 27 images à main levée.
       
      a) Plusieurs problèmes constatés lors de la prise de vues
       
      - la mise au point est très laborieuse : l'autofocus est vraiment à la peine. Lors de l'appui à mi-course du déclencheur, l'autofocus fait de nombreux va-et-vient. Mais lorsque soudainement la mise au point est bonne, j'appuie alors vigoureusement pour prendre la vue. Parfois cela prend plus de temps pour certaines vues.
      Évidemment je pourrais éliminer ce défaut en retirant le multiplieur 1.4. Mais dans ce cas je réduirais aussi la résolution atteinte.
       
      - Tentative de prise de vue en live view : on suit l'image alors directement sur l'écran arrière du boîtier.
      Problème : on n'est pas capable d'apprécier aussi bien la mise au point qu'à travers le viseur optique. Des vues sont floues, il faut alors les rejeter.
       
      Autre possibilité : On bloque la mise au point en manuel.
      Malheureusement elle bouge légèrement. Je pense que je n'ai pas encore bien la maîtrise de ce zoom qui requiert un certain apprentissage.
       
      L'autre souci dans ce type de prise de vue, ce sont les sollicitations importantes que subit la mécanique du boitier. J'aurais pu prendre 100, voire 300 images, mais l'idée n'est pas de faire usage du boîtier Nikon comme d'une caméra astro pour le planétaire, comme on fait en prenant des centaines d'images. Car on éprouverait alors sérieusement la mécanique de l'obturateur et du miroir.
       
      b) Traitement :
      i) PIPP
      - Cropp avec centrage sur lune pour réduire la taille des images.
      - export en Tif pour traitement ensuite dans Autostakkert 3.
       
      ii) Autostakkert :
      - drizzle : 3x
      - dans la fenêtre de visualisation, en passant en revue les 27 images, on voit qu'il y a de la rotation de champ, car à main levée, on bouge imperceptiblement. Et cela se voit parfaitement dans Autostakkert. L'avantage avec Autostakkert, c'est qu'il est justement capable de compenser la rotation de champ entre chaque vue. Un régal de la savoir à l'avance.
      - toutes les images sont conservées.
       
      iii) registax 6
      Wavelets :
      - réhaussement des contours
      - contraste et luminosité
      Résultat : voir image.
       
      c) Mes impressions :
      - mise en place du setup : 5mn
      - Prise de vue assez tranquille et même excitante car on se dit qu'en si peu de temps de mise en place, on est alors déjà en capacité de saisir un phénomène, ce qui est un exploit avec une focale résultante de un peu plus d'1m. Je me dis alors que je vais attendre le passage d'un avion. Mais malheureusement, après environ 20mn d'attente, les avions me narguent tous en passant parfois tout près, mais jamais devant la lune.
       
      Le traitement avec seulement 27 vues est très satisfaisant. Mais pas à la hauteur de ce que l'on pourrait avoir si l'on avait plusieurs centaines de vues.
       
      En contemplant l'image finale, je voie quand même que je suis bien loin de ce que pourrait faire un tube de 90mm d'ouverture et 1m de focale.
      Mais pour un premier essai c'est déjà satisfaisant.
       
      J'imagine alors une caméra astro montée en lieu et place du boitier Nikon D7200.
      Mais peut-être qu'avec un peu d'entraînement, je devrais pouvoir améliorer l'utilisation du mode live view.
      En lisant le manuel du boitier D7200, je voie qu'en mode miroir relevé, l'autofocus ne fonctionne plus. Il faut donc parvenir à bien verrouiller la mise au point une fois pour toutes aussi.
       
      Je me dis que la solution idéale consisterait à reproduire la mécanique du stabilisateur du Zoom 200/500, dans un tube optique dédié pour l'astro.
       
       
      2) Conception d'un tube optique stabilisé
       
      Une lunette est constituée d'un objectif et d'un oculaire.
      Comment parvenir à stabiliser l'image dans le chemin optique d'un tel instrument ?
       
      Le stabilisateur optique fonctionne comment ?
      Sur le site "les numériques" un schéma montre le principe implémenté dans les objectifs photos nikon :
      https://www.lesnumeriques.com/photo/la-stabilisation-pu101497.html
       
      Extrait :
       
      "C’est le procédé le plus ancien. Il est apparu avec le Nikkor VR 38-105 mm f/4-7,8 en 1994, suivi l’année d’après par le Canon EF 75-300 mm f/4-5,6. Deux gyromètres piézo-électriques détectent les vibrations, et une lentille flottante qui leur est asservie se déplace perpendiculairement à l’axe optique pour rétablir la fixité de l’image.
       
      Ce type de système a depuis connu des progrès importants, par exemple pour permettre de supprimer les vibrations lorsqu’on suit un sujet en mouvement.
       
      Dans ce cas, les capteurs différencient les mouvements volontaires des trépidations qui ne le sont pas, et adaptent en conséquence la stabilisation.
       
      Cette différenciation est évidemment indispensable pour un appareil tenue à main levée. Celle-ci était moins efficace sur les premiers objectifs stabilisés, le gain de stabilité était ainsi moins important.
       
      Le système anti-bougé des zooms Fuji de la série X comme le 18-55 mm ou le 40-150 mm est destiné à supprimer à la fois les vibrations rapides de l’appareil et les mouvements involontaires un peu plus amples, tout en ignorant les mouvements volontaires que le photographe veut imprimer à son appareil, par exemple pour suivre un sujet qui se déplace. Illustration *
      Les objectifs stabilisés sont maintenant bien au point, de telle sorte qu’ils se sont imposés. Ce qui ne veut pas dire qu’ils soient sans inconvénients par rapport aux objectifs classiques… lorsque ces derniers sont encore en vente. Ils sont un peu plus fragiles, nettement plus lourds et plus encombrants que leur équivalents non stabilisés. On perd aussi, dans le cas de certains zooms, un bon demi-diaphragme sur la plus longue focale. Ils sont également un peu plus chers. C’est bien entendu dans le cas des téléobjectifs que la stabilisation est la plus intéressante."
       
       
      Merci de vos retours,
      Gilles
       


    • Par AlSvartr
      Hello,
       
      Je suis en train de faire le reverse engineering du coro de 160 Valmeca, et je pense que les doublets (lentilles de transfert) ont une focale trop courte (300mm) par rapport à celle de la lentille de champ (290mm). Ce n'est pas un énorme drame mais ça fait que le diaph de Lyot ne peut pas être positionné de manière optimale. Pour le dire autrement le coro fonctionne mais il y a moyen de faire mieux, surtout avec un filtrage large bande.
       
      Idéalement il faudrait des doublets ayant une focale un peu supérieure à 400mm. Le hic: elle ont une diamètre de 31.5mm. Est-ce que quelqu'un connaît des fabriquants d'optiques dans ce diamètre?
      Sinon je peux toujours faire faire un adaptateur pour mettre des doublets en 25.4mm, mais je ne sais pas encore si cela est rédhibitoire en terme de champ de pleine lumière.
       
      Merci,
       
      Simon
    • Par Gucky
      Hello a tous,
      Je suis en recherche d'un materiel (jumelles)  correctes
       
      J'ai ici une liste de ce que je souhaite prendre et aimerais avoir votre avis svp.
      https://www.astroshop.de/fr/instruments/jumelles-ts-optics-25x100-wp/p,49768
      https://www.astroshop.de/fr/plateaux-rails-de-support/omegon-180mm-rail-a-prisme-avec-vis/p,43766
      https://www.astroshop.de/fr/montures/omegon-monture-a-fourche-pour-grandes-jumelles/p,54299
      https://www.astroshop.de/fr/en-bois/trepied-en-bois-berlebach-report-322-3-8-/p,77947
      https://www.astroshop.de/fr/smartphone-et-pinces-pour-imagerie/celestron-support-de-smartphone-nexyz/p,58298
      https://www.astroshop.de/fr/filtres-a-bande-large/omegon-filtre-anti-pollution-lumineuse-31-75-mm/p,15629
      https://www.astroshop.de/fr/filtres-lunaires-filtres-polariseurs/omegon-filtre-lunaire-1-25-/p,5085
       
      Est ce que par exemple le trepied choisi est suffisant pour supporter facilement jumelles  +  monture a fourche ?
      Le trepied va t'il bien s'adapter a la fourche ? et la fourche aux jumelles ?
       
      Merci pour vos retours
      Loic
    • Par lebras53
      Bonjour les amis,
       
      Je rencontre quelques problèmes dans le résultat obtenu avec mon C8 Edge HD et ma caméra ASI2600 MC Pro. J'utilise l'assistant NINA pour réaliser les offsets et les flats en mettant une valeur moyenne pour le flat à 43000. J'obtiens le master flat suivant :

       
      Ensuite j'empile les darks et je traite les lights avec le master dark et le master flat. Après empilement, j'obtiens un master avec un énorme halo vert au milieu. Comme cela :

       
      Je peux faire partir ce halo au traitement mais je pense qu'il y a un probleme. Qui pourrait m'aider ?
       
      Merci par avance. Guy
  • Évènements à venir