jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Messages recommandés

il y a 26 minutes, patry a dit :

commande split_rgb de mémoire

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

[a] étant l'image qu'avec les pixels rouges, [d] qu'avec les pixels bleus, [c] avec les pixels verts.

Cela implique des traitements indépendants des séries rouge et bleu. Pour le vert je pense qu'il est préférable d'utiliser la série verte extraite d'un dématriçage  car je ne vois pas comment reconstituer l'image verte à partir des 2 fichiers [c].

La reconstitution se fait avec > merge_cfa [c1] [c2] [c3] [c4] ou  > merge_cfa2 [a] [c] [d] [sortie] [nombre] pour une série.

Là au moins il n'y aurais pas d'approximation pour le rouge et bleu.

 

Dans ce cas on retrouve bien la conversion de l'échantillonnage entre la couleur et le NB comme je l'avais expliqué

Il y a 17 heures, CPI-Z a dit :

Pour une caméra couleur on peut dire que les pixels rouge ou bleu sont de 1 sur 4, soit 25% par rapport à une caméra NB. Pour une QHY 5L-II c entre le vert et le bleu il y a un rapport de longueur d'onde 460/550 = 0.83.  Si K = 5 pour le NB on obtient un équivalent de K = 5*0.83*25% = 1.04

Pour le rouge on passe à 610/550 = 1.11,   K devient 5*1.11*25% = 1.13

Pour le vert K devient 5*1*50% = 2.5

Ce type de calcul donne l'échantillonnage couleur réel par rapport à un échantillonnage NB du tableau K.

On peut trouver le bon échantillonnage pour qu'une caméra couleur corresponde à l'échantillonnage NB choisi, donc son équivalent en résolution.

 

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 18 minutes, patry a dit :

Cela devrait bien donner le même résultat que le bayer drizzle

Je ne pense pas vu que ce n'est pas le même algo. Enfin j'ai l'impression. Moi ce que j'imagine du fonctionnement du Bayer Drizzle c'est que tu prends l'info là où elle est quand tu l'as. La première photo de ton stack B par exemple, c'est une image à trou avec 1/4 des pixels renseignés, et la suivante si la planète s'est décalée de 1 pixel par exemple, tu as l'infos du pixel d’à côté. Au bout de 4 images stackées si on s'est déplacé à chaque fois d'un pixel pour couvrir le carré 2x2, on a l'info B complète sans bricolage à l'échelle 1 pixel par photosite. Là où c'est peu efficace en bruit c'est qu'il faut au moins 4 photos pour reconstruire une couche. Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp ! Au contraire, une débayerisation classique nous donne la couche B immédiatement mais peu résolue. 

En suivant ta logique, on partirait d'une image B par exemple interpolée, avec donc une information partiellement inventée (de façon intelligente, mais inventée). Intuitivement ça ne me semble pas saint de partir de là. Ce qui pourrait marcher peut être pour les B et R, c'est faire une réduction 2x2 sans aucune interpolation, juste en créant une image dans laquelle les pixels V et R on été supprimés. Faire du Drizzle classique là dessus ça fonctionne peut être (mais je ne suis pas certain vu que le barycentre du photosite bouge d'une image à l'autre, c'est donc potentiellement merdique). Le problème de cette stratégie c'est quand tu arrives à la couche verte, il n'y a pas vraiment de moyen de réduire l'image sans la bricoler, un binning 2x2 contraint à faire la moyenne des 2 pixels verts, est ce que l'on ne perd pas bêtement de l'information spatiale ?
Enfin tout ça pour dire que le Bayer Drizzle est à mon avis plus dans la logique de ce que je décris. Sa faiblesse c'est que les couche B et R sont forcément très bruitées par rapport à V. Mais une fois que l'on a cette info là il y a moyen d'optimiser l'image en synthétisant un L dans laquelle le poids de B et R est minoré par rapport à V.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 33 minutes, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y. 
Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

Après ce qui m'importait avec ce fil c'est d'avoir une réponse à la question, c'est juste de la curiosité intellectuelle. Ce que je retiens c'est qu'en débayerisation classique on a bien perte de résolution même après stacking. Pour contourner ça la seule solution serait que AS3 implémente une fonction de Bayer Drizzle, ce que l'on peut souffler à Emil (ceci dit si quelqu'un a une documentation de la fonction pour être certain de son fonctionnement ce serait intéressant). 
Après à titre perso, perdre en résolution avec ma caméra couleur franchement ça m'importe peu vu que je ne mise pas sur elle pour sortir les plus fins détails. Et quand bien même si on pouvait utiliser ces caméras couleur sans perte de résolution je continuerais à faire du N&B pour la cadence de prise de vue et les images spéciales (UV, CH4, IR, etc). 

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, jldauvergne a dit :

la seule solution serait que AS3 implémente une fonction de Bayer Drizzle

 

Tu as parfaitement raison là-dessus, je ne sais pas comment fonctionne le drizzle qu'il propose. De toute façon il faut lui poser la question, je n'en ai pas été satisfaite.

 

Je ne l'utilise pas car je n'ai pas exploré : je fais plutôt du lunaire avec un instrument de taille modérée et je passe par le principe du super-pixel à gros f/D comme dis plus haut (empilement par canal) ou du classique interpolation (comme dans DCraw)

 

Mais comme tu tires sur un objet moins éclairé, le signal sur bruit est à la limite, tu peux y gagner en baissant le sur-échantillonnage.

 

Après malheureusement, je ne sais pas comment procède Winjupos savoir si tu peux combiner.

 

Il y a une explication du comment procéder pour la dérive naturelle mais je suppose qu'il lui faudrait l'algorithme :

 

BayerBruine.JPG.fd8651c142cf87f30bb961093a945f44.JPG

 

-----------------------

une autre explication qui est sur ASTAP.

 

Citation

Bayer drizzle, no interpolation but large amount of images are required. The raw image is coloured depending on the Bayer pattern and used in stacking. When sufficient images are stacked and there is some natural drift each position will get red, green or blues values averaged. For good stack result at least 100 images are required and the sky background and transparancy should be stable.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu.

Pas du tout. Je crois que l'on sait mal compris.

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, CPI-Z a dit :

C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

> split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

 

Mais c'est bien sur : split_cfa et pas split_rgb, merci CPI-Z.

 

il y a une heure, jldauvergne a dit :

Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp !

 

Oui c'est pour cela qu'il faut beaucoup d'images en drizzle. D'une part pour remplir statistiquement les trous (et on ne maîtrise pas vraiment les déplacements en astro, cela se fait en photo directement depuis les capteurs montés sur des piezzos) et d'autre part car le but second sera d'améliorer le rapport S/B pour préparer au filtrage. Donc on est parti là pour accumuler des milliers (des dizaines de milliers ?) d'images. Cela ne se conçoit QUE pour de très très belles séances pour moi. Dans ces cas là, le drizzle permet de gratter un peu, mais sinon tu aura une super-résolution mais pas assez de S/B pour appliquer les ondelettes (ou tout autre filtre de contraste) sinon à ruiner le résultat.

 

il y a 59 minutes, jldauvergne a dit :

On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y.

 

En fait c'est plus compliqué car si tu peux faire effectivement la séparation avant tout autre traitement, s'assurer que les décalages seront identiques (ils devraient) sur tous les flux est une gageure.

 

il y a une heure, jldauvergne a dit :

Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

 

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

 

Là encore, c'est beaucoup de boulot qui ne se conçoit que pour nos plus belles séances.

Dommage qu'on ne puisse pas facilement scripter tout ça car si on doit faire : la séparation CFA (IRIS), la dérotation de chaque flux (winjupos), les traitements (AS!3) la recombinaison ... même avec des grosses machines (i7 pour moi dans une tour, pas un portable), c'est beaucoup de temps !

 

Marc

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, patry a dit :

en espérant que les décalages seront identiques

Non, moi j'ai toujours traité chaque couleur séparément pour obtenir les meilleurs résultats finaux.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 4 minutes, patry a dit :

En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

 

à vérifier, je ne retrouve pas ma lecture la dessus.

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 11 minutes, CPI-Z a dit :

La fonction split_CFA sépare purement les images brutes RAW en fichiers indépendants . Cela n'empêche en rien les post-traitement flat, bruit alignement ... avec tes outils favoris dont AS3.

Je comprends bien oui, mais la difficulté, c'est qu'il ne s'agit pas uniquement d'isoler les couches, il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique. Chose peut être possible dans Iris tellement c'est une boîte à outils, mais impossible dans AS3 qui est une boîte noire (sans connotation péjorative de ma part).

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, lyl a dit :

Il me semble que le bayer drizzle fait une estimation globale du drift de chaque image (en tenant compte de tout RGGB), c'est ce qui fait sa force.

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs, le fichier d'alignement est issu d'une analyse des images dématricées à l'ancienne. En ciel profond c'est relativement simple c'est une série de x,y, en planétaire avec la turbu c'est plus poilu. 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, jldauvergne a dit :

il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique.

"images issues d'un dématrissage classique" : NON pas besoin.

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ? Tu peux même faire le traitement final par ondelettes sur chaque image NB correspondant à 1 couleur.

Comment tu alignes des images NB avec AS3, et bien c'est la même chose ...

 

Après tu alignes les 3 images résultats pour obtenir l'image finale couleur.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, jldauvergne a dit :

Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs

Ok, le terme dématriçage est tellement teinté d'utilisation de l'interpolation que je suis passée à côté de ce qu'il a écrit. C'est la raison de mon retour historique sur le super-pixel qui est un terme modernisé pour LE PIXEL d'origine.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, CPI-Z a dit :

Pourquoi ne voudrais-tu pas traiter séparément les 3 couleurs jusqu'à AS3 ?

Je viens de regarder, je n'avais pas pigé qu'il réduit la taille des images avec la fonction split. Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique.  Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème. C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler. Mais ce que tu dis serait à tester dans tous les cas. 

 En tout cas comme dit @patry ça peut difficilement rentrer dans une production de flux. Sur une bonne nuit on a 50 Go, on arrive à bout de cette pile uniquement par l'automatisation (mais on revient parfois s'acharner sur quelques vidéos en particulier pour en sortir la quintessence). 

Partager ce message


Lien à poster
Partager sur d’autres sites

Au moins, avec un capteur Foveon, on ne se pose pas la question ;)

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, Jijil a dit :

Au moins, avec un capteur Foveon, on ne se pose pas la question

Si seulement il y avait la sensibilité et le bruit de lecture qui va avec :) 
La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290 :)
Avec le prix des capteurs qui diminue, le retour au tri capteur mériterait d'être considéré. On a eu d'abord du tri-ccd car les capteur étaient tellement mauvais que c'était un gros levier d'amélioration. 

La solution reste quand même difficile en terme de tirage, on a déjà du mal à intégrer proprement les ADC et les roues à filtres, ... En partant de f/12 en ce qui me concerne j'ai cherché les caméras qui ont le moins de tirage. Altair pour l'imx224 et ZWO mini pour le 290.
Et puis en vrai perso je n'ai pas de problématique, la stratégie de séquence de prise de vue IMX224 puis IMX290  puis de nouveau IMX 224 fonctionne très bien et permet de profiter du meilleur des 2 mondes entre capteur couleur et monochrome. Vive Winjupos, quel bonheur ce soft !

  • J'adore 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, jldauvergne a dit :

Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

Rappel : La fonction split_CFA sépare une image RAW en 4 fichiers RVVB.

Si au départ ton RAW fait 100x100 pixels chaque image mono ne fait donc que 50x50 pixels en respectant la géométrie de chaque couleur au pixel près.

Il créé la brut de chaque couleur correspondant à ce que le capteur à capturé.

 

il y a 35 minutes, jldauvergne a dit :

 Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème.

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

 

il y a 35 minutes, jldauvergne a dit :

C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).

Avec split_CFA là on est en un vrai x1. Seul l'échantillonnage change comme je te l'ai expliqué par rapport à un capteur MONO pour un même F/D.

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 9 minutes, CPI-Z a dit :

Là c'est la même chose en traitement classique d'une série issue d'une caméra mono. Je ne vois pas où ce serait différent quelque soit le choix, et surtout si tu debayerises dans la chaine  avec forcément une interpolation géométrique.

Dans la zone 4x4 pixels avec un seul pixel sensible à notre filtre, le signal est différent selon le coin du carré où on se trouve, en ça c'est très différent d'un binning 2x2. Si tu prends un exemple extrême avec un système sous échantillonné visant des étoiles par exemple. Une étoile donné sera visible sur certaines trames et pas sur d'autres. Tu auras aussi tout un cas de cas intermédiaires avec l'étoiles à cheval du pixel sensible avec le signal partagé avec le pixel d'à côté, ... où il n'y a pas de récepteur. 
Photométriquement c'est la cata, et même astrométriquement calculer le baycentre à partir de ça, ça me semble hasardeux. Donc faire du drizzle à partir de cette info de mauvaise qualité, est ce que ça peut vraiment donner quelque chose de bon ? Intuitivement j'ai l'impression que faire ça, c'est assez analogue à faire du drizzle à partir d'un dématrissage classique.
Le drizzle fonctionne fonctionne parce que lorsqu'une étoile est à cheval sur 2 pixels tu le détectes, tu as bien une réponse des deux pixels, et c'est bien ce qui permet de déduire ce qui se passe à l'échelle sub-pixel. 

 

il y a 17 minutes, CPI-Z a dit :

En débayerisation tu n'est pas à l'échelle 1x, tu est à x2 puisqu'il y a justement des trous entre les pixels d'une même couleur (au moins pour le R et le B. Pour le V c'est 2 sur 3).


Tu m'as peut être mal compris, je ne parle pas de débayerisé  dans ce cas. Je parle d'une couche bleue basée sur l'image CFA sur laquelle on passe à 0 rouge et vert. 

La planète se déplace, donc l'information réelle de ce qui se passe dans tes trous tu finis par l'avoir vraiment, tu bouches les trous avec la vraie information au fur et à mesure. Sur le papier c'est simple et c'est propre, on génère bien une image à l'échelle x1 avec la vraie information de cette échelle. Dans la pratique sur des images de ciel profond j'ai l'impression que c'est ce que fait PixInsight, mais en planétaire c'est plus compliqué à appliquer à cause de la turbu (et concrètement du manque de logiciel approprié).

Partager ce message


Lien à poster
Partager sur d’autres sites

En résumé tu me redis ce que j'ai montré entre une étoile centrée sur un pixel et sur cette étoile à cheval sur 2 ou 4 pixels consécutifs dans le tableau d'échantillonnage K.

Je le redis seul l'échantillonnage change entre une caméra couleur et une caméra mono (4 fois mois de pixels pour le R et B).

Avec un échantillonnage suffisant de la PSF (équivalent à celui du mono) , le résultat est fidèle et est le même en barycentre, en photométrie ...

( Contre exemple à ton raisonnement : Sur un capteur réel il y a toujours un espace noir entre chaque pixels. Un mesureur de front d'onde à micro lentilles ou un Shack Hartmann sont constitués de trous séparés  dans un plan et cela n'empêche en rien de reconstituer le front-d'onde). L'ensemble par exemple des pixels rouges "séparés"  reste fidèle à l'image dans le plan focale si l'échantillonnage est suffisant.

C'est le problème depuis le début du post, quel doit être l'échantillonnage pour que la série d'images restitue la résolution du télescope si les conditions atmosphérique le permet.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Je vais faire un peu neuneu mais il est vrai qu'à partir de la question simple du titre du sujet : ça a été largement couvert.

Mais la question va plus loin, je reformule pour essayer de comprendre si on est exhaustif à ton besoin.

J'utilise mes mots mais ce n'est pas obligatoire.

 

Citation

Est ce que l'on perd en résolution avec une matrice de bayer ?

oui

Le 14/12/2019 à 15:43, jldauvergne a dit :

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot.

c'est approximatif mais assez réaliste quand on est à la limite des paramètres d'acquisitions : on tire ces derniers jusqu'à réduire le signal/bruit jusqu'au minima de quantification

 

Image one shot :

les paramètres divers du "one shot" en cam couleur : temps de pose, ratio f/D (corrélée avec luminosité et résolution), gain, taille de photosite, type de matrice (RGGB pour la plupart)...

En bref, on arrive à un jeu de paramètres fondamentaux, je pense 3 : 

quantité de signal (entropie d'information : intensité et symbôle)

résolution

bruits (électronique et optique : turbulence, qualité instrumentale) 


L'empilement :

La position effective du signal déplacé par l'effet de turbulence peut être recalé sur l'image par le procédé du drizzle, principe de reconstruction de sous-pixels manquants ou virtuels

C'est l'exploitation statistique par calcul de la position moyenne de chaque élément d'information qu'on a pu corréler avec son voisin de la pile (de l'image précédente ou suivante) 

C'est issu d'un paramètre qui est orthogonal (partiellement indépendant) des autres paramètres, il est amené par la quantité d'image.

 

Apparté : c'est efficace, on utilise ce même type de corrélation sur les codecs vidéo pour approximer la reconstruction d'une image (HEVC fait de la prédiction de mouvement, jusqu'au sous-pixel)

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

 

Pour l'amélioration de la résolution d'une pile de photo astronomique, ce procédé doit apporter une amélioration. Le chiffrer reste compliqué, c'est l'exploitation d'un phénomène statistique dont on a pas encore décrit les meilleurs comportements. (PEC de la monture, image glissante, adaptation à la turbulence ?)

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 5 minutes, lyl a dit :

L'écart d'efficacité a été démontré phénoménal entre H264 et HEVC (x2 en taux de compression)

Oui je suis d'accord sur l'ensemble de ta présentation.

Mais parce qu'il y a un mais, en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

En astro image HR planétaire on veut atteindre les limites de l'optique, acquérir la PSF qui n'est que la transposée de l'ouverture du télescope. Et dans ce cas seul l'échantillonnage suffisant permet l'acquisition de l'information.

Après des outils d'interpolation entre pixels peuvent aider. Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, CPI-Z a dit :

en vidéo cinéma, télévision ou one shot avec un APN on est souvent sous échantillonné justement pour avoir une image la plus nette possible et agréable à l’œil.

Oui

Il y a 4 heures, CPI-Z a dit :

Cependant au départ il me semblait qu'on voulait être le plus fidéle possible dès le départ, justement pour écarter ces outils d'interpolation. 

Oui, l'idéal est de tenter au mieux de la précision mais être sûr d'être au bon niveau de signal/bruit c'est pas simple : le temps tourne et le choix est à faire pour une longue durée d'acquisition avec des variables qui peuvent changer en cours de route comme la turbulence.

L'idée est de disposer de l'outil qui permet de pousser plus loin, si nécessaire. Une fois l'acquisition faite, on peut être un peu à côté de la résolution optimale.

C'est sans prétention mais pour les perfectionnistes, ça peut faire pencher la balance dans le cas de conditions qui échappent à notre contrôle.

 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 17 heures, CPI-Z a dit :

Pourquoi du Drizze?

La fonction merge_CFA te recombine en x1 couleur.

 

En fait, quand tu fait un split_CFA tu retrouve une image 4x plus petite, donc si tu la traite classiquement, autant faire du super-pixel (la matrice de bayer en un pixel), tu aura le même résultat.

Traiter en drizzle (avec le bon facteur x2) dans ce cas permet de retrouver la résolution native des photosites ... comme avec une matrice mono tel que souhaité par JLD.

 

Marc

 

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Et attention, tu récupère également 2 "images" vertes qu'il faut traiter séparément (spatialement c'est important).

 

Toujours marc

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 18/12/2019 à 14:10, jldauvergne a dit :

La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290

Mon projet là dessus avance et a pas mal évolué, je vais présenter un design "abouti" sur le forum dans quelques temps ;)

Dans les caméras à faible tirage, tu as aussi les qhy5III290M qui sont du niveau de la 290 mini. Tu peux même dévisser le pas de vis en monture cs pour faire apparaitre le capteur "à nu"...

Après la largeur du "boitier caméra" limite de toutes façons le rapprochement maximal possible entre les capteurs. 

Modifié par Roch
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Un essai de 2 modes différents de bayer-drizzle (images zoomées à 400%)

Les images viennent d'un A7s et sampang 135mm à f/2

Le plus "doux" est le mode bayer-drizzleavec réglages de base que l'on trouve assez souvent.

L'autre est optimisé en résolution mais avec une perte en S/B

Bien entendu, l'empilement normal en VNG est pire en résolution... 

 

bayerdrizzle2.gif.f73a7dc0cc9cd76c98f299bfea2add54.gif

  • J'aime 3
  • Triste 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Goofy2
      Bonjour   
       
      Une autre façon plus traditionnelle de réaliser la collimation. Cette méthode itérative est utilisée par plusieurs utilisateurs de Smart télescope Unistellar.
      Cette méthode est dérivée de la méthode que j'utilise pour collimater mes Schmidt-Cassegrain, mais à très fort grossissement et sur la tache d'Airy d'une étoile située sur l'axe de la chaîne optique.
       
      Nous réalisons une VA de 2 à 4 minutes dans la voie lactée (pour avoir un maximum d'étoiles sur le capteur) et on regarde la coma des étoiles sur tout le bord du champ de la capture, surtout dans les quatre coins (c'est l'endroit où la coma est la plus forte, car la plus éloignée du centre du capteur). Il est normal d'avoir de la coma sur les étoiles en bord de champ, car nos Smart Télescope ne possèdent pas de correcteur/aplanisseur de champ.
      Si la coma des étoile est homogène, de même intensité et pointent toutes en direction du centre du capteur: c'est collimaté, pas besoin d'ajuster la collimation Si ce n'est pas le cas, alors la collimation doit être ajustée (un ou deux bords de champ montrent une coma stellaire plus prononcées que le ou les bords de champ opposés et les coma ne pointent pas en direction du centre du capteur)  
      ----
      Ajustement de la collimation:
      Au préalable faites une bonne mise au point de l'optique avec le masque de Bahtinov fourni avec l'instrument.
      Faire un Goto sur une étoiles brillantes située dans la Voie Lactée (pour avoir un maximum d'étoiles sur le capteur et avoir une étoile centrale comme référence bien visible). Puis faire une VA de 2 minutes (ou plus). Analyser la coma stellaire en bord de champ sur la capture de la VA (ne pas hésiter à zoomer). Repérer le bord ou le coin qui présente la plus forte coma stellaire En vision temps réelle et uniquement avec les vis de collimation, déplacer l'étoile de référence située au centre du capteur en direction du bord ou du coin présentant la plus forte coma stellaire. L'amplitude du déplacement est fonction de l'amplitude de la décollimation. Puis avec les mouvements lents de l'application, replacer l'étoiles de référence au centre du capteur. Refaire une VA de 2 minutes (ou plus) et recommencer les étapes 2, 3 et 4 jusqu'à ce que la coma stellaire en bord de champ soit homogène, de même intensité et pointent toutes en direction du centre du capteur.  
      Il s'agit d'une méthode itérative.
      Bonne collimation...
    • Par Close-to-focus
      Salut à tous,

      voici quelques images faites au newton trusstube désaluminé skywatcher 150/750.
      Camera apollo-m mini (imx429) et mars-m en bin2 (imx290). avec barlow 2.7x, 4x, 5x.. et filtre continuum 8nm, des combinaisons qui me donnent un échantillonnage entre 0.40" et 0.24" suivant le montage.

      Je trouve que j'ai de meilleurs résultats avec un échantillonnage proche de 0.40", mais d'un jour à l'autre le seeing évoluant, pas sûr que mes "tests" soient cohérents avec la réalité.
      Les poses sont de l'ordre de la milliseconde, voire moins (ce matin j'étais à 0.5ms).

      J'image sous un ciel la plupart du temps plus ou moins voilé, ciel gris/bleu pour vous donner une idée (ce matin c'était bien bleu, mais plein de vent ), dans une cour ombragée mais située dans une (toute) petite ville, donc bitume et pavés à proximité.
      Je n'arrive pas à avoir plus de netteté, du coup je me demande si changer de setup pourrait améliorer mes images ou si mon ciel me limitera de toute façon.

      J’envisageais, à qualité optique égale, de passer sur un 200 / 1000, (en truss tube pour limiter le poids et la turbu interne), le max que ma monture devrait accepter de porter correctement.
      Mais vais-je gagner beaucoup en résolution?

      j'envisageais aussi la possibilité de rester sur mon diamètre de 150mm (vu mon ciel, est-ce bien utile d'augmenter le diamètre?) mais avec un miroir d'artisan (zen ottiche en fait en petits diamètres).

      Autre question : quel échantillonnage serait  le plus approprié sous un ciel moyen à bon?
      si je reste sur les valeurs théoriques d’échantillonnage (si j'ai bien calculé elle se situe autour de 0.25") les résultats ne sont pas top.

      merci à vous

      voici les photos en question:
      imx 429

       

       
      imx 290 bin2

       


       
    • Par Papy lulu
      Bonjour,  je débute,  la photo (M51) est le résultat de 261 fichiers empilés par le seestar S50 je présume que ce sont 261 prises de vues de 10" chacune.
      Bonne journée à tous.
      Papy lulu


    • Par BobSaintClar
      En direct du japon, je vous présente un compte-rendu succinct de mon week-end au Festival des étoiles d'Hoshi No Mura
       
      il s'agit d'un rassemblement annuel (premier WE de Juin suivant la nouvelle lune) se tenant dans un observatoire public posé dans les montagnes de la préfecture de Fukushima !
      Ceci dit, ladite préfecture est vaste et nous sommes loins de la côte : lors de ma première édition, avant les années Covid, j'avais emporté mon radiomètre : la radioactivité du site était parfaitement normale...
      Le séisme de 2011 a pourtant eut des conséquences dramatiques pour l'observatoire, j'y reviendrai.
       
      Commençons par présenter les lieux : nous sommes à 650m d'altitude, à 20km de la côte Est du japon, dans une région de moyenne montagne. De mon domicile, il faut compte trois heures de voiture. Sur place résident un observatoire, deux parkings, un restaurant, diverses boutiques et une grotte ouverte aux visiteurs.
      Sur la route menant au site, je reconnais un "magasin" déjà vu les années précédentes : il expose des sculptures religieuses, notamment...
       

      ... mais oui, des bites géantes en pierre (note : j'ai servi de modèle pour l'artiste )
       
      Le Site
       
      Sur place, deux parkings sont réservés aux astronomes amateurs : le premier, "en haut", est généralement préféré au second, "en bas", parce qu'il est moins parasité par les lumières de l'évènement.
      Je me suis installé sur le premier
       

       
      Kurita-san, un ami de club arrivé plus tard, a du se contenter du second :
       

      Nous sommes Vendredi après-midi, l'évènement n'a pas encore officiellement commencé, le parking est encore vide. J'ai pris cette image depuis le toit de l'observatoire. Notez l'impressionnante falaise, qui abrite plusieurs grottes !
       
      L'observatoire en question, le voici :
       

      Le bâtiment, coté gauche, propose des toilettes, un dortoir, quelques pièces réservées au staff et une boutique de souvenirs "astro". Au centre, vous avez un vaste hall dédié à l'exposition de différents matériels & objets. 
      L'espèce de tour carrée cache essentiellement un escalier en spirale permettant d'atteindre le toit ET le pont menant au télescope de 650 abrité sous la coupole.
      Sur le parvis, la plupart des exposants sont déjà installés.
      Vendredi après-midi, le ciel n'est guère rassurant...
       
      Au rez-de-chaussée (que les japonais appellent le premier étage, pour l'anecdote) de l'espèce de ziggourat qui soutient la coupole se trouve une exposition permanente :
       

      Et au-dessus - avant d'arriver au troisième étage (celui du télescope) - se trouve un planetarium. Voilà, vous avez fait le tour !
       
      Les exposants
       
      Le festival aux étoiles d'Hoshi No Mura est un évènement "classique" : les exposants y tiennent une place centrale !
      Les marques les plus connues sont représentées (Takahashi, Vixen, SVbony, etc) et l'on trouve beaucoup de matériels "occasion / exposition / fins de série" intéressants. Dès mon arrivée, je suis tombé sur une offre que je n'ai pas su refuser... un oculaire Morpheus de 9mm bradé à 27000 yens (ça fait 158 euros, au taux de change actuel). Bordel, il m'en faut un deuxième, maintenant 
       
      Je ne les ai pas tous pris en photo, je pense que vous savez à quoi ressemble un stand de marque :
       

      Avec la dépréciation du yen, les bonnes affaires sont légion ! Les binos Vixen BT80, qui ont plutôt bonne presse, sont ici à 235 euros...
       
      Lui, il a tout un stock de jumelles de randonnée, de loupes, de chercheurs 8x30 et de bordel divers (filtres, caches, boites à oculaires, etc.) à 59 centimes d'euro pièce 
       

      (Notez le poster d'un personnage Moe, nous sommes bien au japon...)
       
      Coté matos, je n'ai pas repéré grand-chose de spécial, d'original ou de vraiment nouveau... mais bon, je ne suis pas le mieux placé pour en juger : je ne m'intéresse guère qu'à l'équipement dédié au visuel. J'ai quand même vu deux-trois trucs que vous ne connaissez peut-être pas, ou pas encore ? 
      Voyons cela :
       
      Sur le stand Vixen, je me suis attardé sur ces deux versions à diamètres réduits - 70 et 90mm - de l'astrographe VSD100SS.
      Je ne connaissais pas ces modèles, je suppose qu'ils sont plus abordables que leur ainé : de mémoire, le tube de 100mm est hors de prix (je n'en ai d'ailleurs jamais vu dans les rangs amateurs, même au Japon) !
       

      Malgré la déprise du yen, le VSD90SS est à plus de 4000 euros... mais sérieux, qui va acheter ça ??
       
      Les amateurs
       
      Autant j'avais vu des équipements remarquables au rassemblement d'Aichi (celui consacré aux grosses binos, aux dobsons et aux réalisations personnelles), autant le festival d'Hoshi No Mura est basique : les visiteurs sont avant tout venus avec... des lunettes équipées pour l'astrophoto, ad nauseum !
      Je n'ai vu que deux dobsons : le 660 déjà remarqué dans des rassemblements antérieurs (comme celui d'Aichi) et le 500 décrit dans mon compte-rendu sur la star-partie de Koumi.
       
      il y avait aussi ce Ninja :
       

      Si vous avez une impression de déjà vu, c'est normal : ce tube était présent lors du rassemblement d'Aichi, comme en témoignent ses autocollants Moe (décidément...)
       
      Le T500 (à F/D beaucoup trop, ouch, échelle de pompier obligatoire) du festival de Koumi, encore une pièce rapportée :
       

       
      Vous vous souvenez du proprio ? Non ? 
      Indice : Un homme inverti en vaut deux (sur les blagues de boomer, je ne crains personne )
      Bref, le voici  :
       

      Lorsque j'ai pris cette photo, l'évènement n'avait pas commencé, tout le monde s'installait tranquillement. Donc, notre gaillard n'est pas prêt... mais quelques heures plus tard, en soirée, il l'était ! 
      Au menu : mocassins noirs brillants à talons, longue robe grise plissée, haut bustier noir échancré et chapeau canotier à ruban rose orné d'un flot en forme de coeur...
      Ça y est, vous le remettez ??
       
      Le télescope suivant, je ne pouvais pas le manquer :
       

      Nous sommes toujours en territoire connu : c'est le 200 - diaphragmé à 198mm - F8 de Okubo-san. Le seul télescope amateur de moins de 200mm d'ouverture nécessitant l'usage d'un escabeau... 
       
      Coté binoculaires, ce n'est guère folichon :
       

      Des Miyauchi 20x100 (oculaires fixes) : j'ai eu la chance de posséder ce modèle l'année du passage de la comète Hyakutake, en 1996.
      Elle repasse dans 70.000 ans mais cette fois, j'ai des 150ED : j'ai hâte !
       
      Par le plus grand des hasards (non pas du tout, j'ai évidemment fait exprès), je me suis installé juste à coté du seul gars bien équipé en jumelles : il avait 7 ou 8 modèles, à minima, dont des Zeiss 7x50 antiques (très bonnes, une vraie surprise), des Zeiss stabilisées 20x60 (une autre bonne surprise, je les aurais pensé plus lourdes) et des Nikon 20x120 anciennes en provenance directe... d'un bâtiment de guerre (il m'a donné un nom que je n'ai pas su mémoriser) :
       

      (Oui, pardon, c'est de l'infrarouge couleur)
       
      Le CROA
       
      Et coté astronomie, me direz-vous ?
       
      La nuit du vendredi au Samedi était plutôt mal partie (cf images) mais dès 22h, les nuages sont sont espacés, puis évaporés ! J'ai profité de mes jumelles jusqu'à minuit environs, puis je suis passé en mode "monteur d'étoiles" lorsque diverses personnes - essentiellement des résidents du coin, venus en famille - sont venu dans notre secteur :
      Le ciel était très bon, peu pollué, la transparence excellente, les principales vedettes de l'été - du sagittaire au Cygne, pour faire court - en pleine ascension... succès garanti !
       
      Jusqu'à une heure et demie du matin, j'ai ainsi partagé notre passion avec les gens du cru, jusqu'à ce qu'un gars presque obèse (une rareté, au Japon), s'emmêlant les pinceaux dans le noir, s'assoit un rien brutalement sur ma chaise : CRAAACK ! Plus de chaise ! 
       
      Imaginez la scène, compte tenu de la culture du pays : le pauvre type ne savait plus où se mettre, il s'est répandu en excuses plus dramatiques les unes que les autres, je ne savais pas quoi dire ou faire pour l'arrêter !! Il ma fallut des trésors de patience pour lui faire comprendre, in fine, qu'une seule pièce de bois de 10x10cm avait lâché, que la refaire serait un jeu d'enfant (et en effet, j'ai réparé ma chaise ce Dimanche matin)... purée, il voulait absolument me dédommager en argent... oh wait, j'aurais peut-être du me laisser faire ? 
       
      Anecdotes
       
      J'ai quelque peu écorné ce chapitre, avec l'astronome transformiste (une combo rare, avouez) et le sculpteur de giga-bites (non, rien à voir avec l'informatique)... 
      Il vous reste quand même quelques curiosités à découvrir :
       
      1/ Les japonais sont honnêtes et très confiants ! On ne le dira jamais assez, le pays est sûr et au quotidien, l'on perd assez vite ses repères et ses habitudes ! L'observatoire d'Hoshi No Mura est ouvert aux quatre vents, il n'y a pas de caméras dans le bâtiment, vous pouvez vous y promener et ramasser ce qui vous plaît sans aucun problème...
      Par exemple, en montant au deuxième étage via la tour carrée, vous pouvez choisir le modèle de loupe binoculaire qui vous convient :
       

      Le détail qui tue : l'observatoire a acheté l'exemplaire du milieu (juste à droite de la caisse orange), sans doute pour le mettre à disposition du public (notamment des écoliers) il y a encore l'étiquette avec le prix affiché (20.000 yens)...
      Non seulement rien n'est sous clé ni même surveillé mais en sus, la valeur du matériel est commodément indiquée 
       
      Un peu plus haut, dans ce qui s'apparente à un débarras sans porte, vous avez tout un tas d'instruments en vrac, avec des caisses d'oculaires et de jumelles à même le sol :
       

      J'ai pris la photo sans arrière-pensée ni gêne aucune : j'étais absolument seul, dans la tour et sur le toit ! Je rappelle que le site, pour l'évènement, reçoit plusieurs centaines de personnes, de tous âges, qui vont vaquer dans tous les sens : et bien, comme d'habitude, rien ne sera volé. Les organisateurs ne sont pas des idiots : s'il en allait autrement, soyez sûrs que tout serait surveillé, ou hors d'accès. Mais ici, à quoi bon ?? 
       
      2/ Dans le grand hall / salle d'exposition du bâtiment principal, j'ai remarqué cet objet, quelque peu incongru dans un observatoire  :
       

      Vous l'aurez deviné en observant l'image en détail : c'est une sorte de glaive court dont la lame a été forgée à partir d'une météorite ferreuse. Cette arme n'est pas historique, elle a été faite sur commande de l'observatoire il y a quelques décennies, mais elle est néanmoins représentative d'un phénomène réel, dans l'histoire dujapon : les minerais de fer du pays étant de qualité médiocre, les artisans locaux ont du développer des techniques très élaborées pour forger leurs célèbres lames (on pense surtout au katana, évidemment). Du coup, lorsqu'ils avaient la chance de tomber sur un beau morceau de météorite ferreuse, bien plus riche en métal que n'importe laquelle de leurs pauvres caillasses, ils ne se privaient pas d'en faire une arme (sans même parler du coté "on ne va pas gâcher ce précieux cadeau des dieux")...
       
      3/ Pour transporter son matos astro et son nécessaire de camping, rien ne vaut une Keycar coupée sport :
       

      Voici la voiture de mon "autre" voisin (pour le distinguer du possesseur de jumelles, venu en minibus Totyota). Dans cet équipage minimaliste à deux places, ledit voisin a transporté une petite lunette (une 80mm à FD court), son trépied photo et une tente une place intégrée à son lit pliant !
      Mieux vaut être célibataire, sans enfants... et sans dobson !
       
      4/ L'été japonais est caniculaire. nous sommes toujours au printemps, officiellement, mais nous avons souffert de la chaleur en journée. Pourtant, une créature était bien plus à plaindre :
       

      Il ne fait pas bon être un gros chien à poils longs, au pays du soleil levant : sauf à habiter haut en altitude et latitude, la chaleur humide des mois d'été est très pénible. De plus, la loi du pays impose de ne jamais laisser divaguer votre toutou, en ville comme à la campagne, même s'il n'y a personne en vue : les chiens sont donc toujours attachés et ne sont jamais libres de leurs mouvements.
      C'est moyen, pour ces lointains cousins du loup  
       
      5/ Le séisme de 2011 dans la région de Fukushima, de sinistre mémoire, a eut des conséquences désastreuses sur l'observatoire d'Hoshi No Mura :
       

      Au plus fort de la secousse, le t650 et sa monture, installés dans la coupole, ont traversé trois étages avant de s'écraser au rez-de-chaussée, infligeant les dégâts qu'on imagine ! La carcasse de l'ancien télescope est toujours exposée dans le bâtiment, au pied de l'escalier menant au pont.
       
      Cette petite sculpture est un monument commémoratif de l'accident :
       

       
      6/ La photographie dans l'infrarouge proche, c'est beau, mais c'est aussi utile !
      Par exemple, pour discriminer le couvert végétal :
       

      on distingue beaucoup mieux les feuillus des conifères, entre autres...
       
      Clôturons ce rapport comme il convient : par une photographie astronomique !
      Voici donc la planète terre, observée depuis l'observatoire d'Hoshi No Mura, préfecture de Fukushima, Japon :
       
       
       
      Owari desu !


    • Par lpalbou
      Hello à tous,
       
      Petite vue du soleil prise le 07 juin - j'ai une vidéo de 3h qui process depuis deux jours pour faire le timelapse, mais j'essaierai de la poster quand ce sera fini.
       
      Equipement:
      - Askar FMA 180
      - Quark Chromosphere (tellement d'aventures et de mésaventures, mais ce sera pour un autre post si j'ai le courage)
      - Player One Apollo M
      - Filter ERF 2" en premier élément du Askar
      - Réducteur après le Quark
      - Tilt Rowan
      - Daystar Flatcap
      - AZ GTI aligné avec un compas + tracking firecapture
       
      Traitements:
      - AS4! + ImPPG + Photoshop

       
      J'ai encore un petit problème de Tilt, la partie gauche / bas gauche étant plus flou, mais le setup se stabilise.
      Mon autre difficulté, c'est diminuer la luminosité du limb pour que ce soit plus naturel, notamment pour mieux voir la continuité des filaments sur / hors soleil
       
       
      Même équipement mais avec un Nikon 300mm F4 avec une bague 77 - 48mm pour mettre le ERF devant. Ca permet également de diminuer l'ouverture et augmenter le f-ratio pour le contraste:

       
       
  • Évènements à venir