Backel

Lecture pixels couleurs

Messages recommandés

Bonjour,

J'aimerais savoir si la lecture d'une image "couleur" d'une "CCD" ou d'une caméra planétaire se fait sur le même principe de combinaison des pixels de la matrice de Bayer que sur un APN:

Donc: 4 Millions de photosites (2M de verts, 1 M de rouges, 1M de bleus), donnent en sortie 4 millions de pixels rvb.

Christian

Partager ce message


Lien à poster
Partager sur d’autres sites
Oui, dans une CCD, les photosites sont descendus ligne par ligne, puis colonne par colonne dans un convertisseur A/D et construit une image RAW de 4M d'information.
C'est ensuite le logiciel interne (ou le driver coté PC parfois) qui transforme ce flux de 4 millions d'octets (si tu lis en 8 bits) en 4 millions de pixels 24 bits (8 bits rouges, 8 verts, 8 bleus) donc de 12 millions d'octets.

Dans un CMOS ce sera pareil sauf le procédé de lecture qui s'apparente plus à celui d'une mémoire qui peut être lu n'importe comment. c'est comme s'il y avait un convertisseur "sous" chaque photosite. C'est plus complexe à équilibrer pour qu'un même niveau de luminance fournisse le même niveau d'ADU.

Du coup avec un convertisseur A/D capable d'opérer 4 millions de pixels/secondes (c'est peu mais c'est pour l'exemple) on serait en mesure de transmettre ... 4 millions d'image/seconde si les images ne font qu'un pixel. Ou encore 1 million d'images/seconde pour des images de 2x2 pixels ! Evidemment il y a d'autres contraintes mais le principe est là et quand on fait du ROI (on ne lit qu'un cadre dans l'image, voire plusieurs disjoints c'est aussi possible), c'est uniquement le nombre de photosites lus qui compte PAS leur positionnement en ligne/colonne ! Alors qu'un CCD sera toujours lu ligne à ligne puis colonne par colonne même si on peut encore "sauter" des lignes entières, c'est plus délicat de sauter des colonnes. Du coup le débit d'image d'une fenêtre de 640x480 sera pratiquement le même que celui d'une fenêtre de 900x480 !
Par contre bien sur le volume de la seconde sera plus important à stocker !

C'est pour cela qu'il est important de stocker en RAW car le volume d'information est divisé par trois sans aucune perte d'information vu que la débayerisation ne fait qu'interpoler les informations manquantes. Moins de besoin de CPU donc. En plus du fait qu'on met 3x moins de temps à enregistrer un volume 3x plus faible !

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
Patry: voila des explications trés fouillées mais incompréhensibles pour un non informaticien comme moi. Mais bravo quand même, ça va aider ceux qui arrivent à suivre (ce n'est pas mon cas)
aries51

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci,

Je voulais surtout avoir confirmation que la résolution était au final de 4M de pixels rvb et pas 4M divisé par 4 (2v1b1r).

Christian

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour,
Si ta matrice physique de Bayer est par exemple
RV
VB
sur les 4 Millions de photosites, il y a 2 M de verts, 1 M de rouges, 1M de bleus.

Un chat, c'est un chat

Partager ce message


Lien à poster
Partager sur d’autres sites
OK, mais on pourrait supposer que chaque groupe de quatre photosites soit interprété comme un pixel couleur, donc nombre de pixels couleur égal nombre de photosites divisé par quatre ou comme sur un APN où le dématriçage traite les infos par série de quatre photosites en décalant de un photosite ligne ou colonne et reconsidérant un groupe de quatre, donc nombre de photosites égal nombre de pixels couleur.
http://www.prosults.nl/images/stories/prosults/bayer_array_resultaat.jpg

Christian

[Ce message a été modifié par Backel (Édité le 03-04-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonsoir,

Pourquoi faire simple quand on peut faire compliqué, tu devrais te relire, c'est inbai...

Perso quand je fais du Ha avec mon Canon/CCD couleur, il ne me reste plus que 1/4 de capteur couleur exploitable(Rouge), le reste ...du bruit.

A+

Partager ce message


Lien à poster
Partager sur d’autres sites
>> Donc: 4 Millions de photosites (2M de verts, 1 M de rouges, 1M de bleus), donnent en sortie 4 millions de pixels rvb.

Il y a bien une perte mais elle est de l'ordre de 20% à 30% max voir même moins en fonction de l'outil de dématriçage utilisé sur des images couleurs habituelles.

Le fomat de sauvegarde choisi a aussi un impact. Par exemple, les jpegs sont extraits à la volée par le processeur du boitier ce qui permet beaucoup moins de puissance de traitement que si on développe un fichier Raw sur son PC pour sortir un jpeg. Concernant les RAWs, il y a aussi des subtilités. Il faut toujours shooter avec la résolution max du capteur sans quoi il y a un dématricage interne opéré avant même de créer le fichier Raw.

Partager ce message


Lien à poster
Partager sur d’autres sites
>> Perso quand je fais du Ha avec mon Canon/CCD couleur, il ne me reste plus que 1/4 de capteur couleur exploitable(Rouge), le reste ...du bruit.

Je vais faire une caricature: je prends une caméra N&B, je mets un filtre HA et j'ajoute un filtre bleu. J'obtiens... du bruit. Puis je conclure pour autant que la résolution du capteur est nulle (au sens mathématique du terme)? Attention aux raccourcis.

[Ce message a été modifié par Mala (Édité le 03-04-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bin ... oui si tu ne considère que les photosites qui ne reçoivent alors aucun flux !
C'est le cas que tu le veuille ou non quand tu considère chaque plan séparé Bleu, Rouge (1/4 des photosites) ou vert (1/2 des photosites).
Le cas du Ha est très parlant ; les 3/4 d'un capteur couleur n'est tout simplement pas exploité ! Remarque c'est pareil quand tu n'utilise que le plan rouge (en lunaire p.ex) d'un capteur couleur.

Pire, l'échantillonnage devient grossier avec des trous entre chaque détecteur. La distance entre chaque détecteur se mesure facilement, elle est de la taille de deux photosites exactement. Mais pour autant c'est pas comme si on avait un photosite deux fois plus gros, au contraire, on ne capte tout simplement RIEN entre deux photosites !

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
>> Bin ... oui si tu ne considère que les photosites qui ne reçoivent alors aucun flux !
L'erreur est de partir d'un cas particulier et d'en faire une généralité. En usage naturel (l'ensemble du spectre visible), la bande passante des filtres R,V,B se chevauche. Ce n'est pas du tout ou rien. C'est ce qui dans les faits permet de limiter la perte de définition lors du dématriçage.

Partager ce message


Lien à poster
Partager sur d’autres sites
Cela dépend "vachement" des filtres !

Voila mon jeu de LRGB astronomik passé au spectrophotomètre :

Et voila celui d'un jeu Baader

Astrodon

Finger Lakes Instruments

C'est vrai qu'il y a du recoupement mais au moment de la reconstruction RGB avoir deux fois la même information à la fois en B et en V (510nm pour les Baader ou Astrodon) c'est pas tellement mieux en terme d'intensité !
Par contre à 580nm on ne capte pratiquement rien avec un Baader ... ni dans le vert, ni dans le rouge (environ 15% de rendement).
Pour l'Astrodon TruBalance ou le FLI c'est environ à 600nm que cela se passe avec pas grand chose dans un cas, rien dans l'autre.

Ce n'est pas étonnant que les filtres Astronomik soient réputés pour leur équilibre. Le rendement est assez complet, et le recouvrement se fait "bien", ni trop ce qui accentue artificiellement une couleur, ni trop peu pour l'éliminer.

Je me répète mais en CP c'est pas trop un problème et c'est parfois le but recherché. Mais PAS en planétaire ou l'éventail de couleurs me semble plus riche.

Donc si le cas particulier du CP Ha (ou tout autre bande étroite que tu choisira) met l'accent sur ce phénomène de filtrage (à adapter au rendement des photosites d'une caméra couleur) il n'en reste pas moins vrai qu'en planétaire avec une caméra couleur, se restreindre à un seul canal c'est souvent faire abstraction de toute une partie du spectre qui finalement illumine les photosites adjacents.

Et je persiste à dire qu'une caméra de 4Mp couleur revient, en résolution à utiliser un grille de photosites de ce même pas MAIS avec une résolution (un nombre de photosites actifs si tu veux) de seulement la moitié (vert) ou le quart (bleu ou rouge).
Si à la fin, pour des raisons pratiques (turbulence) tu n'utilise que le canal rouge, ton image fera 1Mp réel ... auquel on ajoute 3Mp interpolés ! Mais ça je sais aussi le faire sous GIMP ou Photoshop.
A la limite, je pense qu'on obtiens le même résultat final en reconstruisant une vidéo ne contenant que le canal rouge (donc 4x plus petit en taille) et en faisant un processing d'agrandissement (soit à la fin, soit durant le traitement). SAUF qu'on aura utilisé un fichier 4x moins lourd !

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
Ca tourne un peu en rond là.

>> Cela dépend "vachement" des filtres !
Non dans le cas d'une CCD couleur cela dépend de la matrice de Bayer. Et ces filtres là se chevauchent car ils sont conçus pour la vision diurne à la base...

- avec les limites de rendement qu'on leur connait malheureusement pour nous en astro mais ça c'est une autre histoire -

Dans l'absolu, la matrice de Bayer sur une "vraie" image couleur (de la Lune par exemple) revient grosso modo en terme de luminance à la résolution d'une image d'un capteur N&B auquel on appliquerait un filtre passe bas genre Sobel avec le noyau:
[1 1]
[1 1]
Et c'est la qu'on fait trop souvent le raccourci "un pour quatre" et donc q'un APN quatre méga pixels est équivalant à un homologue monochrome d'un méga pixel. Hors ce n'est pas le cas, du fait du pas du filtre.

Après je veux bien expliquer le pourquoi du comment mais déjà il faut être d'accord sur le postulat de base sinon on va nul part.

[Ce message a été modifié par Mala (Édité le 04-04-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Sur une image monochrome comme la Lune, oui tu as globalement raison. Mais sur une image colorée comme une nébuleuse, non. Les bandes d'émission des divers gaz sont trop fines et pas assez étendues pour que chaque photosite puisse capter tout ou partie de leur lumière. Ainsi, la bande OIII est à 496 et 501 nm et en regardant la courbe de rendement de Ch. Buil pour les APN Canon, on voit que la sensibilité des photosites bleus est de 20%, celle des verts de 30% et celle des rouges de moins de 5%. En H-alpha à 656 nm, le rouge est à 10% à peine, et les bleus et verts à moins de 1%.

Donc sur une image du ciel profond, les photosites bleus et verts ne retourneront que du bruit en H-alpha, et les photosites rouges essentiellement du bruit en OIII.

Autre point à prendre en considération : lors du dématriçage, le logiciel interne va exploiter les valeurs captées par les photosites voisins pour reconstituer les couleurs : cette extrapolation va nécessairement étaler les informations et provoquer une perte de résolution.

En comparaison, le même capteur auquel on a ôté les pigments colorés de la matrice de bayer offrira une image N&B bien plus piquée car aucune extrapolation n'est nécessaire. Mais pour reconstituer les couleurs, il faudra prendre (séries d') 3 images successives...

Partager ce message


Lien à poster
Partager sur d’autres sites
Mais c'est le pire des cas avec une nébuleuse car leur spectre s'apparente à une succession de pics.

Avec l'APN tu a 30% de vert (c'est déjà pas terrible comme rendement) puis 20% de bleu et finalement 5% de rouge. Au final (abstraction faite de l'échantillonnage) l'OIII est à cheval entre le V et le B, soit, mais on devrait avoir 0% de rouge ... pas 5% ! Et ces 5% vont faire dériver la balance chromatique de l'ensemble
Pour bien faire il faudrait prendre en compte pour chaque bande étroite l'erreur de transmission de chaque µfiltre et dans ce cas, multiplier par 6 la couche rouge avant de combler les trous des bandes vertes et bleues.
Evidemment en Ha, comme on va pas s'ennuyer à multiplier par 10 ou plus les couches vertes et bleues, on va simplement les ignorer.

En planétaire on ne peut pas jouer à cela parce que l'objet rayonne dans un spectre très large, de l'UV jusqu'à l'IR lointain (le CH4 est à 890nm). Donc tous les photosites ont leur part de travail mais en contre-partie il est plus difficile de corriger des trous de transmission ... ou des croisements trop forts !

Partager ce message


Lien à poster
Partager sur d’autres sites
Non Patry. En OIII à 500 nm, les photosites d'un capteur comme ceux testés par Ch. Buil auront comme réponse :
- 20% dans le bleu
- 30% dans le vert
- 5% dans le rouge
=> c'est à cause du recouvrement des courbes de sensibilité des pigments des filtres des photosites, et cela même si l'OIII est un pic à 500 nm environ.

Avec un capteur d'APN mis en N&B (par grattation), j'ai constaté que la perte des microlentilles est mieux que compensée par le gain du retrait de la filtration couleur. Un capteur N&B devient alors 10 à 20% plus sensible que le même capteur en couleur, mais cette fois ci tous les photosites sont sensibles sur toute l'étendue de leur capacité.

[Ce message a été modifié par Fred_76 (Édité le 04-04-2016).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Entendons nous bien: pour pouvoir parler de perte de résolution de détails, il faut être dans le cas d'un objet permettant d'approcher la résolutions d'échantillonnage des photosites du capteur. Hors une nébuleuse pour reprendre ton exemple ce n'est absolument pas le cas comme tous les corps diffus du ciel profond. C'est pour cela que j'ai pris l'exemple de la Lune.

Après le rendement quantique d'un CCD couleur sur certaines longueurs d'ondes ça c'est une autre histoire. Ses filtres l'handicape en terme de rendement voire le bride complètement en Ha pour des APN non défiltrés. Je pense qu'on est tous d'accord la dessus.

Concernant le dématriçage (j'ai eu l'occasion d'étudier et de concevoir ce type d'algo pour des matrices de Bayer et CYMG), c'est ce que j'ai évoqué dans mon message juste avant en caricaturant avec un filtre de SOBEL. Tu as tout à fait raison, il y a une perte mais bien moindre que ce que certains pensent. Un SOBEL 2x2 ce n'est pas du binning 2x2. Et cela est d'autant plus vrai que connaissant parfaitement le filtre de convolution on peut le compenser en grande partie de manière logicielle au même titre qu'on fait le prétraitement d'une PLU et des Darks. Et c'est là où la puissance de calcul peut faire toute la différence. Des algos de déconvolution comme Richardson–Lucy donnent par exemple des résultats remarquables en limitant certains effets impondérables liés à la disposition des filtres.

Partager ce message


Lien à poster
Partager sur d’autres sites
Fred> le problème c'est que la "couleur" de l'OIII n'est certainement pas obtenue (dans une représentation RGB) en mettant du rouge dans une image qui se trouve peu ou prou entre le vert et le bleu. "Normalement" on ne devrait PAS avoir de flux rouge. C'est parce que les µfiltres ne sont pas assez sélectifs qu'on se trouve avec un rapport rouge/vert dans un rapport de 1 à 6 !!
On peut tourner le truc n'importe comment, on ne transformera pas une bévue en avantage !

Mala> tu a raison mais est-ce que tu crois que les logiciels intégrés produisent un dématriçage aussi complexe ? D'où ma remarque de TOUJOURS capturer en RAW justement pour faire abstraction des solutions simplistes (interpolation linéaire). Note bien que c'est pas moi qui ait lancé le truc sur les nébuleuse tant il est rare de trouver une photo CP qui dépasse un peu la résolution d'un instrument de 100 à 200mm.
Mais l'exemple de la lune est intéressant, il faut seulement considérer deux cas distincts :
* Je capture avec un filtre qui laisse tout passe (sauf l'IR disons) et à la fin je n'utilise que la couche R. Avec un peu de bol, il y aura bien du bleu et du vert qui passeront aussi dans le micro filtre R.
* Je capture avec une caméra couleur mais j'ai mis devant en plus un filtre R, là c'est plus radical et on a pas de bleu ni de vert qui arrivent dans le photosite R (<< 1%). Pour peu que les µfiltres soient semblable à ce qui est décrit plus haut, on aura un semblant d'image qui passera les µfiltres B et V mais sans doute noyée dans le bruit.
Ne sachant pas à quel cas tu pense en particulier je ne me prononce pas plus.

Dans tous les cas pourquoi on capture dans le rouge en lunaire ? Pour lutter contre la turbulence pardi et dans ce cas il y a bien plus à gagner que la perte de résolution liée à la longueur d'onde employée.
C'est pour cela que je n'utilise le C11 presque qu'exclusivement en R+IR (Wratten 23A), les bonnes images vertes (mieux résolues dans l'absolue) n'arrivent qu'une poignée de fois par an, et pour que cela soit bon dans le bleu "en plus" là c'est encore plus rare !

Partager ce message


Lien à poster
Partager sur d’autres sites
Les logiciels de dématriçage sur les APN sont bien plus complexes qu'une simple extrapolation linéaire... Il suffit d'aller faire un tour sur les brevets des fabricants.

Par contre, est-ce qu'ils font du Richardson-Lucy, j'en doute, mais peut-être qu'ils le font sur les derniers processeurs. Dans tous les cas, ces opérations ne sont faites que sur la conversion RAW>Jpeg. Or en astro, on ne travaille que sur le RAW, pas seulement pour une question de résolution mais aussi pour conserver toute la dynamique de l'image et éviter les artéfacts de la compression Jpeg.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant