DBlatte

Différence entre les versions couleur et monochrome d'un même capteur

Messages recommandés


Bonjour à tous,

 

Je me pose une question depuis assez longtemps sur la différences entre les capteurs couleur et monochrome, et je n'arrive pas à trouver la réponse ni sur le forum ni en lisant les datasheet des capteurs.

 

Un ICX285, par exemple, a des pixels de 6.45 µ de côté, que ce soit en couleur (ICX285AL) ou en monochrome (ICX285AQ). Les deux versions du capteur ont le même nombre de pixels actif (1360 x 1024).

 

Pour la version couleur, je lis que chaque pixel (au sens RGB, donc du carré de 6,45 µ de côté) est donc décomposé en 4 sous-pixels, avec matrice de bayer par dessus. Le capteur couleur comporterait donc 4 fois plus de photosites rééls que la version monochrome ? Cela me semble aberrant, parce que dans ce cas j'ai l'impression que techniquement les deux versions du capteur n'ont plus grand chose en commun.

 

L'autre possibilité à laquelle je peux penser : que le capteur monochrome possède lui aussi 4 fois plus de photosites rééls que sa résolution affichée, ce qui le rend techniquement plus proche, de la version couleur. Mais cela me semble également bizarre (4 fois plus de photosites et pas le moyen d'en profiter ? ce serait trop triste).

 

Je m'interroge donc : où est la vérité qui est peut-être ailleurs ?


Merci d'avance à ceux qui pourront m'éclairer ...

 

Christophe

Partager ce message


Lien à poster
Partager sur d’autres sites

Je n'ai pas la réponse mais elle m'intéresse également :)

Bonne journée,

AG

Partager ce message


Lien à poster
Partager sur d’autres sites

Attendons les pro mais en résumé 2 points :

  • L'absence de filtres par couleur lié à la matrice de Bayer entraine une meilleur sensibilité, tout au moins en luminance
  • L'absence de matrice de bayer évite la perte de résolution liée à l'interpolation pour déduire la couleur à partir des pixels voisins.

Donc gain en sensibilité et résolution. Sans compter plus de possibilités pour faire autre choses que du RVB (SHO par ex)

J'ai bon?

Christophe

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, Chris277 a dit :

J'ai bon?

 

Non :);)

En fait la question est :

- y a t-il autant de pixels sur le ccd mono que sur le ccd couleurs ?

Du fait qu'il faut 4 pixels sur le CCD couleur pour la matrice de bayer pour 1 seul sur le CCD mono.

Alors que dans ce cas précis, le nombre de pixels est identique pour les deux modèles de capteurs ;)

Partager ce message


Lien à poster
Partager sur d’autres sites

Répéter la question ? C'est possible.

 

D'ailleurs, pour une meilleure compréhension de tous, reformulons : on sait bien que c'est essentiel de reformuler.

 

La question, c'est, pour un même capteur, en considérant ses versions monochrome vs RGB, de savoir si tant plus qu'il y a moins de la couleur, tant moins qu'il y a plus de sous-pixel.

 

Ou pas.

 

C'est-y plus clair ?

 

Christophe

Modifié par DBlatte
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Les capteurs sont identiques en terme de pixels (taille, nombre etc..)

La version couleur s'est vue déposer une surcouche de filtres disposée en matrice de Bayer, décomposée comme suit :

- un pixel reçoit un filtre rouge

- le pixel d'à côté reçoit un filtre vert

- le pixel d'à côté reçoit un filtre bleu

- le pixel d'à côté reçoit un filtre vert

- le pixel d'à côté reçoit un filtre rouge

et on recommence, ce qui donne cette fameuse matrice de BAYER :

 

2880px-Bayer_pattern_on_sensor.svg.png

 

Avec 2 fois plus de filtres verts que de filtres rouges et bleus (ce qui correspond à la sensibilié de l'oeil humain)

 

Au traitement, le logiciel va décomposer cette matrice de BAYER et recomposer 1 pixel couleur comme ceci :

 

Pour un point de l'image qui correspond à un pixel rouge du capteur :
R = Signal du pixel rouge.
V = Moyenne des signaux des 4 pixels verts voisins.
B = Moyenne des signaux des 4 pixels bleus voisins.

 

Pour un point de l'image qui correspond à un pixel vert du capteur :
R = Moyenne des signaux des 2 pixels rouges voisins.
V = Signal du pixel vert.
B = Moyenne des signaux des 2 pixels bleus voisins.

 

Pour un point de l'image qui correspond à un pixel bleu du capteur :
R = Moyenne des signaux des 4 pixels rouges voisins.
V = Moyenne des signaux des 4 pixels verts voisins.
B = Signal du pixel bleu.

 

C'est pour ça qu'on a l'habitude dire qu'un capteur de 1000 x 1000 couleur a la même résolution qu'un capteur 500 x 500 monochrome

Un capteur couleur est donc 4x moins résolu que le même capteur noir et blanc.

 

 

  • J'aime 1
  • J'adore 1
  • Merci 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 14 minutes, Colmic a dit :

Un capteur couleur est donc 4x moins résolu que le même capteur noir et blanc.

Donc 4x moins sensible ? 

Lorsqu'on adjoint Un filtre sur un capteur "mono" on diminue de 1/4 sa sensibilité alors ? 

 

fred :)

Partager ce message


Lien à poster
Partager sur d’autres sites

Il n'y a pas de lien entre nombre de pixels et sensibilité (à ne pas confondre avec la taille des photosites individuels)

Bien sûr l'ajout d'un filtre diminue légèrement sa sensibilité, mais pas tant que ça.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello :)

 

Que je comprenne bien : 

 

Par exemple

-un capteur sony imx à une résolution de 752 x 582 pixel, la taille des pixels est de 8.6 x 8.3 microns

-un 1000 d a une résolution de 3688 x 2592 pixels , Mais la taille des pixels est quasiment divisé par deux 5.7 x 5.7 microns,  Sur un 500d à 18 mega c'est 4.7x4.7 microns... 

 

Alors que les images du sony seront plus petites à l’écran ( c'est peut-être pas un bon exemple), pourtant on rentrera plus d'informations dans un pixel de 8.6 microns ? 

 

En gros si l'on souhaite faire des photos (papier) indifféremment de la couleur et noir et blanc le résultat sera meilleur avec le canon ou le sony ? O.o

 

Fred :)     

Modifié par fredo38

Partager ce message


Lien à poster
Partager sur d’autres sites

Tu confonds la résolution d'une image et la résolution d'un capteur.

 

Cette notion de résolution d'un capteur n'a pas de sens. C'est pas parce que tu vas avoir un capteur de 10.000 x  10.000 que la résolution de l'image sera meilleure.

Tout dépend de la taille des pixels pour une focale donnée.

La résolution d'une image c'est la taille du plus petit détail visible. Et ça c'est lié à :

- la taille du pixel du capteur

- la focale de l'optique

- le seeing du moment pour le lieu donné

 

Pour obtenir une résolution donnée, on parle d'échantillonnage. L'échantillonnage idéal est la moitié de la résolution recherchée (théorème de Shannon/Nyquist)

 

Par exemple, en planétaire tu veux obtenir une résolution de 1 seconde d'arc, c'est à dire qu'un pixel de la caméra sera capable d'afficher un détail de 1" d'arc.

On va échantillonner à la moitié de cette valeur, à savoir 0.5 seconde d'arc.

Ensuite il va falloir calculer la focale de l'instrument pour une taille de pixel donnée, ou alors il faudra calculer la taille du pixel pour une focale donnée.

La formule est la suivante : E = 206 x P / F

avec E en seconde d'arc, P en microns, F en mm

Ce qui donne pour un IMX183 par exemple avec ses pixels de 2.4µ

E = 206 x 2.4 / F

Pour un échantillonnage à 0.5" d'arc, il faudra donc une focale de F = 206 x 2.4 / 0.5 = 989mm

 

Pour une focale donnée, on voit bien que la résolution ne dépend donc que de la taille du pixel (et bien sûr de la turbulence !)

 

En astro, on va donc choisir un capteur selon des critères différents :

- en planétaire, la taille des pixels adaptée à la focale de l'instrument soit au foyer soit avec Barlow

- en lunaire/solaire, idem avec une taille de capteur importante pour éviter les mosaïques

- en ciel profond lent, des pixels sensibles et un échantillonnage adapté à une résolution autour de 1.5" d'arc (le meilleur seeing qu'on peut obtenir en France en pose longue), et avec le plus grand champ possible (donc grand capteur)

- en ciel profond rapide (ou lucky-imaging) à des pixels très sensibles associés à la résolution de l'instrument (un peu comme en planétaire)

 

On va donc choisir une caméra selon :

- la taille de ses pixels (soit pour la sensibilité avec des gros pixels, soit pour la résolution avec des petits pixels)

- la taille de son capteur (pour du grand champ)

 

Maintenant la sensibilité d'un capteur n'est plus forcément uniquement dépendant de la taille de ses pixels.

Par exemple un IMX183 (avec des pixels de 2.4µ) est aussi sensible qu'un ICX460 (et des pixels de 4.6µ) et bien plus sensible qu'un vieux KAF11000 (et des pixels de 9µ)

La technologie évolue...

  • J'aime 2
  • J'adore 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

@fredo38 : 752 x 582, c'est une ATIK 16 ?

 

Colmic, c'est donc très clair : sur l'image issue d'un capteur couleur, les valeurs RVB de chaque pixel sont issues du photosite concerné et de ses voisins, et pas du tout une mesure stricte de valeurs RVB sur le photosite lui-même (sauf pour un des canaux). Le capteur a donc bien la même structure dans les deux cas (à la matrice de bayer et au traitement d'information près).

 

... et je me rends compte que j'avais lu cette explication sur d'autres pages du forum - (mais sans la comprendre).

 

Et hop, un problème de résolu, encore merci !

Modifié par DBlatte

Partager ce message


Lien à poster
Partager sur d’autres sites

Ha !!!

 

c'est super merci colmic pour toutes tes explications, c'est top top ! 😊😊

 

il y a 21 minutes, DBlatte a dit :

@fredo38 : 752 x 582, c'est une ATIK 16 ?

 

non en fait je prenais l'exemple d'une starshoot g3 monochrome, une petite caméra à très faible coût que je souhaitais  acheter pour ma 110/770 ed dans le but de  m'initier aux caméra ccd 😊😊

 

fred😊

Modifié par fredo38

Partager ce message


Lien à poster
Partager sur d’autres sites

Le mic-mac de la résolution des caméras couleurs :

 

La résolution absolue du capteur dépend de la longueur d'onde à cause de la matrice de Bayer

Une caméra couleur composite 4 photosites filtrés pour en faire un pixel.

 

Sur un IMX185, la résolution est complète au delà de 840nm avec un filtre IR.

Mais la sensibilité est un peu inférieure à la caméra en N&B, la matrice de Bayer absorbe une partie de la lumière.

 

Pour la plupart des longueurs d'onde c'est de 1 à 3 photosites significatifs sur 4.

 

Dans le jaune 580nm et le vert 480nm tu as grosso-modo 3 pixels sur 4 qui ramène une quantité significative d'information.

QE-ASI185.jpg

 

Une petite remarque : faire du solaire (H-alpha 656nm) avec une cam. couleur même capable IR : bof

 

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, fredo38 a dit :

En gros si l'on souhaite faire des photos (papier) indifféremment de la couleur et noir et blanc le résultat sera meilleur avec le canon ou le sony ?

Salut,

Après, si tu veux faire une impression sur papier c' est une autre chose:

Indépendamment de la taille de tes pixels, si tu as un petit capteur il faudra agrandir beaucoup pour une impression disons 20x30 cm. Et si tes pixels sont déjà gros  ça va rapidement pixéliser sur le papier. Moins rapidement si tu as de petits pixels. Dans ce cas là c' est comme en argentique, pour imprimer un 20x30 cm à partir d' un négatif 24x36 il faudra agrandir beaucoup sous l' agrandisseur  faisant apparaitre le grain et les différents défauts; alors que si tu pars d' un négatif 6x6 cm tu auras besoin d' agrandir bien moins sous l' agrandisseur;  et si tu as encadré le même champs avec les deux différents négatif ça veut dire que tu as utilisé une focale plus longue sur le 6x6. Evidemment l' image apparaitra alors plus détaillée. Si tu as conservé la même focale sur les deux négatifs ( ou bien les deux capteurs de tailles différentes ) tu auras simplement un champs plus étendu avec le 6x6 (ou le capteur plus grand)...

C' est de là que vient la confusion qui fait dire  à beaucoup qu' en numérique un objectif de focale x, grossit x fois par rapport à l' argentique. C' est totalement faux, il suffit d' utiliser un capteur full frame (24x36) pour s' en convaincre !

Je suis hors sujet ?

Jean Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
42 minutes ago, lyl said:

La résolution absolue du capteur

Peut tu préciser ce que tu appelle "résolution absolue" ?

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 27 minutes, brizhell a dit :

Peut tu préciser ce que tu appelle "résolution absolue" ?

Sa capacité à résoudre un angle donné avec une focale donnée....

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
33 minutes ago, JML said:

Sa capacité à résoudre un angle donné avec une focale donnée....

 

Non...

La capacité à résoudre un angle donné avec une focale donnée, c'est uniquement fonction de l'optique qui est en amont du capteur.

Cet angle est dépendant de la longueur d'onde et du diamètre de l'objectif mais indépendant des caractéristiques propres du capteur.

Là ou Myriam à raison, c'est que la bande passante de chaque filtres défini la taille de la tache d'Airy qui sera échantillonnée sous le filtre de Bayer.

Mais cela est indépendant des caractéristiques géométriques du capteur. La seule chose en quoi le capteur agit, c'est l'échantillonnage de la PSF (tache d'Airy) ainsi formée dans chacune des bandes passantes du filtre de la matrice de Bayer. @Colmic a parfaitement posé le problème.

La résolution par définition est indépendante de la taille du capteur, de la taille de ses pixels. Ce qui rend le système résolvant par contre, c'est l'échantillonnage du système (autrement dit le nombre de point angulairement nécessaire pour faire apparaître un détail.

4 hours ago, Colmic said:

L'échantillonnage idéal est la moitié de la résolution recherchée (théorème de Shannon/Nyquist)

En fait Shannon est une limite basse. C'est au minimum l'échantillonnage à avoir pour avoir une résolution recherchée.

 

D’où ma question : comment définir la résolution absolue d'un capteur....

 

4 hours ago, Colmic said:

Cette notion de résolution d'un capteur n'a pas de sens.

 

Exactement car la dimension de chaque tâche d'Airy dans chaque longueur d'onde dépend de l'optique en amont plus que du capteur et de sa matrice de Bayer

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Résoudre un détail ne met pas en oeuvre beaucoup de photosites ... il en suffit de deux ou trois !

Leur taille est l'élément primordial associé à la focale qui devra être "suffisante" (Colmic en a parlé plus haut).

Evidemment, pour faire une image il te faudra plein de pixels (des mega pixels même :) ).

Vu ainsi des photosites de 1µm ont une résolution qui peut sembler 2x meilleure que des photosites de 2µm (et ainsi de suite). Sauf qu'il faut que le matériel soit capable d'acquérir suffisamment de photons pour les transformer en électricité (à iso technologie c'est dépendant de la surface) et ensuite convertir ce signal en quelque chose de supérieur à zéro (là c'est de l’électronique lié à la technologie employée).

Et puis si on intègre tout, tu a la résolution de l'instrument, le seeing ... cela complique un peu.

Tu a d'excellents ouvrages sur le sujet, ... et plein de forums !

 

Marc

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

@fredo38 :

 

J'ai une ATIK16 qui utilise à peu près le même capteur (ICX429ALL - même taille et nombre de pixels, un peu plus sensible je crois).

 

J'attire ton attention sur le fait que c'est un capteur entrelacé. L'image est lue en deux temps (lignes paires, puis lignes impaires). Sur l'ATIK 16, la lecture de l'image est assez longue (6 secondes pour la totalité de l'image, peut-être lié au fait qu'elle est en USB1, ou peut-être aussi une limitation du capteur). Du fait de ce long temps de lecture, la moitié du capteur qui attend que l'autre soit lue continue a recevoir de la lumière. Ce n'est pas trop gênant en ciel profond sur des pauses longues (> 60s, et plus si possible), mais sur des pauses courtes cela peut générer des lignes moches et assez difficiles à éliminer (j'ai essayé de mettre un exemple sur M33 en PJ).

 

Sur l'ATIK16, il y a une case à cocher pour atténuer ce phénomène, mais c'est pas très efficace. J'ai vu quelques images de Starshoot G3 sur astrobin qui me laissent penser que le problème existe aussi avec cette caméra. Dans IRIS, je n'ai pas trouvé de quoi éliminer spécifiquement cela, je ne sais pas si d'autres softs en sont capables.

 

Sinon, pour le côté positif : la taille du capteur, un peu frustrante au début, convient en fait à de nombreux objets si on considère ta lunette de 770mm de focale - et en plus les traitements vont vite car pas trop de pixels. Et les pixels pas carrés ne sont finalement pas une gène.

 

christophe

 

M33RGB.png

Partager ce message


Lien à poster
Partager sur d’autres sites
Le 08/04/2019 à 13:53, Colmic a dit :

Au traitement, le logiciel va décomposer cette matrice de BAYER et recomposer 1 pixel couleur comme ceci :

 

Pour un point de l'image qui correspond à un pixel rouge du capteur :
R = Signal du pixel rouge.
V = Moyenne des signaux des 4 pixels verts voisins.
B = Moyenne des signaux des 4 pixels bleus voisins.

 

Pour un point de l'image qui correspond à un pixel vert du capteur :
R = Moyenne des signaux des 2 pixels rouges voisins.
V = Signal du pixel vert.
B = Moyenne des signaux des 2 pixels bleus voisins.

 

Pour un point de l'image qui correspond à un pixel bleu du capteur :
R = Moyenne des signaux des 4 pixels rouges voisins.
V = Moyenne des signaux des 4 pixels verts voisins.
B = Signal du pixel bleu.

 

C'est pour ça qu'on a l'habitude dire qu'un capteur de 1000 x 1000 couleur a la même résolution qu'un capteur 500 x 500 monochrome

Un capteur couleur est donc 4x moins résolu que le même capteur noir et blanc.

Alors non techniquement ce n'est pas ça. Pour en avoir codé quelques uns sur des matrices RVB et CYMG, un bon algo de dématriçage va travailler en LRVB dans un premier temps. La couche de chrominance va être effectivement équivalente à du binning 2x2 mais pas luminance. Pour faire court, la perte de résolution sur la lum au final sera de l'ordre de  25% et pas 50%. Et cela c'est sans compter une éventuelle déconvolution qui permet de réduire encore la perte à disons 15% pour un bon algo.

Modifié par mala05
  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Mathématiquement, en terme de résolution, une information d'un pixel (X,Y) sera issu "au pire" d'information qui seront lues par la moyenne des pixels (X-1,Y-1) (X+1,Y-1), (X-1,Y+1) et (X+1,Y+1) donc à une distance de racine(2) du pixel central ... elle est là la perte de résolution : 1,414... !

qu'on fasse la moyenne linéaire, quadratique ou n'importe quoi d'autre, l'information de couleur reste lié à la lecture des photosites adjacents.

On peut, au prix d'une lecture des pixels à +/-2 pixels du pixel central arriver à trouver d'autres algorithmes mais en (X,Y) s'il n'y a pas de rouge ... bin y'en a pas, il faut bien le trouver ailleurs !

 

Du coup quand les éléments les plus fins (disons une étoile, c'est ponctuel) sont de l'ordre de l'échantillonnage en pixel, la dite étoile sera représentée comme un carré en monochrome, mais comme un étalage de pixels en couleur (largeur de 3 pixels en atténuation) à cause de la débayerisation. C'est pour cela qu'on recommande de s'éloigner de la résolution théorique en CP. Note bien qu'avec l'étalage lié à la turbulence on y est rarement en pratique.

En planétaire, le compositage avec des centaines, voire des milliers d'images permet de lisser le phénomène au point de le rendre invisible et la pose courte permet d'atteindre des résolutions très inférieures à la seconde d'arc assez facilement.

 

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 55 minutes, patry a dit :

(X-1,Y-1) (X+1,Y-1), (X-1,Y+1) et (X+1,Y+1) donc à une distance de racine(2) du pixel central ... elle est là la perte de résolution : 1,414... !

Pour compléter ton propos, ce qui fausse la donne dans l'esprit des gens c'est que la débayerisation ne saute pas de deux photosites à chaque pas mais bien d'un seul que ce soit en x et en y. Et c'est malheureusement de là que vient cette légende urbaine: capteur couleur = résolution divisée par deux.

 

il y a 55 minutes, patry a dit :

mais en (X,Y) s'il n'y a pas de rouge ... bin y'en a pas, il faut bien le trouver ailleurs !

Et là encore cela floute la donne pour le néophyte car nous qui causons astro/capteur/optique on sent bien intuitivement en discutant ici que la résolution et bien finalement elle est variable. Plus la bande passante est étroite plus la perte de résolution est importante (d'où la remarque de lyl pour le solaire en H-alpha) mais l'inverse est aussi vrai: plus la longueur d'onde est étendue et plus la perte est limitée. Chose amusante, pour parler de résolution d'échantillonnage on prend souvent l'exemple d'une étoile ponctuelle en limite de résolution des photosites. Quel joli cas d'école! Mais vous en observez beaucoup vous des étoiles rouge sang dans le ciel lorsque vous levez les yeux? ;) Même Antares ou Bételgeuse elles sont pas si rouges que ça si on y pense... -Après on peut toujours pousser les curseurs à l'américaine mais c'est une autre histoire.-

 

Moi j'aurais tendance à penser que mis à part pour l'imagerie solaire à bande étroite et éventuellement l'imagerie lunaire avec filtre de couleur pour limiter la turbu, les cas où l'imagerie N&B peut vraiment creuser l'écart en terme de résolution sont assez limités aujourd'hui en fait. On le voit bien avec certaines images couleur one shot à couper le souffle qui passent sur le forum que ce soit en ciel profond ou en planétaire.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant