DBlatte

Différence entre les versions couleur et monochrome d'un même capteur

Messages recommandés

J'ai appris des trucs là.

Donc en fait ce sont les algo qui sont derrière qui font que la perte en résolution n'est pas si catastrophique ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour,

 

Non ce ne sont pas les algos.

 

En astro, si on règle tout bien :

- c'est la chaine optique qui limite la résolution et pas les capteurs.

Il y a la turbulence, l'instrument et le sur-échantillonage !

Je dirais surtout le sur-échantillonage.

 

Une caméra à capteurs tri-ccd montre l'avantage du capteur monochrome par rapport au Bayer en termes de résolution pure.

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

En partant des documents de AAVSO (DSLR Observing Manual - il existe aussi une version française)) qui permet de bien comprendre

la matrice de Bayer se décompose de la sorte

image.png.62c74f424f77986b50b6fefa5cf6a7e6.png

 

Dans la vraie vie avec la turbulence, les défauts d'optique, et d'entrainement, une étoile ça donne ça,

image.png.ec4533a2ee96fc9f9091b9270deec6cf.png

 

Donc je travaille systématiquement en binning couleur 2x2 ce qui me donne 3 plans (Rouge, vert et bleu) que je recompose éventuellement en ajustant les gains.
Il est vrai qu'avec une définition de 6000x4000 le passage en binning -3000x2000 ne pose pas de problème ce qui est moins le cas avec une définition de 1360 x 1024.
En bref, je ne me préoccupe plus beaucoup de l'échantillonnage...

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour se convaincre de la différence de résolution dont on parle,

on peut le faire ainsi :

- mire de résolution au fond du jardin,

- optique de prise de vue à forte résolution,

- même échantillonnage,

- résolution limitée par le seul capteur !

 

On compare et on jette la Bayer ou presque. ( je pousse le bouchon )

 

En astro on est rarement dans cette situation.

Mais c'est une façon de comparer Monochrome ou Bayer de façon rigoureuse.

 

Lucien

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Donc la perte est bien plus importante que les 15 ou 25% mentionnés par Mala ?

Qui a raison au final ?

En tout cas moi je vois bien la différence de résolution entre mon A7S et un Kaf 11000 mono (même taille de pixels).

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 27 minutes, Colmic a dit :

En tout cas moi je vois bien la différence de résolution entre mon A7S et un Kaf 11000 mono (même taille de pixels).

Tu parles en ciel profond ou en haute résolutio ?

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 29 minutes, Colmic a dit :

En tout cas moi je vois bien la différence de résolution entre mon A7S et un Kaf 11000 mono (même taille de pixels).

Je veux dire : avec la même chaine optique ?

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, JML a dit :

Tu parles en ciel profond ou en haute résolutio ?

 

Qu'est-ce que tu entends par haute résolution ? On ne fait pas de haute résolution avec un A7S :)

CP bien sûr.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, JML a dit :

Je veux dire : avec la même chaine optique ?

 

Evidemment ;)

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

jmr> ton exemple est exactement en accord avec mon propos. Tu a une focale (très) importante et l'étoile s'étale sur de nombreux pixels. Là quelque soit le canal, l'image est toujours ronde et tu atteint la résolution maximal (la taille de l'étoile si celle ci n'est pas trop brillante).

Quand on fait une photo du ciel avec une focale bien plus courte, l'étoile (disons blanche) va prendre statistiquement 1 ou 2 pixels sur le capteur et finir par donner une image bien moins "ronde" et lisse quand on y regarde de près (on se préoccupe de la chute de résolution, encore faut-il la voir)

Du coup, pour ne pas "perdre" en résolution, il faut sur-échantillonner ... et finalement sur-échantillonner "plus" qu'en monochrome. La différence est là pour moi.

 

Mais c'est une perte de résolution de transcription (je ne trouve pas de terme approprié), et agrandir permet de s'en affranchir, l'instrument conserve toute ses capacités.

 

Marc

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Si l'on obtient parfois ou souvent des résolutions identiques avec des capteurs Monochromes et des capteurs Bayer,

ça ne prouve en rien qu'un capteur soit meilleur ou pas sur ce point.

 

Il faut une méthodologie rigoureuse pour les départager.

 

Sachant qu'il est possible de jouer de la focale pour rapprocher les résolutions.

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

Marc,

 

ce que tu appelles 'transcription' c'est la matrice Bayer.

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

Oui je sais mais ce que je veux dire c'est que cette "perte" n'en est pas vraiment une car si mettre un élément optique de piètre qualité fait perdre en résolution ... et on y pourra rien, là c'est une "perte" lié à l'usage de la matrice couleur.

En gros "peut être" qu'avec un capteur monochrome, dans les mêmes conditions de capture, la résolution aurait été meilleure, mais on peut y remédier avec le capteur couleur car SI le sur-échantillonnage est suffisant ALORS il n'y a pas de perte de résolution.

 

Marc

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Oui Marc, on est d'accord !

 

Si c'est le capteur qui limite la résolution, on augmente la focale... 

et on perd en lumière.

Ce qui peut pénaliser dans certains cas.

C'est une affaire 

 

Lucien

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Ben moi j'vais vous dire que je m'enquiquine pas avec tous ces trucs et ces machins :)

J'ai des lunettes, des télescopes, des caméras et je fais mes petites images sans m'occuper de tout ça ;)

Et au final, je m'embrouille pas la cervelle et chus assez content de mes images ;)

Bonne soirée à vous,

AG

 

  • J'aime 3
  • J'adore 1
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 9 heures, Colmic a dit :

Donc la perte est bien plus importante que les 15 ou 25% mentionnés par Mala ?

 

oui 2 fois moins de résolution en bleu et rouge,

1.4 fois moins dans le vert

 

De là, la résolution en luminance va dépendre du spectre de l'objet et du filtre utilisé. avec un spectre continu et sans filtre on aura de l'info dans les 3 couleurs et la résolution sera quasiment la même qu'un capteur mono.

 

Par contre avec un filtre à bande étroite et/ou un objet à spectre de raies la perte sera plus importante.

Modifié par olivdeso

Partager ce message


Lien à poster
Partager sur d’autres sites

Des fois je me demande si cela vaut la peine de prendre le temps d'expliquer en fait... 9_9

 

Moi je confirme que, dans le contexte de mon intervention précédente si on prend le temps de me lire, et bien: " la perte de résolution sur la lum au final sera de l'ordre de  25% et pas 50%. Et cela c'est sans compter une éventuelle déconvolution qui permet de réduire encore la perte à disons 15% pour un bon algo."

 

Et je vais l'illustrer en image avec cette vieille M57 de plus de 10 ans réalisée à l'époque en one short avec une MX7C à matrice CYMG et dont les images brutes avaient été débayérisées avec un algo réalisé par mes soins...

M57_MX7C_8x6min.jpg.67e43fadab953e49df1e47d9a2c838c8.jpg

 

Voici ce que cela donnerait si les propos de Colmic du départ étaient avérés...

m57-binning-animation.gif

Une perte de résolution de 50% serait équivalente à un binning 2x2 hors on voit bien avec ce gif zoomé que la résolution est bien meilleure en réalité. -pitié ne pas me faire le coup du "oui mais en bande étroite..." Lol -

 

CQFD ou pas CQFD? :D

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

En gros "peut être" qu'avec un capteur monochrome, dans les mêmes conditions de capture, la résolution aurait été meilleure, mais on peut y remédier avec le capteur couleur car SI le sur-échantillonnage est suffisant ALORS il n'y a pas de perte de résolution.

 

Mais alors perte en champ...

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Oui,

 

sauf que la résolution se mesure sur des mires et pas sur des images qui ont subi un paquet de traitements.

Et puis si on fait de la déconvolution avec la Bayer pour améliorer, pourquoi ne pas le faire pour la monichrome ?

 

Ce débat devient inutile si la procédure de comparaison n'est pas définie rigoureusement.

 

Un capteur tri-couche Foveon 10 Mpixels donne une résolution supérieure à un Bayer de 20 Mpixels. Et avec des effets de moiré moindres.

Résolution exprimée en paires de lignes par mm.

 

Cordialement,

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

Lucien a raison.

J'ajouterais que si on ne s'en tient qu'à une seule image le procédé de dématricage a une influence certaine sur le résultat mais tu n'arrivera pas à la finesse intrinsèque d'une image "monochrome" sauf à répondre à certaines conditions mentionnées plus haut.

Maintenant l'image résultante d'un compositage a un effet encore plus important pour moi. Et il y a là encore d'autres algorithmes qui peuvent être utilisés.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci Marc,

 

Ceci dit j’apprécie le débat serein et si je me trompais pas de problème.

 

Ici sur Astrosurf en 2012, j'avais fait ce test pour des conditions où seulement les capteurs limitaient la résolution.

Même capteur l'un en version Bayer l'autre en version monochrome : DBK et DMK...

La Bayer avait subi un dématriçage bilinéaire et rien pour l'autre : R + V + B.

 

Attention si l'on bricole le Bayer il faudrait bricoler aussi le mono : sinon la comparaison n'a pas de sens.

 

Cependant et c'est important : on n'est pas en train de dire que l'on aura de moins bons résultats avec un capteur couleur.

Personnellement je dispose pour l'astronomie de 3 caméras + d'un APN défiltré : ZWO ASI224MC, ASI290MM, ASI 1600MMPro.

 

Il faut simplement tenir compte des caractéristiques spécifiques et adapter la chaine optique et certains réglages : focale, temps de pose...

Il est vrai que dans des cas particuliers : Vénus en UV, filtres à bande étroite..., il vaut mieux disposer d'un capteur monochrome : mais c'est un autre débat.

 

 

Lucien

6comparaisonrvb.jpg

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 14 heures, mala05 a dit :

CQFD ou pas CQFD?

 

Ben non pas CQFD pour moi désolé. Vu que j'ai pas tout compris à ton explication.

 

Il y a 15 heures, mala05 a dit :

Des fois je me demande si cela vaut la peine de prendre le temps d'expliquer en fait...

 

dans ce cas, il faut savoir utiliser des mots simples et compréhensibles par le plus grand nombre. Là plus ça avance, moins je comprends. Tu nous parles d'algorithme dans tes exemples. Mais si tu n'appliques aucun algorithme derrière ton capteur couleur, quelle sera la perte BRUTE entre un capteur noir et blanc et le même en BAYER ? On revient à la question de l'OP en fait, et à ma question plus haut.

 

Sinon, vous prenez 2 capteurs de la même série, un mono et un couleur, vous les collez derrière la même optique le même soir, et vous appliquez le même traitement sur les 2 images. Sinon ça n'a pas de sens.

 

Ca tombe bien, il me semble que dans les caméras que j'ai actuellement en test, j'ai une IMX178MM et une autre 178MC.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 18 heures, mala05 a dit :

pitié ne pas me faire le coup du "oui mais en bande étroite

 

ben si justement sur un tel objet:

- pour la centrale, qui a un spectre relativement continu, la résolution sera proche d'un capteur mono

- pour la nébuleuse, qui émet un spectre de raie, la résolution sera moindre qu'un capteur mono, surtout pour le Halpha, NII et SII reçu uniquement par les pixels rouges, moins pour le OIII qui est reçu par mes pixel bleus et verts.

 

l'échantillonnage des pixels rouge est 2 fois moins serré que celui des pixels du mono. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Au risque de paraitre un peu lourd, je remets 100 balles à ce post que je viens de découvrir et qui m'intéresse au plus au point pour une question que j'ai depuis quelques temps concernant les caméras couleurs.

 

Dans le calcul de l'échantillonnage par la formule E=206 x P/F, où P représente la dimension du pixel de ma caméra couleur , est ce je prends la valeur donnée par le constructeur pour la caméra, ou bien est ce que je dois multiplier cette dimension par un coefficient 1.5 voire 2 ?

 

J'ai bien compris les explications de Colmic sur le sujet (merci !), mais je voudrai voir écris que la valeur du pixel à prendre en compte dans la formule est la MËME que l'on parle de caméra couleur ou N&B.

 

Une note d'Avex (Axel Vincent) que vous connaissez tous laisse entendre qu'un facteur de taille de 1.5 du pixel par rapport aux  données du fabricant est à considérer pour les caméras couleur, et ça change tout !

 

Merci pour vos éclaircissements !

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant