Roch

Fabrication "maison" de caméra tri-cmos ?

Messages recommandés

Il y a 9 heures, Roch a dit :

C'est donc ça qu'il me faut, un "triple beam splitter"

 

oui il te faut un prisme RGB (= Philips prism). à traitement dichroïque. ça existe.

 

http://www.nitto-optical.co.jp/english/products/basic_prism/index.html

 

http://www.foctek.net/products/RG-Prism-Philips-Prism.html

(bizarre celui ci...)

http://www.foctek.com/products_detail/productId=80.html

 

https://www.wts-photonics.com/high-precision-glass-x-cube-and-rgb-prisms_p77.html

 

Il y en a même de plus compliqués avec plus de bandes, jusqu'à 5 il me semble.

Modifié par olivdeso
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Ah, ça c'est de la réponse, merci :)

 

Donc globalement je vois deux designs différents apparaître sur tes liens, il y a le RGB splitter et le X-cube ( sur ton dernier lien )

Il me semble que ce dernier est plus compact en terme de longueur de faisceau requise, mais il doit nécessairement y avoir des pertes au centre...

4 sorties oui, pourquoi pas tant qu'à faire, on pourrait récupérer l'IR... :D

m'enfin je ne vais pas me compliquer la tache dés le départ.

 

Concernant le système de mise au point, là aussi c'est délicat, je ne trouve pas ce que je veux. Un mini porte oculaire de précision en 31.75, ça n'existe pas... :D

Va falloir fabriquer quelque chose je pense.

 

Romain

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 44 minutes, Roch a dit :

Concernant le système de mise au point, là aussi c'est délicat, je ne trouve pas ce que je veux. Un mini porte oculaire de précision en 31.75, ça n'existe pas.

si, j'ai déjà présenté et donné mon avis sur le focuser précis "type appareil photo" fabriqué par Adriano Lolli

Il existe une version T2.

https://www.adrianololli.com/articolo.asp?ID=5448

5448_2.jpg

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Ah oui ! ça a l'air très bien ça !

 

edit : merci encore lyl :)

Et le tien est moins cher ! A voir lequel a le mouvement le plus fin et le plus précis

 

Bon ça alourdit la note finale, et j'ai encore aucune idée du prix d'un prisme... ;)

Mais si je vais sur le site de FOCtec, on peut demander une interface particulière en entrée et en sortie si j'ai bien compris ( http://www.foctek.com/products_detail/productId=80.html voir dans le second tableau )

Donc je n'ai rien besoin de faire en fait, il suffit que je demande une entrée m48, 3 sorties T2 et théoriquement c'est bon ça roule :D

 

Le seul truc qui m'ennuie c'est les courbes de transmission, elles coupent un peu tôt dans l'uv et l'ir je trouve... et on est sous les 90% au total. Mais peut-être y a-t-il moyen de personnaliser ça aussi.

 

Bon il faut aussi bien mesurer tous les chemins optiques pour ne pas se faire embêter par le vignettage. 

 

Je vais les contacter pour voir.

 

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites

Pas ou peu de gain en terme de luminosité par pixels....

Gain en résolution, pas d'interpolation lié a la matrice de bayer.

La "faille" de ton raisonnement est dans ce que j'ai souligné.

Bref, beaucoup de soucis (usine a gaz) pour pas grand chose si tu me permet. :)

Modifié par Famax

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, Famax a dit :

Pas ou peu de gain en terme de luminosité par pixels....

Gain en résolution, pas d'interpolation lié a la matrice de bayer.

La "faille" de ton raisonnement est dans ce que j'ai souligné.

Bref, beaucoup de soucis (usine a gaz) pour pas grand chose si tu me permet

 

Non on ne gagne pas en luminosité par pixel en effet. mais on peut capturer 3 images en même temps, donc on réduit le temps total d'acquisition par 3 pour la même quantité de signal. ça me paraît quand même plus qu'intéressant... :D

 

Si vous n'êtes toujours pas convaincus, voyons la chose autrement :

 

Habituellement en utilisant des filtres ( qu'ils soient inclus dans une matrice de bayer ou dans leur roue ) on ne va utiliser que la lumière transmise par celui-ci, ce qui ne représente qu'environ 30% du spectre dans le cas de filtres RVB. Le reste du spectre est "perdu". Une toute petite partie sera absorbée, mais la majeure partie sera réfléchie... c'est pour ça qu'un filtre rouge apparaît cyan s'il est posé sous une lampe.

 

L'idée ici est d'utiliser également cette lumière réfléchie par le filtre. On utilise donc bien 3 fois plus de signal pour composer notre image.

A l'heure ou on pinaille entre une ccd à 70% et une autre à 80% de rendement quantique, je n'appelle pas ça "pas grand chose" :D

 

La résolution spatiale, en effet, bof. suffit d'adapter son échantillonnage.

 

Romain

 

 

  • J'aime 1
  • J'adore 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Non, ton raisonement est  circulaire alors qu'il doit s'arreter au seul argument  valable de la tri ccd : aussi rapide qu'un matrice de bayer, aussi résolu q'une monochrome.

 

a partir du moment ou en terme de rapidité une tri ccd n'est pas plus avantageuse qu'une

bayer , et qu'en plus la résolution ne joue pas ou plus, tu as ta réponse...

Partager ce message


Lien à poster
Partager sur d’autres sites

Ben justement, une tri-CCD est bien plus rapide qu'une bayer, rien d'illogique là dedans.
Avec une bayer, chaque pixel ne récupère que 33% du flux total puisque la majorité du spectre est rejeté par le filtre devant le photosite.
Avec un tri-ccd, chaque capteur récupère tout le flux sur une partie du spectre... donc avec les trois capteurs on récupère tout le flux sur tout le spectre.

C'est pas plus "rapide" dans le sens ou tu ne peux pas diviser le temps de pose unitaire par trois... mais par contre tu récupèreras l'équivalent de 9h de pose en matrice de bayer avec 3h de tri-ccd

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour,

 

Si l'on dispose d'un système dichroïque qui sépare le faisceau en trois R, V et B et SANS FILTRE donc,

et que l'on compare par rapport à un capteur de Bayer : ( taille identique des pixels )

 

En flux lumineux, on a d'un coté :

4 pixels Rouges contre 1 pixel Rouge Bayer

4 pixels Verts contre 2 pixels Verts  Bayer

4 pixels Bleus contre 1 pixel Bleu Bayer.

 

En termes de résolution c'est identique à ci-dessus.

 

Donc double avantage à tri-CCD DICHROIQUE : sans filtres donc !

Tout ceci se paie en termes de complexité par contre.

 

Attention,

comme ça a été dit, ce raisonnement n'est plus valable s'il s'agit d'un CCD non dichroïque ;

c'est à dire que le flux lumineux est séparé en trois faisceaux identiques puis chaque faisceau est filtré par un filtre coloré et capteurs monochromes.

Ce cas est très fréquent pour les caméras tri-CCD !

Dans ce cas de tri-CCD, on gagne en résolution mais pas en sensibilité : on gagne à peine en R et B et on perd sensiblement en V.

 

Lucien

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, Roch a dit :

mais par contre tu récupèreras l'équivalent de 9h de pose en matrice de bayer avec 3h de tri-ccd

Non, pour une durée donnée, à peu de choses près, les pixels rouges d''une matrice de bayer auront un niveau identiques à ceux du capteur monochrome qui reçoit le rouge. idem pour les autres

Je répète, tu gagnes seulement en résolution sur une matrice de bayer, et pas sensiblement en sensibilité (faudrait comparer la transmission du cube séparateur avec celle de filtre du pixel)

et seulement en temps (/3) sur une caméra monochrome qui fait filtre par filtre 

Mais c'est déjà super, je suis d'accord

Et d'accord aussi avec Lucien

Modifié par Chris277
  • Triste 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Ah merci @Lucien, enfin un peu de soutien ;)


Effectivement, peut être y a-t-il confusion puisque je parle sans cesse de filtres. Pour moi, tout dispositif optique placé en amont du capteur, fût-il dichroïque, s'appelle un filtre. La différence avec un filtre classique étant qu'on récupère le flux des deux côtés... mais c'est bien évidemment à un dispositif dichroïque que je pense depuis le début.
Avant ton intervention, il me semblait logique que tous les appareils tri-CCD ou tri-Cmos devaient utiliser des dispositifs dichroïques ; dans le cas contraire on perd une bonne partie de l'avantage que cette construction procure. Visiblement ce n'est pas le cas... :D


@Chris277, le truc c'est que tu raisonnes en sensibilité par pixel. Moi je vois la sensibilité du bazar en entier.
Je ne pense pas me tromper en disant que la plus grande limite en astrophoto c'est le temps de ciel disponible ; donc il me semble logique de définir la sensibilté comme la quantité de signal obtenue par notre setup complet dans un temps donné.
Un photosite rouge de caméra "Bayer" est aussi sensible qu'un photosite rouge de caméra "tri-cmos dichroïque" ; sauf que cette dernière en possède 4 fois plus pour une même surface. Donc mon setup est, selon ma définition, 4 fois plus sensible dans le rouge ( également 4 fois dans le bleu et 2 fois dans le vert ) puisque j'aurai obtenu 4 fois plus de signal "rouge" provenant de cette région du ciel.
Un photosite de caméra "mono" derrière mon filtre rouge est aussi sensible qu'un photosite rouge de caméra "tri-cmos dichroïque" ; sauf que pour produire une image RGB dans un temps donné on peut poser trois fois moins longtemps avec le premier système. Notre setup contenant la caméra tri-cmos dichroïque est donc trois fois plus sensible, toujours selon ma définition.

Donc mon affirmation de base ne me semble pas fausse ;)

 

Après, on pourrait arguer que la plupart des images sont en réalité du LRGB, ce qui réduit le temps consacré au RGB, et donc l'avantage d'un tel bazar. Cependant, plus on allonge la proportion de temps allouée à la luminance, plus on perd d'information dans la colorimétrie ; on y perd donc toujours quelque chose par rapport au "tri-cmos dichroïque"

Le seul désavantage que je vois au système tri-cmos est qu'il nécessite d'allonger les poses par rapport à une caméra mono, puisque le flux par photosite est divisé par 3 au moins. En imagerie "classique", ce n'est pas un problème, mais en imagerie "poses courtes" c'est plus ennuyeux :)

Après rien ne m'empèche de faire, moi aussi, des images en luminance à côté. je gagnerai du temps quoi qu'il arrive sur les couches couleur.

Romain

Modifié par Roch
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Le Tuesday, March 12, 2019 à 20:41, christian viladrich a dit :

On a donc avant tout un gain en résolution. Pas trop en détection (même si l'amélioration de la résolution permet d'améliorer la détection). Dans tous les cas, cela ne retire rien à l'intérêt de la chose ;-)

Je ne te suis pas Christian. En tri CCD tu as 3 fois plus de pixels donc une meilleure détectivité. Shooter le B avec 1 pixels sur 4 interpolé sur les 3 autres, ça n'équivaut pas à une utilisation  d'un capteur entier en B.

 

Sinon beau projet. On y a pensé à une époque au pic du midi avec 4 ou 5 voies mais c'est un peu une usine à gaz. Si tu fais du LRVB en pondérant fortement sur L, tu gagnes assez peu à jouer sur 3 voies en même temps. Surtout en planétaire.  Je fais une couleur au début et une à la fin, les timings intermédiaires je les génère avec winjupos.

En planétaire en plus il faut gérer la réfraction ce qui fait usine à gaz ++++.

Tu devrais te simplifier la vie et faire un instrument juste OIII / H II avec une dichroïque si ton but est le ciel profond.

Mais dans ce cas plutôt viser un imx183. Le 290 en ciel profond bof. Augmenter la taille du capteur c'est une autre façon de détecter plus de photons d'un coup.

 

Ce sur quoi une tri cmos me fait rêver c'est sur la vidéo d'aurores boréales en live. Que dis-je tri cmos, pourquoi pas tri emccd :)

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 7 heures, Famax a dit :

aussi rapide qu'un matrice de bayer, aussi résolu q'une monochrome.

Non, non, non et non. Si tu calcules la valeur d'un bloc bleu de 4 pixels à partir de 1 pixel au lieu de 4 tu as une informatiin 2 fois plus bruitée. L'erreur de raisonnement est de réfléchir point par point. Alors qu'à résolution identique il faut comparer un vrai binning 2x2 de bleu en tri cmos par rapport à une matrice de bayer où tu as perdu 3/4 de ton information bleue dans le bloc de 4 pixels.

 

Si les caméras tri capteur étaient aussi idiotes on se demande pourquoi elles sont toujours développées :)

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Roch a dit :

Donc mon setup est, selon ma définition, 4 fois plus sensible dans le rouge ( également 4 fois dans le bleu et 2 fois dans le vert ) puisque j'aurai obtenu 4 fois plus de signal "rouge" provenant de cette région du ciel.

Il convient plutôt de parler en rapport signal sur bruit et c'est un facteur 2 et non pas 4 pour b et R et un facteur 1.4 sur le canal v. En temps de pose équivalent là oui tu peux parler d'un facteur 3 gagné  par rapport au même capteur en bayer.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Roch a dit :

Le seul désavantage que je vois au système tri-cmos est qu'il nécessite d'allonger les poses par rapport à une caméra mono, puisque le flux par photosite est divisé par 3 au moins.

Non tu as la même quantité d'information en gros. Ce qui joue comme différence c'est que tu vas subir le bruit de lecture 3x pour chaque point de l'image au lieu de 1. Donc là oui il y a une petite perte mais qui joue pas ou peu en pose longue. En vidéo par contre oui ça joue mais en même temps on parle de générations de capteurs très peut bruités donc ce n'est pas si grave.

Partager ce message


Lien à poster
Partager sur d’autres sites
1 hour ago, Roch said:

Un photosite rouge de caméra "Bayer" est aussi sensible qu'un photosite rouge de caméra "tri-cmos dichroïque" ; sauf que cette dernière en possède 4 fois plus pour une même surface

 

Sauf erreur de ma part, il y a une énorme contradiction dans cette phrase et une erreur physique de base.

Ce n'est pas parce que l'on dispose de 4 fois plus de pixels que l'on a 4 fois plus de flux (donc une sensibilité 4 fois meilleure). La réponse d'un pixel unique au cours de la pose (le nombre d'électrons générés) ne dépend que de la quantité de photons reçus par unité de surface au cours de la pose (cela se calcule en W/µm²/s dans une bande spectrale donnée, R, V ou B) si tu veut faire un calcul rigoureux.

Dans une matrice de Bayer, seul un des 4 pixels du groupe de pixels faisant la trichromie reçoit le flux dans une bande donnée. Imaginons que ce soit la bande Rouge et appelons Phi(rouge) ce flux. 

Le pixel rouge en haut a gauche va se charger de N électrons pendant la pose car il est exposé à un flux Phi(Rouge). Son voisin vert ne reçoit rien, et le voisin de son voisin vert reçoit pendant la pose, lui aussi un flux Phi' que l'on considérera proche de Phi  si l'on est dans le cas d'un objet étendu. Bref avec la matrice de Bayer, le pixel vert intermédiaire entre les deux rouges se verra pour l'image rouge, remplacé par une valeur interpolée entre les deux pixels rouge. Mais le premier Pixel rouge sera chargé de N électrons.

Dans le cas du TriCMOS, si les pixels ont rigoureusement la même dimension que dans le cas de la matrice de Bayer, le flux lumineux reçu par la matrice recevant la bande rouge sera aussi Phi(rouge) et donc chaque pixel recevant ce flux se chargera aussi de N électrons pendant une pose de la même durée. La différence c'est que les pixels voisins ne sont pas interpolés, c'est tout.

Donc dans le cas de la Matrice de Bayer devant un capteur donné, ou dans le cas du même capteur (en taille de pixels) recevant les photons de la bande rouge, le flux de photons dans la bande rouge correspondant est le même par unité de surface et par unité de temps. A pose égales, un pixel sensible au rouge (soit par le filtre de la matrice de Bayer, soit par la sélection dichroïque) se chargera de la même quantité d'électrons.

@christian viladrich    et @Lucien ont raison, le triCCD ou le triCMOS améliore l'échantillonnage, t en plus permet une prise simultanée dans les trios bandes (ce qui est énorme pour le planétaire !! ). En sensibilité il n'y a a priori pas de différences. En rapport Signal/bruit, il y en a par contre vu que l'on a moins d'informations les interpolations entrainent des erreurs comme le souligne Jean Luc...

 

C'est un très beau projet en tout cas !!

 

 

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci pour ton passage Jean-luc :)
 

il y a 19 minutes, jldauvergne a dit :

Sinon beau projet. On y a pensé à une époque au pic du midi avec 4 ou 5 voies mais c'est un peu une usine à gaz. Si tu fais du LRVB en pondérant fortement sur L, tu gagnes assez peu à jouer sur 3 voies en même temps. Surtout en planétaire.  Je fais une couleur au début et une à la fin, les timings intermédiaires je les génère avec winjupos.

En planétaire en plus il faut gérer la réfraction ce qui fait usine à gaz ++++.

Tu devrais te simplifier la vie et faire un instrument juste OIII / H II avec une dichroïque si ton but est le ciel profond.

Mais dans ce cas plutôt viser un imx183. Le 290 en ciel profond bof. Augmenter la taille du capteur c'est une autre façon de détecter plus de photons d'un coup


Augmenter la taille du capteur, ça ne marche pas pour moi car mon intérêt principal réside dans les petits objets :D ( sauf à en avoir plusieurs dans le champ, mais j'aime bien me focaliser sur une chose à la fois )
L'imx290, je connais bien, pour le moment j'ai tout fait avec ;) :  https://www.astrobin.com/users/_Roch_/
 

L'imx183, si je ne me trompe pas, ne passera jamais sur une caméra "bâton" au coulant 31.75, ce qui est requis pour le design que j'ai maintenant en tête. Ou alors il faudrait des caméras bâton en 2", mais je ne crois pas que ça existe... ?
Un imx178, à la rigueur, mais les photosites sont plus petits ; pas très bon pour du CP pose courte. De toute manière, je vais penser le design un minimum modulaire pour m'adapter aux années à venir, donc couvrant potentiellement la plus grande surface possible.


Le constat qui m'amène à ce projet, est que coloriser les images acquises en cp rapide un minimum "profondes" justement est très délicat. Déjà, de base, avec un filtre coloré, on perd un bon facteur 4 sur le flux  ( si je compte la perte IR et la perte due au filtre lui même ) ce qui nécessiterait des poses 4 fois plus longues pour garder le ratio (bruit de fond de ciel) / (bruit de lecture). Généralement sans autoguidage, on supporte difficilement des poses unitaires 4 fois plus longues ( sans parler de la perte de piqué associée à cause de la turbu intégrée plus longuement ) Pour ma part, je ne peux actuellement pas dépasser les 4s unitaires, donc je perds encore plus de RSB sur des poses prises à travers les filtres colorés puisque je fais mes images principales en poses de 2s.
J'ai essayé d'autres solutions, mais ça reste du bidouillage et ce n'est pas vraiment ce que je cherche.

Le tri-Cmos ne changera rien à ce problème, mais il permet au moins d'aller trois fois plus vite ;)

Il y a également d'autres avantages...
En cp rapide, la dispersion atmosphérique commence aussi à être un problème, et un ADC est inutilisable puisque le F/D requis est d'au moins 8 ( je crois ) ;
Un tri-cmos apportera déjà une correction substantielle de ce phénomène après recalage et empilement des images, par rapport à une luminance prise sans filtre. Evidemment il est préférable d'attendre que l'objet monte, mais pour un objet perpétuellement bas, pourquoi pas...

Peut être un bi-Cmos serait-il intéressant en effet, mais il me semble délicat de pouvoir obtenir une image RVB propre à partir de seulement deux canaux. Un design à filtre dichroïque interchangeable est une option pour faire varier la longueur d'onde de séparation, mais à mon avis bien trop complexe ;)

 

il y a 52 minutes, jldauvergne a dit :

Non tu as la même quantité d'information en gros. Ce qui joue comme différence c'est que tu vas subir le bruit de lecture 3x pour chaque point de l'image au lieu de 1. Donc là oui il y a une petite perte mais qui joue pas ou peu en pose longue. En vidéo par contre oui ça joue mais en même temps on parle de générations de capteurs très peut bruités donc ce n'est pas si grave.


C'est ce que je voulais dire, je me suis exprimé un peu vite ;) Le temps de pose total est le même mais idéalement, le temps de pose unitaire doit tripler ou quadrupler.


Sauf qu'en poses courtes, c'est un problème ;)

 

il y a 8 minutes, brizhell a dit :

Sauf erreur de ma part, il y a une énorme contradiction dans cette phrase et une erreur physique de base.

Ce n'est pas parce que l'on dispose de 4 fois plus de pixels que l'on a 4 fois plus de flux (donc une sensibilité 4 fois meilleure). La réponse d'un pixel unique au cours de la pose (le nombre d'électrons générés) ne dépend que de la quantité de photons reçus par unité de surface au cours de la pose (cela se calcule en W/µm²/s dans une bande spectrale donnée, R, V ou B) si tu veut faire un calcul rigoureux.

Dans une matrice de Bayer, seul un des 4 pixels du groupe de pixels faisant la trichromie reçoit le flux dans une bande donnée. Imaginons que ce soit la bande Rouge et appelons Phi(rouge) ce flux. 

Le pixel rouge en haut a gauche va se charger de N électrons pendant la pose car il est exposé à un flux Phi(Rouge). Son voisin vert ne reçoit rien, et le voisin de son voisin vert reçoit pendant la pose, lui aussi un flux Phi' que l'on considérera proche de Phi  si l'on est dans le cas d'un objet étendu. Bref avec la matrice de Bayer, le pixel vert intermédiaire entre les deux rouges se verra pour l'image rouge, remplacé par une valeur interpolée entre les deux pixels rouge. Mais le premier Pixel rouge sera chargé de N électrons.

Dans le cas du TriCMOS, si les pixels ont rigoureusement la même dimension que dans le cas de la matrice de Bayer, le flux lumineux reçu par la matrice recevant la bande rouge sera aussi Phi(rouge) et donc chaque pixel recevant ce flux se chargera aussi de N électrons pendant une pose de la même durée. La différence c'est que les pixels voisins ne sont pas interpolés, c'est tout.

Donc dans le cas de la Matrice de Bayer devant un capteur donné, ou dans le cas du même capteur (en taille de pixels) recevant les photons de la bande rouge, le flux de photons dans la bande rouge correspondant est le même par unité de surface et par unité de temps. A pose égales, un pixel sensible au rouge (soit par le filtre de la matrice de Bayer, soit par la sélection dichroïque) se chargera de la même quantité d'électrons.

@christian viladrich    et @Lucien ont raison, le triCCD ou le triCMOS améliore l'échantillonnage, t en plus permet une prise simultanée dans les trios bandes (ce qui est énorme pour le planétaire !! ). En sensibilité il n'y a a priori pas de différences. En rapport Signal/bruit, il y en a par contre vu que l'on a moins d'informations les interpolations entrainent des erreurs comme le souligne Jean Luc...

 

C'est un très beau projet en tout cas !!


Je comprends l'analyse, et peut être que j'ai tort de procéder de la sorte, mais comme tu raisonnes par photosite et moi sur l'ensemble du capteur, nous obtenons des résultats différents.

Tu dis : "Ce n'est pas parce que l'on dispose de 4 fois plus de pixels que l'on a 4 fois plus de flux, donc une sensibilité 4 fois meilleure. La réponse d'un pixel unique au cours de la pose ne dépend que de la quantité de photons reçus par unité de surface au cours de la pose"

J'applique à la lettre ce procédé; on considère un capteur de 10µ de côté avec des pixels de 1µ. Avec une matrice de bayer, seul 25 pixels recevront un "flux rouge" que l'on supposera constant et égal.
Mon capteur traduira donc en électrons ce flux seulement sur 25 pixels, alors qu'un capteur monochrome le traduira le flux en électrons sur 100 pixels. Il y aura donc bien une sensibilté quatre fois meilleure pour le second capteur puisqu'il aura traduit quatre fois plus d'électrons pour une surface sensible égale. L'interpolation n'apporte aucune information.

Evidemment si tu ne considère que la surface sensible "rouge" du capteur bayer, cela ne marche pas. Mais ça me semble illogique. J'ai bien dit "la sensibilité d'un capteur", pas "la sensibilité des photosites rouges d'un capteur"

Qui plus est, la sensibilité ( = la quantité de signal ) a un rapport direct avec le RSB, puisque dans une image astro prises dans des conditions standard, le bruit prédominant est le bruit de fond de ciel. Or, le bruit de fond de ciel varie avec la racine carrée de la quantité de signal...
Donc dire que "en sensibilité il n'y a pas de différences" et en même temps que "le RSB augmente" pour moi c'est un contresens ;) Si le signal n'augmente pas, alors qu'est-ce qui fait augmenter le RSB ?


A moins qu'il y ait une distinction entre "quantité de signal" et "sensibilité"... ?

Romain

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 26 minutes, Thierry Legault a dit :

Et comment vous pilotez 3 caméras en même temps ?


C'est une question qu'il faudra résoudre également :D

 

Mais je suppose qu'il doit bien exister des solutions...

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
10 minutes ago, Roch said:

Je comprends l'analyse, et peut être que j'ai tort de procéder de la sorte, mais comme tu raisonnes par photosite et moi sur l'ensemble du capteur, nous obtenons des résultats différents.

 

Non, les résultats sont différents car on ne parle pas de la même quantité mesurée, et cela fausse ton raisonnement, je m'explique :

 

12 minutes ago, Roch said:

A moins qu'il y ait une distinction entre "quantité de signal" et "sensibilité"... ?

 

En effet il y a une distinction entre les deux. Ce que l'on appelle le flux c'est la quantité de photons distribuée sur une unité de surface (m², mm², µ²).

La sensibilité du capteur c'est la capacité du capteur à transformer les photons en électrons par unité de surface et par unité de temps. (et non pas sur la surface sensible utile).

 

Les pixels dans les deux cas ont la même taille, ce qui veut dire qu'a temps de pose égales, chaque pixels recevra la même quantité de photon. Donc dans les deux cas, chaque pixels unique représentant la même surface, aura la même réponse à l'éclairement.

 

17 minutes ago, Roch said:

Mon capteur traduira donc en électrons ce flux seulement sur 25 pixels, alors qu'un capteur monochrome le traduira le flux en électrons sur 100 pixels. Il y aura donc bien une sensibilté quatre fois meilleure pour le second capteur puisqu'il aura traduit quatre fois plus d'électrons pour une surface sensible égale. L'interpolation n'apporte aucune information.

 

C'est ici qu'est ton erreur, La surface que représente 25 pixels n'est pas comme tu le dit "sensiblement égale" a celle que représente 100 pixels : la quantité d'électrons générés par une surface de 25 pixels est effectivement 4 fois moins grand que dans le cas du nombre d'électrons reçu par 100 pixels, mais 100 pixels représentent une surface 4 fois plus grande. Or si je reprend la définition du flux Phi reçu par l'ensemble de ton capteur (qui est constant sur tout le capteur), N(Bayer) le nombre d'électron pour la matrice de Bayer et N(TriCMOS) le nombre d'électron pour le triCMOS : Phi=N(TriCMOS)/100=(4*N(Bayer))/(4*25)=N(Bayer)/25

Donc chaque pixels pris individuellement, dans les deux cas, produira la même quantité d'électrons, qu'il y en ai 25 ou qu'il y en ai 100, ce qui veut dire que pour obtenir N électrons par pixels, il faudra poser autant dans les deux cas. La sensibilité est donc la même.

L'interpolation n'ajoute pas de signal, elle comble les lacunes de signal spatial, d'où la remarque de Christian sur l'échantillonnage.

 

51 minutes ago, Roch said:

Qui plus est, la sensibilité ( = la quantité de signal ) a un rapport direct avec le RSB, puisque dans une image astro prises dans des conditions standard, le bruit prédominant est le bruit de fond de ciel. Or, le bruit de fond de ciel varie avec la racine carrée de la quantité de signal...
Donc dire que "en sensibilité il n'y a pas de différences" et en même temps que "le RSB augmente" pour moi c'est un contresens ;) Si le signal n'augmente pas, alors qu'est-ce qui fait augmenter le RSB ?

 

Non, il y a deux erreurs ici. La sensibilité n'est pas égale à la quantité de signal, mais on le voit dans ma remarque précédente. Dans un deuxième temps, le RSB dépend de la quantité de signal reçu par unité d'angle solide. Là ça va être un peu plus "touchy" pour comprendre. En gros, si tu prend une nébuleuse dont la magnitude intégrée est de 7 mais qui s'étend sur plusieurs degrés, il va te falloir poser longtemps pour que des détails de quelques minutes d'arc deviennent perceptibles sur tes poses (le signal doit être intégré longtemps pour passer au dessus du seuil de bruit). A contrario, une étoile de magnitude 7, mais dont la taille angulaire est ridiculement petite sera perceptible avec le même télescope, le même train optique, la même caméra en quelques secondes (voir moins en fonction du diamètre du télescope). 

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon j'ai bien tout lu, mais il me semble que finalement ça revient à ce que je disais... tu n'intègres que les photosites rouges dans la surface sensible.

Si j'intègre également les photosites verts et bleus dans le calcul, en leur attribuant un rendement quantique de 0% dans le rouge, ben la capacité moyenne du capteur à traduire des photons "rouges" en électrons par unité de surface ( donc la sensibilité ) se trouve réduite d'un facteur quatre.

 

Quand tu parles de la sensibilité, tu ne tiens pas compte de la surface de tout le capteur, mais uniquement de celle des photosites rouges. Donc pour moi, ça revient à dire "la sensibilité des photosites rouges d'un capteur bayer est égale à celle des photosites d'une matrice tri-cmos dans le rouge"

 

Mais quand je dis "le capteur", je parle de tous les photosites, pas seulement des rouges. Donc si je parle de la sensibilité du capteur, c'est donc bien de la sensibilité moyenne de tous les photosites qu'il faut se soucier...

 

non ?

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
7 minutes ago, Roch said:

Bon j'ai bien tout lu, mais il me semble que finalement ça revient à ce que je disais... tu n'intègres que les photosites rouges dans la surface sensible.

Si j'intègre également les photosites verts et bleus dans le calcul, en leur attribuant un rendement quantique de 0% dans le rouge, ben la capacité moyenne du capteur à traduire des photons en électrons par unité de surface ( donc la sensibilité ) se trouve réduite d'un facteur quatre.

 

Non, ce n'est pas la sensibilité que tu module d'un facteur 4, mais la quantité de signal. Encore une fois il s'agit de deux choses différentes.

Le raisonnement que j'ai fait précédemment uniquement sur le rouge, peu être étendu aux autres couleurs, avec un facteur 2 au lieu de 4 pour le vert, puisque tu a 2pixels vert sur 4.

Pour les même considérations que celles que j'ai fait dans le rouge (éclairement en rouge = Phi(rouge)), tu aura aussi Phi(bleu) Phi(vert), à considérer identique dans les deux cas de figure (Bayer ou TriCMOS). Chacune de tes trois caméras aura la même sensibilité qu'une caméra unique dans chaque bande RVB, mais captera une quantité de signal plus grande (ce qui n'est pas la condition suffisante pour réduire le temps de pose puisque cette plus grande quantité de signal sera diluée sur une plus grande surface de capteur .

 

18 minutes ago, Roch said:

Donc pour moi, ça revient à dire "la sensibilité des photosites rouges d'un capteur bayer est égale à celle des photosites d'une matrice tri-cmos dans le rouge"

 

Ça c'est exact, et comme dit plus haut, tu peut étendre ce raisonnement dans le vert et dans le bleu

 

19 minutes ago, Roch said:

Mais quand je dis "le capteur", je parle de tous les photosites, pas seulement des rouges. Donc si je parle de la sensibilité du capteur, c'est donc bien de la sensibilité moyenne de tous les photosites qu'il faut se soucier...

 

 

La sensibilité moyenne du capteur est donnée en général sur le datasheet de la matrice, il faut en plus considérer la bande passante et l'atténuation des filtres de la matrice de Bayer. Mais hors matrice de Bayer, il faut regarder de près le rendement des dichroïques....

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon en fait on est d'accord depuis le départ, c'est juste une question de terminologie ; pour moi la sensibilité était la quantité de signal.

 

Je convertis bien une quantité de lumière trois fois plus importante avec mon bazar, mais comme j'ai une surface sensible 3 fois plus étendue, la sensibilité des deux caméras est égale. Cependant, je traduis bien un flux total trois fois plus important en électrons qu'une matrice de bayer pour un même cadrage.

 

Après, pour ma défense, dés lors qu'on fait des poses unitaires suffisamment longues, multiplier par 3 la quantité de signal ou la sensibilité reviendra au même en terme de RSB sur l'image finale ;)

 

Bref, j'arrète de hs mon propre post :D

 

Pour revenir au sujet, je viens de me procurer pour presque rien un vieux caméscope tri-ccd HS, je vais le désosser pour voir ce que ça donne. J'ai du mal à retrouver le datasheet tellement le modèle est vieux :D mais je crois que le prisme dichroïque ( s'il existe ) sera trop petit...

 

Romain

Modifié par Roch
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 11 heures, Roch a dit :

Le constat qui m'amène à ce projet, est que coloriser les images acquises en cp rapide un minimum "profondes" justement est très délicat.

Si c'est ça ton but laisse baton, fait ta prise de vue rapide en L. En RVB tu peux poser plus long et avoir moins de résolution ça ne dégrade pas la résolution finale de l'image. Tu auras moins de résolution sur les couche couleur, mais visuellement il faut un très gros écart pour que ça se voit. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant