cbuil

Rendement quantique A7s / 5D MkIII / Atik460EXI

Messages recommandés

J'ai essayé de trouver le rendement quantique du Sony A7s et du 5D Mark III en comparant avec celui assez connu du capteur de la caméra Atik40EX. Cette analyse est faite sur étoile (Véga) et la valeur donnée est valable pour la raie Halpha. Voici directement le tableau de résultat, avec dans la légende les explication sur les conditions expérimentales :

Donc le rendement du capteur Sony est pris en référence, avec une valeur de 65%. Dans ce cas, le rendement des pixels rouge du 5D MkIII est de 41% et celui du A7s de 54%, dès lors que les boitiers sont défiltrés Astrodon (Richard Galli). Sans défiltrage le rendement quantique du A7s chute à 9%. Donc c'est un facteur 6 en quantité de flux collecté qui est apporté par le défiltrage d'après mes mesures.

Attention, les rendement APN calculés sont valables dans le cas hypothétique d'un capteur monochrome (sans matrice de Bayer). C'est le rendement "pixel" qui est donné ici. En pratique dans le rouge, 1 pixel sur 4 est actif seulement, du coup les rendement Canon et Sony ci-devant doivent en pratique être divisé par 4 pour une comparaison objective.

Pour les curieux, voici d'autres détails sur la technique utilisée :

Il faut souligné que les pixels vert et bleu donnent un signal. Cela vient du fait que les filtres qui recouvrent les pixels ne sont pas des pur RVB. Il y a chevauchement des courbes et remonté même.

(attention, il y a une erreur de frappe, la dernière série de chiffres concerne le A7s non modifié).

A ce jeu, c'est le Canon 5D qui sélectionne les couleurs les plus pures avec sa matrice de Bayer. La balance des blancs est plus problématique avec le A7s. On note qu'il y a 25% du signal dans le vert lorsqu'on réalise une image Halpha avec un tel boitier, en général pas exploité je pense (c'est du vrai signal Halpha, mais détecté par les pixels vert, c'est ainsi !).

Enfin, un regroupement d'autres éléments concernant ces caméras que j'ai mesuré. Ils seront utiles par exemple pour calculer la magnitude limite, pour intercomparer, etc
(noter le taux de signal thermique APN vs CCD pour les températures données...).

Ne pas hésiter à faire des commentaires sur les valeurs et la technique employé.

Christian

[Ce message a été modifié par cbuil (Édité le 04-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Voici une analyse très intéressante Christian !
En prenant en compte que le capteur n'est pas deeply depleted, cela doit donner une sensibilité dans le vert qui flirte ou dépasse les 80%, ce qui est en ligne avec ce que je vois sur les derniers IMX Exmor classique.

Une version épaissie et sans matrice bayer serait décidément le dernier clou dans le cercueil du CCD, sans même parler d'une version BSI.

Frédéric.

Partager ce message


Lien à poster
Partager sur d’autres sites
"Une version épaissie et sans matrice bayer serait décidément le dernier clou dans le cercueil du CCD"

Oh Fred, tu te laisses aller là !! :-)

Fred

Partager ce message


Lien à poster
Partager sur d’autres sites
Erreur.

[Ce message a été modifié par christian_d (Édité le 04-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
La résolution en halpha (rouge) doit être divisée par quatre pas le rendement non?
jérôme

Partager ce message


Lien à poster
Partager sur d’autres sites
Fred tu oublis le refroidissement pour des darks fiables et reproductible ou alors il faudrait un A7 n&b défiltré refroidi et thermorégulé et là ça serait la mort des ccd.
Mais d'après philippe, les futurs capteurs devraient donner à nouveau une sacré longueur d'avance aux ccd...
jérôme

Partager ce message


Lien à poster
Partager sur d’autres sites
Voici un exemple de bilan radiométrique pour la comparaison, histoire de faire un peu parler les formules et surtout les valeurs dans les tableaux.

Je cherche le rapport signal sur bruit (RSB) en observant un objet étendu (nébuleuse) produisant dans le plan du détecteur un éclairement de 0,05 photon par seconde sur une aire de 1 micron carré. Le temps de pose est de 300 secondes.

Dans ce qui suit S est le signal capté dans un pixel, calculé en faisant le produit de la surface du pixel, de l'éclairement, du temps de pose et du rendement quantique/

Sigma est le bruit, calculé en faisant la somme quadratique du bruit du signal d'obscurité, du bruit de signal de l'étoile (bruit de photon) et du bruit de lecture.

Le RSB est le rapport des deux bien sur. Plus c'est haut, mieux c'est.

Voici le résultat pour la caméra Atik460EX :

Celui pour le 5D MkIII, mais ici, j'ai divisé le rendement par 4, car on suppose que l'on est dans Halpha et qu'un pixel sur quatre est effectif. On outre j'ai considéré un temps de pose élémentaire de 30 secondes, et considéré que l'on somme 10 clichés. Ceci est d'autant plus justifié que j'ai constaté que le mode BULB du Sony A7s est totalement inutilisable en astro, car effectivement un filtrage pourri absolument les RAW (quelle honte d'appeler cela un RAW, on est revenu dans les grandes heures de Nikon). Donc le Canon (qui lui a un RAW impeccable) :

et enfin le A7s :

Le 5D MkIII est à la traine, en revanche, le A7s s'accroche, malgré le 1/4. Je suis d'accord, si Sony osé faire un monochrome...

Mais bien sur le A7s triche, car il résout nettement moins bien que la caméra Atik (je laisse faire le calcul à résolution équivalente, il y a de l'exploitation à faire). Cela montre qu'il n'est pas aisé de faire des comparaisons avec les APN. Et encore, je ne tiens pas compte ici du bruit de calcul lorsqu'on interpole le Bayer, ou bien pire, les atrocités que fait subir Sony à ces images.

Ok, Sony n'a pas fait une caméra pour l'astro, le marketing prend le dessus. On doit saluer le RON proche d'un électron. Le A7s est le plus sensible de sa catégorie (photo extrême, vidéo...). Mais les APN n'approcheront les caméras CCD astro que lorsque le firmware laissera tranquille les images et que lorsque le monochrome ce généralisera. Verra-t'on cela, hum...

Pour finir, si quelqu'un peu me dire ce que signifie les ISO avec ces chiffres, cela m'intéresse !

Christian

[Ce message a été modifié par cbuil (Édité le 04-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Quand je parle des CCD, je pense à la technologie de capteur, pas aux caméras. Pour les caméras, elles sont irremplaçables pour tout un tas d'applications à commencer par le narrowband.
Je ne vois pas vraiment la raison pour laquelle tu divises la QE par 4. Ce n'est que la résolution qui est réduite pour moi ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Non ce n'est pas la résolution qui est réduite à proprement parler. C'est en fait l'équivalent du facteur de remplissage qui change. Il faut voir ici la cellule Bayer (CFA) comme un ensemble de 2x2 pixels cohérent. De fait la résolution avec un tel capteur n'est pas celle donnée par le pixel élémentaire, mais par cette structure (dans laquelle on interpole pour trouver le signal couleur avec les cellules voisines pour trouver la couleur). Faut pas croire les pub avec leur 12, 24 M... pixels de détection, dans les fait c'est de la tromperie à mon avis.

Pour moi la résolution d'un CMOS A7s n'est pas celle d'un pixel de 8,4 micron, mais de 16,8 microns, en tout cas dans le rouge (et le bleu). On peut discuter d'un facteur racine quelque chose (en vert par exemple), de FTM, ... mais il ne faut pas rêver, la structure CFA fait qu'on lisse l'image et qu'on ne peu considérer le pixel élémentaire comme l'élément d'échantillon de base, ce serait trop facile.

Quant on fait l'analyse photométrique sur un objet à surface étendu, la pas de mesure ne change pas, mais n'empèche, avec un CMOS Bayer, on retire bien ici 3 pixels sur 4 dans le surface de détection, d'où la division.

Christian

[Ce message a été modifié par cbuil (Édité le 05-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
En narrowband sur un APN, on ne traite que la couche rouge. Donc perte de résolution, mais pas de sensibilité.

Partager ce message


Lien à poster
Partager sur d’autres sites
merci Christian pour ces mesures
je suis en vacances avec une connexion internet limitée donc je regarderai de plus près à mon retour.
Pour ce qui est de la résolution et sensibilité en Ha pure, mis à part le fait que les pixels verts reçoivent un peu de rouge, effectivement sur un nombre de photons arrivants sur le capteur, seuls 1/4 seront dirigés sur les pixels rouges (si on considère qu'il n'y a pas de filtre anti-aliasing) et donc on peut effectivement introduire un coef 1/4 dans le QE de la sensibilité générale du capteur avec une résolution de 16.8um.

pour le reste, sur le A7s et la politique de Sony à triturer un RAW de la sorte, je suis d'accord, c'est une honte ! Je n'ai pas non plus digéré le mode bulb alors que je commençais à faire avec la conversion DNG 14bits des Raw.
Pour l'electroluminescence, oui, la aussi, il y a à redire et je suis d'accord avec tes remarques...
Le A7s (défiltré) reste l'APN le plus "sensible" du marché mais avec des lacunes qui pourront plus où moins être corrigées par un nouveau firmware.

[Ce message a été modifié par PixInsight.fr (Édité le 05-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
J'ai eu un un soucis en recollant les morceaux après analyse de données supplémentaires concernant les caméra QSI-583 et QSS-532 avec le protocole ci-dessus.

J'ai une certaine confiance dans le rendement donné par kodak pour ces CCD, à savoir 76% pour le modèle QS-532 et 48% pour le modèle QSI-583 (en tenant compte du hublot)

La conséquence est une baisse globale du QE. Voici comment j'ai trouvé ce résultat,

Le rendement dans le rouge d'une caméra Atik460 est à présent compté de 53% à 656 nm,
au lieu de la valeur de 65 % qui circule pas mal sur le web. Par effet d'avalanche, tout est sur évalué, au moins dans mon étude (PixInsight, un avis ?).

J'ai pris un peu de soin et la méthode employée est robuste.

Au final, voici le tableau global :

On notera que la Atik414, ajouté dans l'étude, constitue un net progrès par rapport à la Atik314. La 414 dépasse même un tout petit peu la 460 en QE. Bonne nouvelle aussi pour la Atik414, avec un refroidissemet plus efficace (deltaT jusqu'à 38°C). Avec en plus un signal thermique déjà faible, c'est une très bonne chose.

Christian

[Ce message a été modifié par cbuil (Édité le 06-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
@Philippe : je veux bien tes explications alors, car pour moi si l'on veut caractériser la sensibilité intrinsèque du capteur, on ne doit considérer que les pixels rouges et non pas l'effet du dématriçage.
Si on utilise que la couche rouge pour du HA, la sensibilité est bien 44%, pertes dues au filtre rouge incluses.

Après en utilisation LRGB effectivement on a le dématriçage, mais cela tient à la méthode d'exploitation de l'image et au fait qu'on ai la matrice, pas au capteur stricto sensu. Et en Ha on perd la lumière qui est sur les pixels adjacent, c'est peut être à cela que vous faites référence ?

[Ce message a été modifié par chonum (Édité le 06-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
non Fred, si tu envoies un large flux de photons Ha sur le capteur, comme l'étoile défocalisée de Christian, alors seulement 1/4 des photons arriveront sur les pixels rouges sur une surface de 16.8um, et dès lors, 44% d'entre eux seront absorbés et créeront 1 e- chacun.

Si tu avais le meme capteur sans matrice de bayer, donc monochrome, avec ce meme flux, toujours sur 16.8um, alors ton capteur sera 4x plus sensible (sans compter la perte du filtre)
le pixel unique de 8.4um aura reçu le meme nombre de photons que le pixels rouge de la version couleur, bien entendu, et c'est ça dont tu vois uniquement.
Mais si on veut comparer par rapport au flux de photons arrivant, et si on veut être rigoureux sur la sensibilité ou la détectivité par rapport a ce flux, alors, on est obligé de considérer qu'un super pixel de bayer (RGGB) ne recoit qu'1/4 du flux Ha et de ce fait se retouve bien moins sensible que sa version monochrome pour la meme surface ! j'insiste sur la surface.

il faut donc prendre toutes ses précautions lors d'un calcul de QE qui plus est par référence a un capteur CCD bien connu.

Christian, Sony donne de FAUX rendements quantiques, comme Kodak d'ailleurs, sur leurs capteurs à microlentilles. le QE est donné à une certaine ouverture numérique et diffère selon si on est à f/1.4 ou f/8 par exemple.
pour un CCD de référence, il est donc important d'utiliser un capteur sans microlentille car l'effet du f/# se fait nettement moins sentir. Mais il n'est pas nul non plus. Seul un CCD back-illuminated pourrait servir de référence 100% sure. Mais on n'a pas besoin de cette précision pour caractériser un APN.
Mefiance avec sony

philippe

Partager ce message


Lien à poster
Partager sur d’autres sites
Une façon de voir est de considérer l'observation d'une nébuleuse d'étendu surfacique uniforme. D'un coté elle est vue avec une détecteur "normal" à pixels adjacents de 8 microns de pas (cas A), De l'autre coté elle est observée avec un détecteur APN donc les pixels élémentaires font toujours 8 microns de coté, mais dont seulement 1/4 est sensible (cas B). Elle est observée dans le rouge par exemple, avec un filtre interférentiel Ha.

Dans les images brutes, la taille de la nébuleuse est la même. On peut même interpoler la matrice de Bayer pour combler les trous dans l'image du cas B, tout en gardant le pas de 8 microns. Du coup, les images seront très similaires vu d'un peu loin (je rappelle que la nébuleuse est uniforme). On pourra dire que la résolution angulaire est la même (même si dans le cas B la structure de base est un super-pixel de 16 microns de coté - le vice de la matrice de Bayer est que l'aspect final de l'image dépend de la nature de cette image).

Mais voila, supposons que la nébuleuse fasse 100x100 pixels de large. Dans le cas A, 10000 pixels fournissent du signal, alors que dans le cas B, c'est seulement 10000/4 = 2500 vrais pixels. Du coup, le rapport signal sur bruit chute dans le cas B. On a bien un problème radiométrique à la base. Il faut le voir si tu veux chonum de manière statistique (voila pourquoi j'ai pris une large nébuleuse et le signal intégré total qui en vient, en terme de quantité d'information).

Est-ce qu'on est d'accord et cela répond à la question ?

Christian

Partager ce message


Lien à poster
Partager sur d’autres sites
A ce jeu je pense que tout le monde a un peu raison. Tout dépend du point de vue dans son propre raisonnement.

Dans le cas très spécifique du filtre H alpha, le 1/4 ne se discute pas.


Par contre, si la finalité est de faire une image couleur LRVB, l'APN n'est pas 4 fois moins performant que la CCD toutes choses égales par ailleurs. Pour la partie RVB il est en gros aussi performant, et pour l'équivalent d'un temps de pose en L là c'est plutôt un facteur 1/3 qui joue, et peut être même 1/2 si on tient compte du fait que les courbes des filtre bayer se chevauchent les unes les autres.

Dans la pratique pour le narrow bande avec un APN, il me semble qu'il vaut mieux mettre un filtre CLS, qu'un Halpha. Et là ce n'est plus du 1/4 qui joue. La pénalité de l'APN va dépendre des raies d'émissions de la source. Sur les dentelles tous les pixels fonctionnent, Ha, Hb et OIII sont enregistrés en même temps.
En milieu pollué c'est la largeur des bandes du CLS qui pénalisera l'APN, mais en milieu sombre il va très bien s'en tirer par rapport à la CCD en théorie.

Du coup le 1/4 me est justifié mais reste un cas théorique, et non un cas pratique.

Quoi qu'il en soit c'est super cette mesure, ce qui nous intéresse c'est bien de savoir le RQE de chaque pixel et là on là, au moins dans une longueur d'onde. Super manip ! Merci Christian.

Partager ce message


Lien à poster
Partager sur d’autres sites
Jean-Luc et vous autres, merci pour les commentaires. Tu a bien saisi que le RQE donné est le RQE "pixel". Dès que je peux, je passe le A7s (entre-autre) en spectro pour à partir de cette mesure déduire le rendement à d'autres longueur d'onde. C'est un peu haute voltige et ca prend du temps (là je vais filer à l'Observatoire de Haute Provence, où on anime le stage annuel de spectrographie - et où j'aurais pour une fois un ciel noir, même si la météo s'annonce fort médiocre...).

C'est compliqué d'avoir le rendement vrai dans les situations que tu relève (signal polychromatique). A vrai dire, le cas monochromatique rouge n'est pas si théorique que cela. Qu'on utilise un filtre étroit, un filtre CLS, ou rien, le résultat est que dans le rouge, on aura un déficit par rapport à un détecteur offrant un facteur de remplissage unitaire. Dans le vert, c'est clair que l'on a deux fois plus de pixels actifs, c'est tout à fait juste et géométrique. Le CLS permet d'acquérir 2 couleurs de raies simultanément, c'est bien et on pourrait parler ici du rendement global dans ce type de situation, comme tu l'aborde (réduction du temps de mesure par deux en somme, mais le CLS ne filtre pas assez pour le l'imagerie à hyper contraste nébulaire pour moi). Il y a aussi la question de objects ponctuels...

J'ai en fait ici une approche spectrale, mais à mon avis c'est la seule qui permet une intercomparaison un peu "scientifique", sachant qu'entre la théorie (compte tenu des limites théoriques et des méthodes d'interpolation par exemple) et la pratique (pas toujours représentative de toutes les situations) il peut y avoir des nuances, c'est sur. De fait, oui, on peut discuter sur le facteur 1/4, 1/3, 1/2, suivant la couleur, suivant le type d'objet.

L'histoire du QE n'est qu'une partie de l'affaire. Les CMOS APN présentent un bruit qui n'est pas nécessairement gaussien et qui mérite que l'on si penche (je ne parle même pas ici du filtrage sauvage produit par le firmware). C'est vrai en particulier pour le signal thermique. A ceci s'ajoute le bruit corrélé lié à la manière de faire le développement Bayer, et qui fait notamment que le look des images CCD monochrome n'est pas le look des images CMOS couleur.

Christian

Partager ce message


Lien à poster
Partager sur d’autres sites
C'est clair que c'est la bonne approche. Avec un capteur qui doit piquer dans le vert en RQE ce résultat confirme la gloutonnerie de cet APN pour avaler les photons. Et savoir que les filtres se chevauchent c'est trèèss bon à savoir. C'est plutôt malin de la part de Sony comme façon de gratter le fond du tiroir pour améliorer encore les performances.

Quand ils auront fini de gratter les fonds de tiroir ils comprendront qu'il ne leur reste plus qu'à faire un tri CCD full frame .... plutôt que d’empiler des couches comme chez Sigma et maintenant Canon.

Un tri CCD avec 1 électron de bruit imaginez, ... arf Surtout que comme avec les capteurs Foevon il doit y avoir moyen de se contenter d'une résolution spatiale moindre, à 6 ou 8 millions de pixels. Et donc avoir des très gros pixels. On aurait donc un APN théorique peut être 4 fois ou 5 fois plus sensible que le 7s, ... gasp.

Au lieu de nous faire une caméra à la con avec une matrice de Bayer chez Canon, pour 30 000$ il pouvaient le faire le tri CCD. Ils auraient presque pu l'annoncer sans rougir la sensibilité en millions d'iso.

Dommage par contre cette histoire de pose B, je ne m'en étais pas rendu compte encore. A 30" les fichiers gardent bien leur intégrité non ?

Partager ce message


Lien à poster
Partager sur d’autres sites
faire du tri-CCD ou tri-CMOS est illusoire à notre époque. trop complexe. le Fovéon est un ratage (sensibilité très très moyenne)
99% des applications du marché de la caméra couleur (APN et + ) ne nécessite qu'un capteur à matrice de bayer (mais il y a des variantes, pixel L,R,G,B au lieu de RGGB par exemple).
De plus, pas mal de documents scientifiques montrent que la perte de résolution due à la matrice de bayer est minime si on applique les bons algorithmes d'interpolation.


Les filtres bayer RGB se sont toujours chevauché (spectralement) chez tous les constructeurs. C'est du aux colorants utilisés pour coloriser la matrice. Les réponses sepctrales sont larges et laissent souvent passer les IR.

Aussi, l'astrophoto reste marginale. Pire, l'astrophoto "haut de gamme" l'est encore plus (marginale) et Sony se fout royalement de l'astrophoto.

la caméra de Canon à $30k n'est pas révolutionnaire. il existe déjà des CMOS BSI de 2k x 2k avec 1 e- de bruit de lecture et des pixels de 11um à 48fps avec des QE de 80% et 96dB de dynamique pour bien moins cher que ça. Je devrais d'ailleurs pouvoir en teste une caméra refroidie avec ce capteur dans les prochians mois. Car meme en longue pose, le cmos s'améliore.

les prochaines années vont être riches en nouvelles technos. Sans compter des capteurs mélangeant Visible et IR !

[Ce message a été modifié par PixInsight.fr (Édité le 07-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci pour ces infos Christian.

De mon coté il me semble bien aussi que le rendement quantique de l'Atik 460EX en Halpha est surestimé par Sony.

Dans la pratique, sur un même tube, on a une image très proche d'une QSI683. (qu'il faut refroidir plus bas bien sur, mais c'est fait pour).

Partager ce message


Lien à poster
Partager sur d’autres sites
que les autres chevauchent ok, mais 25% en HII sur les pixels verts c est beaucoup non ?

[Ce message a été modifié par jldauvergne (Édité le 07-08-2015).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Pour ma part 25 % je trouve cela effectivement fort. La technologie ne permet pas de réaliser de vrais filtres passe-bandes bien raides comme on les utilise en en trichromie, c'est un fait (ils se recouvrent de façon irrégulière, je vous mesure cela dès que possible pour le A7s). Pour la photo de tous les jours c'est correct, mais se serait bien qu'il y ai aussi des progrès dans ce domaine...

Christian

Partager ce message


Lien à poster
Partager sur d’autres sites
Question à 2 balles : en quoi c'est illusoire à notre époque le tri-capteur ? Trop touchy opto-mécaniquement en FF ? J'aurais eu tendance à penser qu'avec le coût de revient des capteur à la baisse ça pourrait finir par rendre ce genre de produit viable.

Je sais pas si c'est vraiment le 1% qui est concerné par les basses lumières. Le succès du 7s a surpris Sony. Et depuis le D3 on voit les fabricant se battre sur les annonces d'ISO élevés.

La haute sensibilité n'a d'ailleurs pas pour application que les bases lumières. Il y a aussi les phénomènes rapides, ou encore la possibilité de voyager plus légers avec des optiques f/4 au lieu de f/2,8, ...
Dans l'animalier, pour jouer au crépuscule avec des 400 mm et plus, j'en connais plus d'un qui apprécierait de pouvoir jouer à 10 000 iso et plus sans scrupule. Aujourd’hui, même avec un 7s c'est au détriment de la qualité.

J'ai tendance à me dire que les progrès techniques ont des barrières physiques : RQE à 100% et RON à 0 e-. On voit qu'on en est quand même plus très loin. Le jour où nous aurons tous le capteur absolu, nous n'aurons plus de raison de changer d’appareil photo tous les 2 à 4 ans. Et là les marques seront dans la m... Donc j'aurais tendance à parier qu'un jour le tri-CCD avec visée électronique de la mort on le verra venir. C'est peut être pour dans 10 ans, ça je ne sais pas, mais franchement qui aurait imaginer la démocratisation du BSI il y a 10 ans ? Ou la généralisation du Cmos il y a 15 ans ? (On se moquait bien de lui quand même à l'époque).

Ou alors ce sera peut être plus simplement un Foevon performant, mécaniquement et optiquement c'est plus simple Qui sait ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant