Colmic

Canon Eos 5D Mark III : il arrive !

Messages recommandés

quote:
Moi si je remets au pot, ce pourrait être pour du Nikon (qui ont plutôt 3 électrons de bruit de lecture à 100 iso au lieu de 30), qui sait ?...

Changer de marque de boitier c'est déjà pas donné mais en plus il faut aussi racheter les objectifs qui vont bien. C'est pas pour toutes les bourses.

Partager ce message


Lien à poster
Partager sur d’autres sites
Changer de boitier dans une autre marque n'est ni plus ni moins cher (a priori) que dans la même marque. Les optiques oui ça peut être une contrainte, cela dit ça peut se revendre avec le boitier et quand celui-ci est destiné à l'astro on n'en a pas forcément des dizaines. De plus, une bonne optique de 5 ans se revend avec infiniment moins de perte qu'un bon boitier de 5 ans


Arthuss, surtout pour un usage non astro c'est à toi de voir ton besoin et tes contraintes. As-tu des optiques de haut niveau capables de profiter des petits pixels du D800 (36 Mpixels de 5 microns) sur une surface 24x36, as-tu l'utilité de 36 millions de pixels (donc tirages papier au moins format A1 pour percevoir un gain) ? je te conseille de consulter les forums photo type Chasseur d'Images, il y a des dizaines de questions qui ressemblent à la tienne

[Ce message a été modifié par Thierry Legault (Édité le 25-04-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Pour le bruit de lecture entre MII & MIII, je vois des courbes qui se rejoignent dans la zone d'utilisation des photos astro : >= à 800ISO
Mais je suis pas sûr de bien les interpréter.? Comment ces mesures ont-elles été faites?

Maintenant * les pixels pour une même surface demande des optiques de plus en plus pointues et pour exploiter la capacité du capteur de travailler avec des grandes ouvertures.
Pas certain que toutes les optiques Nikon soient au niveau aujourd'hui... Depuis des années les fabricants ont pris l'habitude de proposer des boitiers et ensuite les évolutions des objectifs qui allaient bien avec lesdits boitiers!

Je cite E Bigler dans GP
"Chaque fois que la grille de pixels devient plus fine, avant de regarder le décompte total il faut regarder le pas de grille.
Soient 36 Mpix sur une surface de 24x36 mm. Pas besoin de connaitre la doc du fabricant, la seule façon de remplir cela avec une grille à mailles carrées c'est d'avoir un pas de grille de 4,9 microns environ.
il faut deux échantillons tous les 4,9 microns pour passer une période optique, la plus petite période optique qui passe c'est donc dans les 10 microns, 100 cy/mm.

C'est vrai qu'à 100 cy/mm il n'y a guère d'optiques photographiques courantes qui passent çà, surtout utilisées à main levée ...

La limite de diffraction théorique c'est en gros 0,7 N microns pour la plus petite période optique qui passe, donc à N=5,6 derrière une optique de course çà nous donnerait du 4 microns de période, 250 cy/mm théorique. Bon, on va dire que f/8 c'est encore bon pour une optique raisonnable."

Et pour ceux qui se demandent quand la course aux petits pixels va s'arrêter je renvoie sur GP au message du même EB

http://www.galerie-photo.info/forumgp/read.php?2,123974,page=2

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Comment ces mesures ont-elles été faites?

ben simplement en mesurant le bruit de lecture sur des offsets (ou alors je ne comprends pas la question ?)

Des calculs comme ceux que tu présentes, on en trouve des wagons sur les forums et blogs photo. On nous annonce régulièrement que ça y est, on a atteint les limites de résolution et que ça ne sert plus à rien de diminuer la taille des pixels (ah ces bons vieux Nyquist et Shannon, s'ils savaient tout qu'on affirme en leur nom ils se retourneraient dans leur tombe...). Et à chaque nouvel appareil avec des pixels un peu plus petits, on voit très bien sur les tests qu'on gagne encore et encore...évidemment, il faut des optiques à la hauteur (donc pas le zoom en plastoc du kit de base), éventuellement travailler sur pied et à grande vitesse etc. Pour nous qui faisons de la photo astro, ça ne devrait pas tellement nous surprendre, on voit très bien en planétaire qu'on gagne encore (quand les meilleurs conditions optiques et atmosphériques sont réunies) à monter à plus de F/D 20 avec des pixels de l'ordre de 5 microns.

Il ne faut pas oublier non plus qu'on parle ici de capteurs à matrice de Bayer et donc des interpolations qui s'en suivent, sans parler des filtres anti-aliasing (pour éviter les effets de moiré sur les tissus et autres structures régulières), qui contribuent également à faire baisser la taille limite inférieure utile des pixels.

Canon a momentanément stoppé la course aux pixels, non pas par choix mais parce que côté techno, ils sont largués par Sony, fabricant des capteurs pour Nikon qui, lui, vient d'annoncer le D3200 à 24 Mpixels en reflex d'entrée de gamme (annoncé à 700 euros !*), en plus du D800, typé pro avec 36 Mpixels, de prix voisin du 5D MkIII. Non, on n'est pas au bout, même si pour nous de plus gros pixels recueillant plus de photons seraient plus appropriés dans pas mal de cas en CP, notamment à grande focale. Dans ce cas il y a les Nikon D4 (16 Mpixels seulement) et Canon 1DX (18 Mpixels), annoncés respectivement vers 6000 et 7000 euros...les gros pixels deviennent un luxe en fait !

* évidemment, à ce prix c'est un capteur APS-C, d'où des pixels de ...3,85 microns, qui dit mieux ?

[Ce message a été modifié par Thierry Legault (Édité le 25-04-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
C'est sûr qu'on lui fait dire beaucoup de chose au Père Nyquist ;-)

Dans la pratique, avec un capteur NB il y a intérêt à être au-dessus, voire même très franchement au dessus quand il y a beaucoup de signal (Mars et solaire).

Partager ce message


Lien à poster
Partager sur d’autres sites
Effectivement, on arrêtera pas la miniaturisation des pixels
La dernière sortie de Sony : des pixels de 1.26µm sur un CMOS back-illuminated

IMX118CQT

■ Diagonal 7.76 mm (Type 1/2.3) 18.47M-effective pixels (4968H × 3718V)
■ Pixel size: 1.26 µm unit pixel
■ Supports 18.47M-pixel imaging at approx. 24 frame/s
■ Back-illuminated CMOS image sensor that achieves both higher pixel count and high picture quality
■ Achieves low-power readout mode (1632H × 408V, 30 frame/s) for live view

http://www.sony.net/Products/SC-HP/cx_news/vol67/pdf/imx118cqt.pdf


Highest Pixel Count in the Industry and Improved Picture Quality

To achieve the industry's highest resolution of 18.47M effective pixels, the IMX118CQT adopts a 1.26 µm unit pixel in a Type 1/2.3 image sensor size. (See photograph 1.)
As pixel size decreases with a higher pixel count, the maximum electronic charge (referred to as saturation signal amount below) that each pixel can handle normally drops, which means that gradation under bright conditions is not retained and picture quality suffers as a result. To overcome this, a new pixel configuration was designed for the IMX118CQT and a comparison with the current product IMX078CQK (1.55 µm unit pixel, Type 1/2.3, 12.40M-effective pixels, see the New Products section in CX-NEWS, Volume 63) shows that Sony managed to increase the electron count ratio of saturation signal level per unit area by 35%.
The pixel configuration was optimized to provide the back-illuminated sensor characteristics of high light gathering efficiency regardless of angle of incidence also in the narrow pixel pitch of the IMX118CQT. These measures ensure high-picture quality from low to bright lighting conditions.

[Ce message a été modifié par ccd1024 (Édité le 26-04-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Ce que je trouvais intéressant dans le discours d'E Bigler, c'est que la miniaturisation des pixels et leur multiplication a une raison plus technique que commerciale contrairement à une idée tenace...

Je remets entre "" ce long texte pas tout à fait inintéressant issu de G.P. qui n'est pas tout à fait un forum lambda et E.B. un clampin moyen...
Il faut aussi voir que ce forum est essentiellement "argentique" d'où les remarques film.
On peut aussi se demander ce que veux dire raw sur les derniers boitiers. Pas certain qu'il existe encore des raw qui n'aient été soumis "fortement" à la moulinette de calculateurs internes...

"Une autre question qu'on se pose chaque fois que le nombre de pixels augmente : mais quand est-ce que ça va s'arrêter ?
...
Ceux qui utilisent des films couleur diapo modernes passant 140 cy/mm (mais avec quelques pourcent de contraste), ou a fortiori les adeptes du COPEX PAN, ADOX CMS-20 & autres Gigabits, ne sont pas forcément impressionnés par un détecteur silicium dont la limite de résolution est 100 cy/mm.

MAIS. et c'est là toute la force du silicium couplé au calcul, avec un détecteur silicium capable d'aller jusqu'à 100 cy/mm, tous les coups sont permis pour remonter le contraste des fins détails, jusqu'à 70, 80 cy/mm par exemple. Un film comme la Provia 100F tombe à 20% de contraste à 70 cy/mm, alors qu'on peut imaginer bricoler comme on veut l'image échantillonnée à 200 échantillons par mm (100 cy/mm) sans problème autour de 70 cy/mm. c'est à dire la gamme de fins détails qui donne l'impression de haute résolution à l'oeil, sur un tirage agrandi 10 fois (7 cy/mm).

Comme il y a très peu de de bruit avec un capteur en comparaiosn du grain du film, tous les pré-traitements accentuateurs de netteté peuvent se faire avec une liberté et une efficacités inconnues voire impossibles avec le film, qu'il faudrait scanner, mais pour lequel on est toujours limité par le grain.

Donc pour tout ce qui est du pré-traitement d'image, plus y'a de pixels, plus les ingénieurs sont contents, donc on ne voit pas encore pourquoi ca s'arrêterait, si ce n'est le prix du capteur et la consommation électrique du processeur d'images embarqué, obligé de faire de plus en plus de calculs de plus en plus vite, ce qui a un impact direct sur la consommation électrique.

Lors du congrès GéPé de Montreux en 2007, nous avions posé la question de l'augmentation puis du plafonnement éventuel du nombre de pixels, à Mme Süsstrunk, patronne du labo IVRG « Images and visual representation group » à l'EPFL (Lausanne) ivrgwww.epfl.ch

Et sa réponse avait été sans détour : plus il y aura de pixels, plus on aura de liberté pour imaginer toutes sortes d'algorithmes astucieux pour grouper les pixels, pour lisser le bruit sans que ce soit visible, etc ... Au début de sa présentation, elle disait : l'image numérique n'existe pas, il n'existe que des représentations analogiques sur écran ou sur papier, toutes issues de calculs intensifs. Plus on a de pixels, plus on peut bricoler pour faire passer le tableau de chiffres invisibles sous la forme d'une image visible.

À la limite, des pixels tellement petits qu'ils ne reçevraient que zéro ou un seul photon ou un seul photo-électron pendant la pose, pas de problème disait Mme Süsstrunk, on saura manipuler cela, les chercheurs ont probablement déjà les algorithmes sous la main.

Depuis cette mémorable conférence, il 4 ans et demis, il est probable que le rendement quantique des capteurs pour photo amateur ou professionnelle a encore aumgmenté. J'en étais resté autour de 25-30% pour les capteurs moyen format de chez Kodak qui donnent les chiffres de rendement [au fait, Kodak va-t-il continuer à commercialiser des capteurs silicium ???], mais il faudrait savoir où on en est aujourd'hui. On ne peut donc plus gagner un facteur 10 sur le rendement, comme on l'a fait en passant du film au silicium (de 0,5% de la tri-X à 20% pour les capteurs de la dernière décennie un facteur 40 !!), mais il est probable que si le rendement a encore un peu augmenté, à bruit égal et sans pré-traitement aucun, on peut aujourd'hui avoir des pixels plus petits qu'il y a 10 ans sans avoir plus de bruit pour autant.

La grande inconnue ce sont les pré-traitements internes à l'appareil. Déjà certains appareils d'amateur prennent, dit-on, en cachette, plusieurs images et les fusionnent pour améliorer ce qui peut être amélioré ... donc savoir ce qui se passe entre les photoélectrons détectés pendant la pose, dont le nombre n'est plus guère extensible, et la livraison d'un fichier prétendu RAW, on ne sait plus très bien ce qui se passe.

Dans le principe, l'addition de plusieurs images permet une amélioration du rapport signal sur bruit. ce n'est pas forcément très spectaculaire, en additionnant 10 images on gagnerait un facteur 3 sur le rapport S/B ; cela fait belle lurette que les astrophysiciens le font pour faire sortir l'image d'objets très faibles. Donc la limite, disons autour de 10000, du nombre de photo-électrons par pixels peut même êtrer dépassée en aditionnant les images les unes sur les autres. Certes, il ne faut pas bouger entre deux poses !

Et je ne vois pas comment les zizos hors norme (** note 1) qu'on peut sélectionner une tournant une simple molette peuvent être obtenus autrement que par groupage astucieux des pixels, moyennant une perte de résolution bien cachée dans les coins ; et dans cette affaire plus les pixels sont petis, plus on a la liberté de les grouper astucieusement.
...
Donc acceptons que tous les bricolages secrets qui se passent dans l'appareil ou par post-traitement sont bons à prendre ... "

Partager ce message


Lien à poster
Partager sur d’autres sites
ok c'est plus clair comme ça.

quote:
La grande inconnue ce sont les pré-traitements internes à l'appareil. Déjà certains appareils d'amateur prennent, dit-on, en cachette, plusieurs images et les fusionnent pour améliorer ce qui peut être amélioré ... donc savoir ce qui se passe entre les photoélectrons détectés pendant la pose, dont le nombre n'est plus guère extensible, et la livraison d'un fichier prétendu RAW, on ne sait plus très bien ce qui se passe.
Dans le principe, l'addition de plusieurs images permet une amélioration du rapport signal sur bruit. ce n'est pas forcément très spectaculaire, en additionnant 10 images on gagnerait un facteur 3 sur le rapport S/B ; cela fait belle lurette que les astrophysiciens le font pour faire sortir l'image d'objets très faibles. Donc la limite, disons autour de 10000, du nombre de photo-électrons par pixels peut même êtrer dépassée en aditionnant les images les unes sur les autres. Certes, il ne faut pas bouger entre deux poses !

le coup de la "cachette" et des "bricolages secrets" je n'y crois pas une seconde (ça fait un peu trop théorie du complot, désolé mais ça décridibilise un peu ce Bigler, je connais un forum sur lequel il y a des experts en électronique et capteurs que ça ferait bien rigoler ). De toute façon le temps de pose (total) en photo est déterminé et connu et on aura beau le découper en mille morceaux, ça n'en ramènera pas plus de photons pour ça. L'addition de plusieurs poses ça rapporte en astro parce qu'on augmente le temps de pose total, pas parce qu'on saucissonne ce temps de pose en petits bouts, mais ça Bigler ne semble pas l'avoir très bien assimilé. Sinon il aurait compris qu'on gagne autant sinon plus à augmenter le temps de pose d'un facteur 10 que de compositer 10 images, et augmenter le temps de pose tous les photographes savent le faire

Quant aux "traitements internes" sur les raw, à part ce que fait Nikon sur les pixels chauds et qui est bien connu, j'aimerais bien que quelqu'un en fournisse des exemples concrets.

[Ce message a été modifié par Thierry Legault (Édité le 26-04-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Thierry,

Si j'ai bien compris, Nikon supprime aussi le signal d'offset de ses raw...

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant