danielo

Nouvelle camera

Messages recommandés

Bon j'ai relu

Donc si j'ai bien compris pour des photosites de 3.45, le faite de passer en couleur fait des pixel d'environ 5.5µ sans déconvolution (perte de 38%) et de 4.5µ avec une déconvolution (terte de 20%). Ai-je bien compris.

En terme d'échantillonage quelle valeur prend pour le calcul ?

Partager ce message


Lien à poster
Partager sur d’autres sites
>>je crois aussi que la selection d'étoile est obligatoire avec iris...
Phil, je ne suis pas expert d'Iris mais d'après les tutoriaux j'ai le même sentiment. Il faudrait sans doute poser directement la question à Christian pour s'en assurer. A voir aussi si ce genre de prétraitement n'est pas déjà réalisé lors de l'extraction colorimétrique sous Iris.

>>quel soft utilise-tu,est-il disponible qq part?
Personnellement, je suis sur Mac. J'utilise un logiciel que j'ai conçu (voir ici) pour ma MX7c ainsi que pour les autres CCDs StarLight.
Sur PC, à ma connaissance Astro Art permet d'accéder à la matrice de la PSF mais il y en a certainement bien d'autres.

>>Donc si j'ai bien compris pour des photosites de 3.45,
>>le faite de passer en couleur fait des pixel d'environ 5.5µ sans >>déconvolution (perte de 38%) et de 4.5µ avec une déconvolution
>>(perte de 20%). Ai-je bien compris?
Sans déconvolution, la perte serait de 30%. Avec déconvolution, on passe à 20%.
Une perte de 30% implique une "augmentation virtuelle" des pixels de 30*100/70=42.9%. Donc pour des photosites de 3,45u l'échantillonage serait de 3,45+3.45*42.9/100=4.93u
De même, une perte de 20% nous donne une augmentation de 25% de l'échantillonage. Toujours pour des photosites de 3,45u, on arrive alors à 3,45+3,45*25/100=4.31u

>>En terme d'échantillonage quelle valeur prendre pour le calcul?
Il faut être optimiste dans la vie.

[Ce message a été modifié par Mala (Édité le 19-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Voilà ma lanterne mieux éclairée, un grand merci aux specialistes.

Et maintenant, est-ce que l'on pourrait revoir la démarche illustrée en couleurs aux différentes étapes du traitement, en utilisant à la place de la galaxie théorique du début, une image de diffraction d'étoile blanche non saturée telle que délivrée par une des superbes optiques du forum, avec comme paramétrage le F/D, par exemple

F/D = 10 6,3 5 3

et ceci sur un capteur APN/Bayer par exemple au pas élémentaire de 6,3 µ et un achrome au même pas avec filtres RVB "classiques"?

Dans un premier temps, on pourrait laisser tomber le filtre "antialiasing"

Merci

Partager ce message


Lien à poster
Partager sur d’autres sites
Mala, qu'est-ce qui te permet d'affirmer que lors de la reconstruction d'une image RVB, il y a fabrication d'une partie luminance et d'une partie chrominance ? Moi, je n'y vois que des interpolations sur chaque plan RVB, à ma connaissance c'est comme ça que fonctionnent Iris et les autres "derawtiseurs". Pour moi, au niveau finesse, pour les couches B et R, la matrice de Bayer équivaut à du binning 2x2. Pour la couche V, c'est mieux effectivement. Mais c'est dommage pour le Halpha !

Quant à appliquer une déconvolution type LR (qui n'existe pas non plus dans les dérawtiseurs), si on veut faire des comparaisons équitables je pense qu'il faut l'appliquer aussi à l'image du capteur monochrome, et non comparer une image couleur déconvoluée à une monochrome non déconvoluée, sinon c'est pas de jeu !

[Ce message a été modifié par Thierry Legault (Édité le 23-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut Thierry

Des gens comme Phase 1 semblent "derawtiser" mieux que d'autres, voir les tests sur la mire ISO, reproduits à100 % en jpg :
http://www.dpreview.com/reviews/canoneos300d/page15.asp

Peut-être bien qu'ils font un peu comme le dit Mala !

Voici le lien pour la version d'évaluation de Capture One : http://www.phaseone.com/Global/Campaigns/374Fre.aspx?source=PhotoSap374

gratuite pendant 15j

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonsoir Thierry,

Je mélange un peu tes interrogations pour la logique de ma réponse.

quote:
...Quant à appliquer une déconvolution type LR (qui n'existe pas non plus dans les dérawtiseurs),...

La déconvolution RL n’existe pas dans les dérawtiseurs? C’est dommage, je n’arrive pas à retrouver le lien vers un test très intéressant qui comparait la qualité des déconvolutions de logiciels de photographie pro. Et justement, les auteurs de l’article en arrivaient à la conclusion que les meilleurs résultats étaient obtenus par les softs utilisant une déconvolution RL. Le principal avantage du RL, en plus de la qualité de la reconstruction, est d’ailleurs d’éviter l’effet damier créé pas les filtres colorés du capteur et amplifié par les filtres passe-haut classiques. La déconvolution RL existe donc bien dans les dérawtiseurs et c'est même apparement la meilleurs.

quote:
Mala, qu'est-ce qui te permet d'affirmer que lors de la reconstruction d'une image RVB, il y a fabrication d'une partie luminance et d'une partie chrominance ? Moi, je n'y vois que des interpolations sur chaque plan RVB, à ma connaissance c'est comme ça que fonctionnent Iris et les autres "derawtiseurs".

Non un traitement RVB n'est pas systématique loin s'en faut. Beaucoup de photographes pro n’ont pas le temps de ( ou bien n'aiment pas ) patienter pour obtenir un visuel final de qualité. Et là les logiciels utilisant une décomposition LRVB sont beaucoup plus performants dès qu’on doit appliquer une déconvolution de qualité (donc gourmande en calculs). Ce n’est pas parce qu’on obtient à l’arrivée une image RVB qu’il n’y a pas de changement d’espace de représentation pour les calculs. C’est aussi faire l’amalgame un peu vite : couleur = matrice de Bayer (donc filtres RVB). Dans la pratique tu as aussi les matrices à filtres CYMG par exemple. Et là tu n’as de toute façon pas le choix, la recomposition RVB impose l’extraction de la luminance puis on repasse en RVB en se basant sur les filtres de couleurs secondaires, la couche de luminance et la couche verte qui sert de référence.
Voici quelques raisons pour justifier le passage en LRVB avant une éventuelle recomposition RVB (Pour reprendre une boutade d'un autre sujet, les programmeurs aussi sont des gens malins ):
- possibilité de n’extraire la chrominance que sur 8bits tout en ayant une luminance sur 16bits. On gagne alors 8 bits (soit 17% par rapport à une image RVB en 3x16bits) d’espace mémoire par pixels (non négligeable pour de gros capteurs) sans pour autant altérer la qualité de l’image finale.
- Performance de la déconvolution du fait qu’on ne doit l’appliquer qu’à la couche de luminance et non aux trois couches R,V,B comme pour une image trichromique.
- Pas de risque d’augmenter un éventuel aliasing de la colorimétrie lors d'une déconvolution car on ne touche pas à la chrominance contrairement à un signal trichromique.
- Une bonne partie d’un algorithme employé pour une matrice CYMG est factorisable pour une matrice de bayer.
- Simplicité de mise en place d'un anti-aliasing logiciel sélectif en détectant les hautes fréquences directement sur la matrice de luminance.

quote:
Pour moi, au niveau finesse, pour les couches B et R, la matrice de Bayer équivaut à du binning 2x2. Pour la couche V, c'est mieux effectivement.

C’est un raccourci un peu rapide qui fait qu’on a tendance à omettre que la résolution d’une image est constituée par l’information de luminance. Hors chaque photosite, quelle que soit sa couleur, en contient une partie. Il ne faut pas non plus oublier qu’un photosite n’est pas exploité qu’une seule fois lors de l’extraction colorimétrique mais quatre fois. Concrètement, seule la chrominance peut être considérée sans trop s'avancer comme binnée en 2x2.


quote:
Mais c'est dommage pour le Halpha !

Mais là on part sur la sensibilité, pas la résolution. La encore, on fait souvent l’amalgame couleur = Bayer. Ma MX7c a par exemple une réponse très honorable dans le Halpha (filtres jaunes et magentas) mais il ne faut effectivement pas rêver atteindre le rendement d’un capteur N&B.

quote:
si on veut faire des comparaisons équitables je pense qu'il faut l'appliquer aussi à l'image du capteur monochrome, et non comparer une image couleur déconvoluée à une monochrome non déconvoluée, sinon c'est pas de jeu !

Justement, pour parler de perte de résolution (puisqu’il était question à l’origine de capteur couleur = binning 2x2) il faut bien comparer la perte d’une matrice couleur par rapport à un signal nominal d’une CCD N&B non ? On se place ainsi dans la situation la plus défavorable pour le capteur couleur. Le capteur monochrome ne peut donc justifier d’une déconvolution puisqu’il est déjà à sa limite de résolution.

[Ce message a été modifié par Mala (Édité le 25-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Pour illustrer mes propos sur l’effet damier amplifié par les filtres passe-haut classiques...

Partager ce message


Lien à poster
Partager sur d’autres sites
Bravo pour le niveau des discussions qui se tiennent ici, c'est rare !

effectivement le biais de R.L n'est pas à prendre en compte dans cette discussion sur le rendu final, car peut on parler de fwhm sur une image qui a subit un tel traitement, ... non ? Et comme le fait remarque Thierry il faudrait comparer à l'image noir et blanc ayant subie le meme traitement.

Est ce que qq'un peu nous expliquer le principe de R.L avec des mots simples. Pour ce que j'en comprend il s'agit de modeliser l'image d'une étoile, la comparer avec ce qu'elle devrait être si l'image était parfaite et apporter une correction à l'image allant dans ce sens. Est ce bien ça ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Comme pour Thierry, je vais répondre un peu dans le désordre car certains éléments de réponse sont déjà là.

quote:

Est ce que q'un peu nous expliquer le principe de R.L avec des mots simples. Pour ce que j'en comprend il s'agit de modeliser l'image d'une étoile, la comparer avec ce qu'elle devrait être si l'image était parfaite et apporter une correction à l'image allant dans ce sens. Est ce bien ça ?


Oui, concrètement l’idée de base est qu’une étoile échantillonnée de manière nominale devrait occuper un seul photosite (soit un seul pixel pour un capteur N&B). Dans la pratique, c’est rarement le cas. Les étoiles sont lissées et forment une sorte de cloche (une gaussienne). Le principe du R.L (entre autre) est, à partir de la sélection d’une étoile sur l’image (la PSF), de reconstruire par itération successive le signal d’origine. Si au final le résultat s’apparente souvent à un filtre passe haut, la grosse différence c’est que dans le cas du R.L il y a reconstruction (j’insiste sur ce point) du signal d’origine à contrario des passes haut classiques qui ne font qu’amplifier les fréquences déjà présentes (l’effet damier présenté juste avant en est un parfait exemple).

quote:
effectivement le biais de R.L n'est pas à prendre en compte dans cette discussion sur le rendu final, car peut on parler de fwhm sur une image qui a subit un tel traitement, ... non ?


Justement, oui en raison de ce que j'ai dis juste avant. Autant je dirais non s’il s’agit d’un filtre passe haut classique, autant je dis oui bien sûr dans le cas d’un algorithme de reconstruction tel que le R.L. La convolution (le lissage) généré lors de l’extraction de la matrice des filtres est parfaitement connu et homogène sur l’ensemble de l’image. A mon sens nous avons donc parfaitement le droit de le compenser au même titre qu’un autre prétraitement (PLU, dark, etc). La PSF ne sera alors pas une étoile sélectionnée par l’utilisateur mais la matrice de convolution des filtres colorés. La reconstruction permet d’augmenter de manière réelle la résolution finale.

quote:
Et comme le fait remarque Thierry il faudrait comparer à l'image noir et blanc ayant subie le même traitement.

Non, justement. Appliquer à une matrice N&B la PSF de la matrice couleur n’aurait pas plus d’impact qu’un passe haut classique. Pourquoi ? Et bien tout simplement parce que le signal N&B doit déjà être nominal pour pouvoir comparer. En effet, pour parler de perte de résolution, il faut comparer ce qui est comparable. Je n’ai volontairement pas parlé de FWHM car une FWHM d’un pixel ne garantit pas un signal optimal si je ne m’abuse. Cela garantira tout au plus que le gros du flux d’une étoile est concentré sur un pixel. Il y a donc déjà une convolution potentielle du signal. Hors la convolution induite par la matrice des filtres est fixe. Toute convolution d'une image par rapport à son rendement nominal d’échantillonnage (soit un photosite ou un pixel pour un capteur N&B) contribue à amoindrir la perte induite par la convolution de la matrice des filtres colorés. En d’autre terme, plus une image est floue et moins on se rend compte de la perte induite par une CCD couleur.

Partager ce message


Lien à poster
Partager sur d’autres sites
Edit: Erratum de ma part, voici ce que donne le L.R. appliqué à la simulation...

Aucune modification notable lorsqu'on est à la limite d'échantillonnage tout comme pour un passe haut standard.

[Ce message a été modifié par Mala (Édité le 27-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant