bugs denis 0 Posté(e) 18 septembre 2006 Bon j'ai relu Donc si j'ai bien compris pour des photosites de 3.45, le faite de passer en couleur fait des pixel d'environ 5.5µ sans déconvolution (perte de 38%) et de 4.5µ avec une déconvolution (terte de 20%). Ai-je bien compris.En terme d'échantillonage quelle valeur prend pour le calcul ? Partager ce message Lien à poster Partager sur d’autres sites
Mala 2 Posté(e) 19 septembre 2006 >>je crois aussi que la selection d'étoile est obligatoire avec iris...Phil, je ne suis pas expert d'Iris mais d'après les tutoriaux j'ai le même sentiment. Il faudrait sans doute poser directement la question à Christian pour s'en assurer. A voir aussi si ce genre de prétraitement n'est pas déjà réalisé lors de l'extraction colorimétrique sous Iris.>>quel soft utilise-tu,est-il disponible qq part?Personnellement, je suis sur Mac. J'utilise un logiciel que j'ai conçu (voir ici) pour ma MX7c ainsi que pour les autres CCDs StarLight.Sur PC, à ma connaissance Astro Art permet d'accéder à la matrice de la PSF mais il y en a certainement bien d'autres.>>Donc si j'ai bien compris pour des photosites de 3.45, >>le faite de passer en couleur fait des pixel d'environ 5.5µ sans >>déconvolution (perte de 38%) et de 4.5µ avec une déconvolution >>(perte de 20%). Ai-je bien compris?Sans déconvolution, la perte serait de 30%. Avec déconvolution, on passe à 20%. Une perte de 30% implique une "augmentation virtuelle" des pixels de 30*100/70=42.9%. Donc pour des photosites de 3,45u l'échantillonage serait de 3,45+3.45*42.9/100=4.93uDe même, une perte de 20% nous donne une augmentation de 25% de l'échantillonage. Toujours pour des photosites de 3,45u, on arrive alors à 3,45+3,45*25/100=4.31u>>En terme d'échantillonage quelle valeur prendre pour le calcul?Il faut être optimiste dans la vie. [Ce message a été modifié par Mala (Édité le 19-09-2006).] Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 19 septembre 2006 Voilà ma lanterne mieux éclairée, un grand merci aux specialistes.Et maintenant, est-ce que l'on pourrait revoir la démarche illustrée en couleurs aux différentes étapes du traitement, en utilisant à la place de la galaxie théorique du début, une image de diffraction d'étoile blanche non saturée telle que délivrée par une des superbes optiques du forum, avec comme paramétrage le F/D, par exempleF/D = 10 6,3 5 3et ceci sur un capteur APN/Bayer par exemple au pas élémentaire de 6,3 µ et un achrome au même pas avec filtres RVB "classiques"?Dans un premier temps, on pourrait laisser tomber le filtre "antialiasing" Merci Partager ce message Lien à poster Partager sur d’autres sites
Thierry Legault 5 930 Posté(e) 23 septembre 2006 Mala, qu'est-ce qui te permet d'affirmer que lors de la reconstruction d'une image RVB, il y a fabrication d'une partie luminance et d'une partie chrominance ? Moi, je n'y vois que des interpolations sur chaque plan RVB, à ma connaissance c'est comme ça que fonctionnent Iris et les autres "derawtiseurs". Pour moi, au niveau finesse, pour les couches B et R, la matrice de Bayer équivaut à du binning 2x2. Pour la couche V, c'est mieux effectivement. Mais c'est dommage pour le Halpha !Quant à appliquer une déconvolution type LR (qui n'existe pas non plus dans les dérawtiseurs), si on veut faire des comparaisons équitables je pense qu'il faut l'appliquer aussi à l'image du capteur monochrome, et non comparer une image couleur déconvoluée à une monochrome non déconvoluée, sinon c'est pas de jeu ! [Ce message a été modifié par Thierry Legault (Édité le 23-09-2006).] Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 23 septembre 2006 Salut ThierryDes gens comme Phase 1 semblent "derawtiser" mieux que d'autres, voir les tests sur la mire ISO, reproduits à100 % en jpg : http://www.dpreview.com/reviews/canoneos300d/page15.asp Peut-être bien qu'ils font un peu comme le dit Mala !Voici le lien pour la version d'évaluation de Capture One : http://www.phaseone.com/Global/Campaigns/374Fre.aspx?source=PhotoSap374 gratuite pendant 15j Partager ce message Lien à poster Partager sur d’autres sites
Mala 2 Posté(e) 25 septembre 2006 Bonsoir Thierry, Je mélange un peu tes interrogations pour la logique de ma réponse. quote:...Quant à appliquer une déconvolution type LR (qui n'existe pas non plus dans les dérawtiseurs),...La déconvolution RL nexiste pas dans les dérawtiseurs? Cest dommage, je narrive pas à retrouver le lien vers un test très intéressant qui comparait la qualité des déconvolutions de logiciels de photographie pro. Et justement, les auteurs de larticle en arrivaient à la conclusion que les meilleurs résultats étaient obtenus par les softs utilisant une déconvolution RL. Le principal avantage du RL, en plus de la qualité de la reconstruction, est dailleurs déviter leffet damier créé pas les filtres colorés du capteur et amplifié par les filtres passe-haut classiques. La déconvolution RL existe donc bien dans les dérawtiseurs et c'est même apparement la meilleurs. quote:Mala, qu'est-ce qui te permet d'affirmer que lors de la reconstruction d'une image RVB, il y a fabrication d'une partie luminance et d'une partie chrominance ? Moi, je n'y vois que des interpolations sur chaque plan RVB, à ma connaissance c'est comme ça que fonctionnent Iris et les autres "derawtiseurs". Non un traitement RVB n'est pas systématique loin s'en faut. Beaucoup de photographes pro nont pas le temps de ( ou bien n'aiment pas ) patienter pour obtenir un visuel final de qualité. Et là les logiciels utilisant une décomposition LRVB sont beaucoup plus performants dès quon doit appliquer une déconvolution de qualité (donc gourmande en calculs). Ce nest pas parce quon obtient à larrivée une image RVB quil ny a pas de changement despace de représentation pour les calculs. Cest aussi faire lamalgame un peu vite : couleur = matrice de Bayer (donc filtres RVB). Dans la pratique tu as aussi les matrices à filtres CYMG par exemple. Et là tu nas de toute façon pas le choix, la recomposition RVB impose lextraction de la luminance puis on repasse en RVB en se basant sur les filtres de couleurs secondaires, la couche de luminance et la couche verte qui sert de référence.Voici quelques raisons pour justifier le passage en LRVB avant une éventuelle recomposition RVB (Pour reprendre une boutade d'un autre sujet, les programmeurs aussi sont des gens malins ):- possibilité de nextraire la chrominance que sur 8bits tout en ayant une luminance sur 16bits. On gagne alors 8 bits (soit 17% par rapport à une image RVB en 3x16bits) despace mémoire par pixels (non négligeable pour de gros capteurs) sans pour autant altérer la qualité de limage finale.- Performance de la déconvolution du fait quon ne doit lappliquer quà la couche de luminance et non aux trois couches R,V,B comme pour une image trichromique.- Pas de risque daugmenter un éventuel aliasing de la colorimétrie lors d'une déconvolution car on ne touche pas à la chrominance contrairement à un signal trichromique.- Une bonne partie dun algorithme employé pour une matrice CYMG est factorisable pour une matrice de bayer. - Simplicité de mise en place d'un anti-aliasing logiciel sélectif en détectant les hautes fréquences directement sur la matrice de luminance. quote:Pour moi, au niveau finesse, pour les couches B et R, la matrice de Bayer équivaut à du binning 2x2. Pour la couche V, c'est mieux effectivement. Cest un raccourci un peu rapide qui fait quon a tendance à omettre que la résolution dune image est constituée par linformation de luminance. Hors chaque photosite, quelle que soit sa couleur, en contient une partie. Il ne faut pas non plus oublier quun photosite nest pas exploité quune seule fois lors de lextraction colorimétrique mais quatre fois. Concrètement, seule la chrominance peut être considérée sans trop s'avancer comme binnée en 2x2. quote:Mais c'est dommage pour le Halpha !Mais là on part sur la sensibilité, pas la résolution. La encore, on fait souvent lamalgame couleur = Bayer. Ma MX7c a par exemple une réponse très honorable dans le Halpha (filtres jaunes et magentas) mais il ne faut effectivement pas rêver atteindre le rendement dun capteur N&B. quote:si on veut faire des comparaisons équitables je pense qu'il faut l'appliquer aussi à l'image du capteur monochrome, et non comparer une image couleur déconvoluée à une monochrome non déconvoluée, sinon c'est pas de jeu !Justement, pour parler de perte de résolution (puisquil était question à lorigine de capteur couleur = binning 2x2) il faut bien comparer la perte dune matrice couleur par rapport à un signal nominal dune CCD N&B non ? On se place ainsi dans la situation la plus défavorable pour le capteur couleur. Le capteur monochrome ne peut donc justifier dune déconvolution puisquil est déjà à sa limite de résolution.[Ce message a été modifié par Mala (Édité le 25-09-2006).] Partager ce message Lien à poster Partager sur d’autres sites
Mala 2 Posté(e) 26 septembre 2006 Pour illustrer mes propos sur leffet damier amplifié par les filtres passe-haut classiques... Partager ce message Lien à poster Partager sur d’autres sites
alphaleo77 0 Posté(e) 27 septembre 2006 Bravo pour le niveau des discussions qui se tiennent ici, c'est rare !effectivement le biais de R.L n'est pas à prendre en compte dans cette discussion sur le rendu final, car peut on parler de fwhm sur une image qui a subit un tel traitement, ... non ? Et comme le fait remarque Thierry il faudrait comparer à l'image noir et blanc ayant subie le meme traitement.Est ce que qq'un peu nous expliquer le principe de R.L avec des mots simples. Pour ce que j'en comprend il s'agit de modeliser l'image d'une étoile, la comparer avec ce qu'elle devrait être si l'image était parfaite et apporter une correction à l'image allant dans ce sens. Est ce bien ça ? Partager ce message Lien à poster Partager sur d’autres sites
Mala 2 Posté(e) 27 septembre 2006 Comme pour Thierry, je vais répondre un peu dans le désordre car certains éléments de réponse sont déjà là. quote:Est ce que q'un peu nous expliquer le principe de R.L avec des mots simples. Pour ce que j'en comprend il s'agit de modeliser l'image d'une étoile, la comparer avec ce qu'elle devrait être si l'image était parfaite et apporter une correction à l'image allant dans ce sens. Est ce bien ça ?Oui, concrètement lidée de base est quune étoile échantillonnée de manière nominale devrait occuper un seul photosite (soit un seul pixel pour un capteur N&B). Dans la pratique, cest rarement le cas. Les étoiles sont lissées et forment une sorte de cloche (une gaussienne). Le principe du R.L (entre autre) est, à partir de la sélection dune étoile sur limage (la PSF), de reconstruire par itération successive le signal dorigine. Si au final le résultat sapparente souvent à un filtre passe haut, la grosse différence cest que dans le cas du R.L il y a reconstruction (jinsiste sur ce point) du signal dorigine à contrario des passes haut classiques qui ne font quamplifier les fréquences déjà présentes (leffet damier présenté juste avant en est un parfait exemple). quote:effectivement le biais de R.L n'est pas à prendre en compte dans cette discussion sur le rendu final, car peut on parler de fwhm sur une image qui a subit un tel traitement, ... non ?Justement, oui en raison de ce que j'ai dis juste avant. Autant je dirais non sil sagit dun filtre passe haut classique, autant je dis oui bien sûr dans le cas dun algorithme de reconstruction tel que le R.L. La convolution (le lissage) généré lors de lextraction de la matrice des filtres est parfaitement connu et homogène sur lensemble de limage. A mon sens nous avons donc parfaitement le droit de le compenser au même titre quun autre prétraitement (PLU, dark, etc). La PSF ne sera alors pas une étoile sélectionnée par lutilisateur mais la matrice de convolution des filtres colorés. La reconstruction permet daugmenter de manière réelle la résolution finale. quote:Et comme le fait remarque Thierry il faudrait comparer à l'image noir et blanc ayant subie le même traitement.Non, justement. Appliquer à une matrice N&B la PSF de la matrice couleur naurait pas plus dimpact quun passe haut classique. Pourquoi ? Et bien tout simplement parce que le signal N&B doit déjà être nominal pour pouvoir comparer. En effet, pour parler de perte de résolution, il faut comparer ce qui est comparable. Je nai volontairement pas parlé de FWHM car une FWHM dun pixel ne garantit pas un signal optimal si je ne mabuse. Cela garantira tout au plus que le gros du flux dune étoile est concentré sur un pixel. Il y a donc déjà une convolution potentielle du signal. Hors la convolution induite par la matrice des filtres est fixe. Toute convolution d'une image par rapport à son rendement nominal déchantillonnage (soit un photosite ou un pixel pour un capteur N&B) contribue à amoindrir la perte induite par la convolution de la matrice des filtres colorés. En dautre terme, plus une image est floue et moins on se rend compte de la perte induite par une CCD couleur. Partager ce message Lien à poster Partager sur d’autres sites
Mala 2 Posté(e) 27 septembre 2006 Edit: Erratum de ma part, voici ce que donne le L.R. appliqué à la simulation... Aucune modification notable lorsqu'on est à la limite d'échantillonnage tout comme pour un passe haut standard.[Ce message a été modifié par Mala (Édité le 27-09-2006).] Partager ce message Lien à poster Partager sur d’autres sites