Thierry Legault

Capteur monochrome contre capteur couleur

Messages recommandés

Moi j'était déjà convaincu, mais cela ne m'empêchera pas d'applaudir pour ton travail !

 

Marc

Partager ce message


Lien à poster
Partager sur d’autres sites

Thierry,

 

Sur des mires ou images fixes la différence en résolution entre capteur mono et capteur couleur est évidente au moindre test.

En Astronomie c'est bien plus délicat de voir des différences aussi grandes à échantillonnage égal.

Je pars du principe que l'on capte depuis le sol et donc toujours avec de turbulence, même faible.

 

Cette turbulence va distribuer spatialement les informations et ce dans chaque couche du capteur couleur.

La turbulence d'une certaine façon donne un bonus au capteur couleur si l'on peut dire.

On n'est pas sur une mire mais sur une information qui bouge spatialement.

 

Avec le capteur mono en trois passes, il faudra recadrer les trois couches à moins de un pixel près.

As-tu essayé de le faire manuellement (hors mires) ?

Si tu demandes a un autre de le faire, je parie qu'il ne placera pas les couches comme toi ni comme moi.

Tous simplement parce que si tu places bien dans un coin de l'image ça ne le sera pas ailleurs etc.

 

Sans parler du problème de la non simultanéité des prises de vue ; éventuelle rotation de la planète.

 

On ne va parler non plus de la courbe spectrale de sensibilité du capteur et de la réponse des micro-filtres du capteur couleur.

Sur certains sujets colorés on aura des différences de comportement des capteurs.

Mais un sujet c'est quoi ? Aucun n'est monochrome.

Si les capteurs couleurs offrent sur Mars comme couche rouge celle qui souvent à la meilleures résolution alors qu'elle n'occupe qu'un quart des pixels, c'est parce que à cette longueur d'onde la turbulence y est souvent plus faible.

La couche verte est plus médiocre avec deux fois plus de pixels pourtant ! Étonnant non ?

 

De plus :

tous les amateurs ou presque échantillonnent assez largement plus que le critère du Nyquist.

Et encore une fois, ça ne peut que rapprocher les performances en termes de résolution entre les deux capteurs.

 

Et puis il y aussi l’utilisation éventuelle de l'ADC,

assez facile à régler avec un capteur couleur. Plus compliqué et avec plus d'aléas avec un capteur mono.

As-tu réglé un ADC avec un capteur mono ?

 

Tout ça pour dire que l'on obtient une résolution comparable avec un capteur couleur qu'avec un capteur mono en trois passes, simplement en augmentant un peu la focale par précaution. Je dirais de façon empirique de l'ordre de 30% et par précaution.

 

Avec autant de facteurs, si quelqu'un trouve une règle précise, je crois qu'il faudrait qu'il se lance dans la magie noire.

Il est des domaines où il faut se résoudre à ne pas pouvoir donner de réponse précise tout simplement parce cette réponse n'existe pas.

Car chaque prise de vue est particulière  : spectre spatial de la turbulence, niveau du signal de chaque couche, réglage de Gain,...dispersion chromatique, spectre de l'objet...

 

Il suffit de regarder les meilleures images faites par les planéteux avec une ASI224MC ou similaire.

Je ne crois qu'ils aient échantillonné comme des malades pour les obtenir.

 

Lucien

Modifié par Lucien
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Lucien a dit :

Sur des mires ou images fixes la différence en résolution entre capteur mono et capteur couleur est évidente au moindre test.

 

heu non, pour moi elle n'est pas "évidente au moindre test". Déjà, qui possède le même capteur dans les deux versions ? Qui a pris la peine de faire ce "moindre test" dans des conditions un peu rigoureuses ? (et si je n'avais pas utilisé le même capteur, tu aurais eu comme objection supplémentaire que je n'ai pas travaillé avec le même capteur)

 

il y a une heure, Lucien a dit :

Avec le capteur mono en trois passes, il faudra recadrer les trois couches à moins de un pixel près.

As-tu essayé de le faire manuellement (hors mires) ?

Si tu demandes a un autre de le faire, je parie qu'il ne placera pas les couches comme toi ni comme moi.

Tous simplement parce que si tu places bien dans un coin de l'image ça ne le sera pas ailleurs etc.

 

je ne comprends absolument pas où tu veux en venir. Je n'ai pas eu à recaler les couches ni pour l'image du capteur couleur ni pour celle du monochrome

 

il y a une heure, Lucien a dit :

tous les amateurs ou presque échantillonnent assez largement plus que le critère du Nyquist

 

ah oui, La Palisse aurait pu dire aussi que si on suréchantillonne largement, tous les capteurs sont à égalité, mais justement ce n'est pas le but de la manip ! Suréchantillonner ça fait perdre en champ (lunaire, solaire), en temps de pose et/ou quantité d'images à stacker. Et il est alors clair qu'en présence de turbulence on perd en qualité d'image parce que soit il y a moins de bonnes brutes, soit parce qu'on est obligé d'en prendre plus (donc rajouter de moins bonnes)

 

il y a une heure, Lucien a dit :

Avec autant de facteurs, si quelqu'un trouve une règle précise, je crois qu'il faudrait qu'il se lance dans la magie noire.

Il est des domaines où il faut se résoudre à ne pas pouvoir donner de réponse précise tout simplement parce cette réponse n'existe pas.

Car chaque prise de vue est particulière  : spectre spatial de la turbulence, niveau du signal de chaque couche, réglage de Gain,...dispersion chromatique, spectre de l'objet...

 

Et la réponse ne peut pas exister si on se convainc que c'est trop compliqué a priori, en rajoutant une foultitude de facteurs dont on n'a aucune idée s'ils ont une réelle influence ou pas ! Si on raisonne comme ça, on peut laisser tomber la moitié (au moins) de la recherche scientifique. En quoi le gain ou le spectre de l'objet (ici j'ai justement travaillé en lumière solaire) peuvent-ils influer sur le résultat dans un sens ou dans l'autre de manière significative ? Commence par le démontrer et après on verra si je jette mes résultats à la poubelle ou pas !

 

il y a une heure, Lucien a dit :

Je dirais de façon empirique de l'ordre de 30% et par précaution

 

et il y a quelque chose qui étaye ça ou c'est juste au doigt mouillé ? xD

 

il y a une heure, Lucien a dit :

Il suffit de regarder les meilleures images faites par les planéteux avec une ASI224MC ou similaire.

Je ne crois qu'ils aient échantillonné comme des malades pour les obtenir.

 

Comme des malades, ça ne veut rien dire. Dire que des planéteux ont obtenu d'excellentes images avec un capteur couleur c'est aussi une évidence, mais peux-tu me démontrer qu'ils n'auraient pas pu obtenir un meilleur résultat, ou tout au moins des bons résultats plus longtemps durant la nuit (si la turbulence a varié) en échantillonnant bien moins serré avec un capteur mono ?

 

Mon empirisme à moi, je le base notamment sur des quartiers de Lune, pour en avoir fait en couleur et en monochrome, donc dans des conditions astro réelles (turbulence, recalage des images etc.). Et je n'ai jamais pu obtenir en couleur le piqué et la résolution que j'ai eu sur mes quartiers de 2016 en mono : http://www.astrophoto.fr/moon_2016august_fr.html

Et cela en ne suréchantillonnant pas, puisque j'étais seulement à 0,15"/pix sur un C14, nettement moins que beaucoup d'imageurs. Et grâce à ça, j'ai eu des tuiles plus grandes, donc moins à faire, ce qui aide énormément pour les mosaïques à cause des variations de turbulence. Ca a fini de me convaincre que ça ne sert à rien (et c'est même pénalisant) de mettre trop de focale.

 

Tout ça pour dire que le raisonnement "y'a qu"à suréchantillonner suffisamment, comme ça on est tranquille, de toute façon on a toujours fait comme ça et ça donne de bons résultats" est très loin de me suffire !  ;)

 

 

Modifié par Thierry Legault
  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites

Thierry,

 

je ne sais pas si tu souhaites comparer des capteurs au labo ou sur le ciel.

 

il y a 4 minutes, Thierry Legault a dit :

Tout ça pour dire que le raisonnement "y'a qu"à suréchantillonner suffisamment, comme ça on est tranquille" est très loin de me suffire !

 

C'est donc a toi de justifier de règles précises. Et de les démontrer.

Et sans le doigt mouillé. :D

 

Lucien

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 5 minutes, Lucien a dit :

je ne sais pas si tu souhaites comparer des capteurs au labo ou sur le ciel.

 

j'essaye de séparer les différents paramètres, c'est une démarche assez classique en recherche il me semble. J'aurais fait la même chose en lunaire ou planétaire avec turbulence, ADC, gain variable et tout le reste, tu m'aurais dit que mes conclusions étaient sujettes a caution parce qu'il y a tous ces facteurs qui justement peuvent varier et qu'on ne sait pas lequel a influé sur quoi :)

 

 

Modifié par Thierry Legault

Partager ce message


Lien à poster
Partager sur d’autres sites

Il faudrait préciser une chose :

comparer la résolution entre une image finale couleur et une monochrome

ou bien,

deux images couleur ?

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, Thierry Legault a dit :

L’idée est de déduire des choses sur l’échantillonnage optimal en planétaire/lunaire/solaire, selon le type de capteur. Le cas extrême étant Mars qui a surtout ses détails fins en rouge, cela conduirait à utiliser un échantillonnage 2 fois plus fin avec un capteur couleur (donc focale double), l’inconvénient étant un temps de pose 4 fois plus long (à gain égal) ou la nécessité de stacker 4 fois plus de brutes (à temps de pose égal).

c'est une question que j'avais soulevé il y a quelques temps. 
Est ce que tu t'es amusé à faire la manip de bouger très légèrement ta pire et stacker 10 images par exemple pour voir quel est le gain de résolution (si il y en a un). J'avais ouvert une discussion sur cette idée, mais j'étais un peu resté sur ma faim dans les réponses, c'est aussi parti dans tous les sens.
En ciel profond la réponse semblait limpide, on gagne vraiment en résolution en faisant du RVB drizzle. C'est en planétaire que ça se complique (mais là la mire ne va pas aider sauf à mettre une bougie en dessous :) )

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, Lucien a dit :

Il faudrait préciser une chose :

comparer la résolution entre une image finale couleur et une monochrome

ou bien,

deux images couleur ?

 

plutôt deux images couleur, ou encore mieux deux images couleur couche par couche (c'est ce que j'ai fait d'ailleurs)

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, jldauvergne a dit :

Est ce que tu t'es amusé à faire la manip de bouger très légèrement ta pire et stacker 10 images par exemple pour voir quel est le gain de résolution (si il y en a un). J'avais ouvert une discussion sur cette idée, mais j'étais un peu resté sur ma faim dans les réponses, c'est aussi parti dans tous les sens.

 

ça peut se tenter aussi (surtout en période de confinement 9_9) : prendre une série d'images avec de légers décalages. Bon, pour la turbulence ça risque d'être plus compliqué...

 

C'est ça que je regrette dans les discussions, ça reste trop souvent qualitatif et pas assez quantitatif (par exemple, les mesures de température faites par Christian sur ses tubes ont été très profitables car ils ont permis de quantifier les choses), avec le risque de tomber dans le subjectif voire la légende urbaine qui perdure parce que personne n'a pris le temps de la vérifier.

  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 3 minutes, Thierry Legault a dit :

plutôt deux images couleur, ou encore mieux deux images couleur couche par couche (c'est ce que j'ai fait d'ailleurs)

 

Donc il faudra bien passer par un calage des couches pour le capteur mono.

Et dans certains cas si on utilise un ADC, que fait-on avec le capteur mono ?

On alors on simplifie et on s'en fiche sinon c'est compliqué et c'est le doigt mouillé ?

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 4 minutes, Lucien a dit :

Et dans certains cas si on utilise un ADC, que fait-on avec le capteur mono ?

On alors on simplifie et on s'en fiche sinon c'est compliqué et c'est le doigt mouillé ?

 

comme je l'ai dit, ne mélangeons pas tout sinon ça va devenir inextricable. Pour moi il faut comparer l'image couleur avec la trichromie RVB (ou même LRVB), c'est quand même ça qui intéresse les planéteux en premier lieu. Et là, je ne vois pas en quoi un ADC peut influencer le résultat dans un sens ou dans l'autre O.o

 

 

Modifié par Thierry Legault

Partager ce message


Lien à poster
Partager sur d’autres sites

Donc,

tu veux faire une comparaison de laboratoire car si je comprends bien,

la turbulence on laisse tomber

et la dispersion chromatique aussi.

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 3 minutes, Thierry Legault a dit :

Et là, je ne vois pas en quoi un ADC peut influencer le résultat dans un sens ou dans l'autre

 

Mince alors, j'ai acheté ce bidule pour rien ! :D

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 3 minutes, Lucien a dit :

Mince alors, j'ai acheté ce bidule pour rien ! :D

 

mais non, ce que je dis c'est que je ne vois pas pourquoi l'ADC serait favorable à l'un des deux capteurs au détriment de l'autre, par rapport à une situation sans ADC (planètes très hautes dans le ciel). Donc que l'ADC n'est pas un facteur à prendre en compte dans l'expérience et ses conclusions !

 

Dis, ton proverbe préféré ce ne serait pas : pourquoi faire simple quand on peut faire compliqué xD

 

 

Modifié par Thierry Legault
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon on vs simplifier les planètes sont très hautes...

On va dire que ce n'est pas pour la France.

 

Lucien

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, Lucien a dit :

Bon on vs simplifier les planètes sont très hautes...

 

Est-ce que tu ne voudrais pas aller faire un tour dehors ? Je suis prêt à te payer l'amende xD

  • J'aime 1
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Thierry,

Merci mais si en plus l'on ne tient pas compte de la turbulence alors ton expérience c'est dans l'espace qu'il faudra la mener. :D

Bon, je m'en vais, je t'ennuie avec la réalité.

Bien cordialement à toi,

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut Thierry,

 

 oui l'acquisition couleur est probablement moins bonne qu'en trichromie avec une monochrome - quoique les formules optiques des Newtons et Cassegrains sont bien moins concernés pour une acquisition au foyer j'entends - alors bon...du moment qu'on peut faire de la HR avec une caméra couleur en planétaire...

Ce qui me fait plaisir, c'est que maintenant il faut faire un comparatif archi serré pour déceler une différence, sur le papier, pas toujours sur le terrain.

A l'époque des Toucam pro qui commençaient à chatouiller sérieusement les monochromes en trichromie, j'avais déjà parié sur l'évolution très positive des caméras couleurs, notamment sur le débit qui est le critère fondamental des progrès constatés.

M'enfin, choisir entre une usine à gaz de la tourelle à filtres ( si possible parafocaux sinon c'est le binz ), le bazar du traitement à assumer derrière pour un animator comme moi et une simple caméra couleur. Le choix est vite fait. xD

Désolé d'avance si je suis hors sujet. ;)

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci de ton intervention Valère. :D

Ta conclusion est pertinente et surtout avec les progrès des caméras couleur.

 

Pour faire des comparaisons qui vaillent, il faut comparer des choses comparables et savoir exactement la finalité.

 

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

On ne peut pas être dans les sous-entendus en permanence si l'on aborde des sujets sous un angle disons universitaire.

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

 

Il est incroyable le nombre de non-dits dans la moindre expérimentation faite par un amateur.

Un exemple : qui sait en utilisant Photoshop Raw Converter, AS3 ou Registax..., quel algorithme est utilisé pour dématricer les images couleur ?

 

Comme par exemple dire que l'on obtient une meilleure résolution sur la Lune avec un capteur mono + filtre sélectif,

qu'avec un capteur couleur + filtre Luminance.

 

Dire ça c'est une c......e !  Une étrange approximation.  :D

Car avec le capteur mono et son filtre sélectif, la résolution est de ZÉRO dans les deux autres couleurs. Merci à ceux qui veulent étudier la géologie lunaire !

Déjà en coiffant le capteur d'un filtre Luminance comme le Bayer, la monochrome serait nettement  moins performante en terme de résolution.

 

Donc on compare des choux et des carottes ! En suivant cette logique on se demande pourquoi faire de la couleur pour Mars ?

 

Autre point qui n'a pas été évoqué ici est celui de l'algorithme de dématriçage. Utilisé pour convertir la Bayer en RVB.

Il en existe de nombreux et aux résultats assez variables.

Sauf que parler de ça c'est introduire une inconnue supplémentaire.

 

Si l'on souhaite comprendre les phénomènes on ne peut escamoter des paramètres essentiels dans le seul but de simplifier.

Et si en plus de comprendre on veut en sortir des chiffres d’utilisation pratique, comme d'un hypothétique échantillonnage idéal,

là on court derrière des chimères.

Et surtout avec autant d'approximations :

turbulence nulle, chromatisme atmosphérique nul, recalage des couches aisé et parfait, algorithme de dématriçage (bof), rotation de la planète nul, temps de pose global...

 

De même, aucune formule mathématique ne donnera le temps d'exposition unitaire idéal devant une Jupiter qui a la tremblote.

 

Attention : on peut faire de très bonnes images en ignorant tout ça. Et heureusement. :D

Et pour ça il y a le partage d'expérience et la pratique lorsque la théorie ne peut le faire.

 

Bonne journée à tous.

 

Lucien

Modifié par Lucien
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello Thierry,

 

et merci pour ce test pratique et concret! La théorie c'est bien,  la pratique c'est encore mieux!

 

Pour alimenter le sujet, voici un des rare test fait en planétaire trouvé sur le web faite dans des conditions similaires et dont l'auteur (et les conditions, et un diamètre > 300mm ça aide) a un niveau suffisamment élevé en collimation/acquisition/traitement pour que la différence soit perceptible et due aux qualités intrinsèques des capteurs utilisés.

https://www.cloudynights.com/topic/677077-a-comparative-test-between-asi290mm-and-asi224mc-in-hi-res/

 

post-24918-0-46729900-1568872765.jpg

 

En poussant légèrement l'accentuation sur les images du haut (ASI224Mc) sous Photoshop, on réduit encore plus l'écart de celles du bas (ASI290MM). Mais il reste cependant un léger avantage pour la version mono en terme de netteté. La solution consisterait donc a pousser un peu plus l'échantillonnage en couleurs (genre +15-20%) pour compenser la perte de netteté puis réduire de la même proportion ensuite?

 

Le sujet est très intéressant, et alimente ma réflexion sur quelle caméra pour l'opposition de mars à la rentrée prochaine avec le VMC260L.

J'hésite tellement entre l'option ADC + Barlow 1,5X-1.7X (echant. visé  0.15 ") ASI224MC (3.75µm) +  et l'ASI178MM (2.4µm), ADC et RAF en RGB (échant. visé 0,17").

L'avantage de l'asi 178MM que j'adore, est qu'on s'affranchit de l'utilisation d'une barlow car on a de suite le bon échantillonnage.  Avec un F/D de 11,5 on a pile l’échantillonnage parfait soit 0.17" en mono (allez on pourrait ptet encore gratter un chouilla mais le risque de rajouter un élément optique (et ses aberrations) détourné de son utilisation type glasspath/barlow est à prendre en considération. De plus, la perte de sensibilité dues aux petits puixels de 2,4µm est à mon sens compensé par l'augmentation du F/D avec le capteur couleur et les pixels de 3,75µm de l'ASI224MC.

Optiquement je trouve la formule sans barlow la plus "pure". Mais j'ai quand même commandé une ASI224MC (avec filtre IR Cut et Barlow GSO kepler ED 2" qui se dévisse et fonctionne à environ 1,6x avec un backfocus de 53mm (la Baader VIP marche à 1,82x avec cette distance)  d'après mes calculs, ce qui permet de mettre l'ADC ZWO (29,4mm).

 

Je suis 100% aligné avec toi sur le fait que grossir trop n'apporte rien, ci ce n'est du flou, moins de champs, plus d'image à compositer, même si l'approche inverse a encore la vie dure... Il vaut mieux une image avec grossissement équilibré (pouvoir séparateur) très ciselée plutôt qu'une énorme cratère flou.  Pour se faire, le meilleur test possible est de montrer ses images à des non initiés xD! Quand ils te sortent, "ça a l'air bien mais...c'est un peu flou" :o, tu as vite compris xD!!

 

Tu fais références à tes mosaïques lunaires un peu plus haut qui restent encore aujourd'hui inégalées en terme de piqué/gestion du bruit/détails/homogénéité/contraste. Tu indiques avoir un échantillonnage à 0,15" avec ton C14 HD et l'ASI1600MM et ses pixels de 3,8µm. D'après mes calculs tu as monté la focale de 3910 à 5200mm soit un facteur 1,33x. Si ce n'est pas indiscret quelle barlow ou autre accessoire optique as-tu utilisé pour arriver à ces 1,33x? Ca ne sentirait pas le glasspath Baader 1,25x avec un peu plus de backfocus ^_^?

 

Bon ciel!

Modifié par HAlfie
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour,

 

Très bon test.

 

Pour ceux qui ne voient aucune application pratique, pour cause de turbu, moi je vois les choses dans l'autre sens.

 

En gros, ça veut dire qu'on peut se permettre de sous-échantillonner de 30 à 50% en monochrome par rapport à la couleur pour obtenir le même résultat ( disons 40% pour jupiter,  50% pour mars )

En règle générale, je vois souvent l'utilisation de la même fourchette d'échantillonnage pour un capteur mono ou couleur chez les planéteux... et effectivement on ne gagnerait plus rien à pousser le bouchon pour le capteur couleur.

En revanche, on gagnerait certainement à tirer un peu pour les capteurs monochromes...

Pouvoir échantillonner plus large a beaucoup d'avantages, pas forcément utiles en planétaire, mais on a la même problématique en cp poses courtes :

On peut poser plus court, on a un champ plus large, on a des images unitaires plus clean, etc.

Je pense par exemple aux planètes lointaines, on doit pouvoir réduire pas mal le temps de pose unitaire en descendant un peu l'échantillonnage sans perte de résolution, ce qui est bien utile.

Même sur mars, on peut alors se permettre de pousser le framerate plus facilement tout en gardant une image utilisable pour nos logiciels de traitement préférés ( 400 ips ? 500 ips ? )

 

Enfin bref. Je testerai tout ça moi même cet été ;)

 

Romain

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, HAlfie a dit :

Pour alimenter le sujet, voici un des rare test fait en planétaire trouvé sur le web faite dans des conditions similaires et dont l'auteur (et les conditions, et un diamètre > 300mm ça aide) a un niveau suffisamment élevé en collimation/acquisition/traitement pour que la différence soit perceptible et due aux qualités intrinsèques des capteurs utilisés.

https://www.cloudynights.com/topic/677077-a-comparative-test-between-asi290mm-and-asi224mc-in-hi-res/

 

En poussant légèrement l'accentuation sur les images du haut sous Photoshop, on réduit encore plus l'écart de celles du bas. Mais il reste cependant un léger avantage pour la version mono en terme de netteté. La solution consisterait donc a pousser un peu plus l'échantillonnage en couleurs (genre +15-20%) pour compenser la perte de netteté puis réduire de la même proportion ensuite?

 

merci Halfie pour cette expérience que je ne connaissais pas.

 

Il y a une chose importante à noter : l'échantillonnage, qui est de 0,077 pour le mono et 0,073 pour le capteur couleur. Il y a un léger avantage pour le couleur (5%), mais surtout on arrive à un échantillonnage assez poussé, à 4x Nyquist (la moitié de la valeur sur mes quartiers de Lune !). Or il est clair que plus on va affiner l'échantillonnage, plus l'écart entre les capteurs risque de diminuer à cause de l'étalement des détails sur un plus grand nombre de photosites. Et malgré ça, la différence est encore bien visible, surtout sur l'image non réduite : https://www.glitteringlights.com/Images/SolarSystem/Solarsystem/i-58XwmBj/O

Ce qui serait intéressant, c'est la même expérience mais avec un échantillonnage pas aussi serré.

 

Intéressante aussi la discussion, où on voit certains qui cherchent toutes les raisons possibles de dézinguer l'expérience (pas le même capteur, la turbulence a pu varier donc il faudrait faire une grande quantité d'essais et en déduire une statistique...) 9_9

 

Après, si on ne regarde que l'image du haut, on peut se dire qu'elle est déjà très belle, que c'est la preuve qu'un capteur couleur peut donner d'excellents résultats, qu'on est pas sûr qu'un capteur mono ferait mieux et que ce n'est pas la peine de s'embêter avec un capteur mono et des filtres. Ce qui est une position tout à fait compréhensible...mais que tout le monde n'est pas obligé de partager ;)

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, Lucien a dit :

Comme par exemple dire que l'on obtient une meilleure résolution sur la Lune avec un capteur mono + filtre sélectif,

qu'avec un capteur couleur + filtre Luminance.

 

il est bien évident que si on met un filtre sélectif sur un mono il faut comparer avec la couche correspondante du couleur, par exemple mono+V contre couche verte du couleur. Et c'est bien ce que je fais dans mon test, sur chaque couche.

 

Donc : nouvelle objection hors sujet.

 

Il y a 5 heures, Lucien a dit :

Autre point qui n'a pas été évoqué ici est celui de l'algorithme de dématriçage. Utilisé pour convertir la Bayer en RVB.

Il en existe de nombreux et aux résultats assez variables.

 

non, pas possible !?! Et tu crois que tu es le seul à y avoir pensé ?

 

Hé bien figure-toi que j'ai fait des essais avec Iris qui propose 3 algos (linéaire, médian et gradient) et Camera Raw. Ci-dessous les 4 résultats.

 

color_cameraraw_r_g_b.bmp

color_iris_lin_r_g_b.bmp

color_iris_med_r_g_b.bmp

color_iris_grad_r_g_b.bmp

 

Le linéaire est pâteux, le médian un peu mieux mais les couches R et B sont bizarres, le gradient est plus net mais génère pas mal d'artefacts (rebonds) sur le B. Au final, Camera Raw est celui qui me semble le plus net, avec le moins d'artefacts. Et c'est celui que j'ai choisi, pour ne pas risquer de pénaliser le capteur couleur dans le test. Les autres algos lui auraient sûrement donné un résultat encore plus défavorable.

 

Si je n'en ai pas parlé, c'est pour éviter de faire un fil trop lourd que personne n'aurait lu jusqu'au bout (c'est ça aussi, séparer les variables). Il suffisait de demander, au lieu de me prendre pour un benêt 9_9

Partager ce message


Lien à poster
Partager sur d’autres sites

Les tests que tu fais sont instructifs et pédagogiques.

Je ne cherche pas à dézinguer le sujet.

Simplement ça ne me parait pas possible d'en tirer, de ces test ou d'autres similaires, des facteurs très précis

afin d'ajuster l’échantillonnage.

Puisqu'il y a 'trop' de variables.

Mais bon c'est une opinion comme une autre.

 

Lucien

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Astramazonie
      Bonjour les Astros, 
       
      Petite prise du "CASQUE DE THOR" qui date d'une semaine, que je pensais perdu dans les abysses des clichés mais qui a pu être récupérée, toujours au Seestar 20 minutes de pose.
       
      Merci à @Bob Saint-Clar pour son aide pour le traitement ... et le sauvetage de cette photo.
       

       

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 65,8 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

    • Par XavS
      Bonsoir tout le monde,
       
      Enfin, je peux poster quelques images.
       
      Première sortie de l'année sur mon site de l'été à 1 000 M d'altitude. Malgré un voile présent en altitude je ne me suis pas gêné pour photographier le ciel
       
      La cible était la galaxie NGC 4051. C'est une galaxie spirale intermédiaire située dans la constellation de la Grande Ourse. NGC 4051 a été découverte par l'astronome germano-britannique William Herschel en 1788. Elle est située à environ ∼44,5 millions d'A.L.
       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 70 x 300s
      Darks : 7 x 300s
      Offsets : 29 x 1ms
      Flats : 29 x 120ms
      Total : 5 h 50
      Traitement : Sirilic, Siril et Gimp
       
      Et comme à mon habitude, voici un joli quartier de Lune présenté en deux versions.
       

       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 57 sur 231 x 1s
      Traitement : AS4, Astrosurface et Gimp
       
      La galaxie ne me plaît pas trop. Je ne saurais dire pourquoi. Par contre pour mon quartier de Lune, je l'adore
       
      Vos commentaires sont la bienvenue.
       
      Bon ciel à toutes et tous.
       
      XavS
       
    • Par Romain Guillou
      Un ciel laiteux, mais que cela ne tienne, on voit quand même les étoiles, donc s'est repartie pour une cible bien connue :

      M81 et M82, La galaxie de Bode et du Cigare.

      Exifs :
       
      145x120s à 1025iso DOF (20 chacune) + Autoguidage Lunette 60mm Canon 60D Défiltré + CLS SW Quattro 250P et EQ6 r pro Traitement Siril + PS
        Faite à Ronsenac (Charente) depuis mon jardin le 13/04/24


  • Évènements à venir