jldauvergne

Member
  • Content count

    12516
  • Joined

  • Last visited

  • Days Won

    13
  • Country

    France

Everything posted by jldauvergne

  1. Hello Christophe De La Chapelle vient de publier une vidéo sur les caméras n&b vs couleur. En bossant dessus ça a ouvert pas mal de discussion entre nous pour amender le contenu par rapport à la version initiale. La discussion portait principalement sur la perte de résolution d'une caméra couleur par rapport à une caméra n&b (à échantillonnage égal bien entendu). , Souvent les gens pensent que l'on perd un facteur 2 de résolution. En réalité tout dépend si on considère la couche luminance ou chrominance, et tout dépend avec quel algo ces couches sont générées. Toujours est-il qu'il est admis dans la littérature que la perte est de l'ordre de 30% et non pas 50%. Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot. Une fois que l'on composite j'ai tendance à me dire qu'avec la turbu et les dérives de la monture, chaque détail est tantôt en face d'un pixel R, un pixel B, un pixel V. Et intuitivement j'ai l'impression que du coup, on n'a pas forcément une grosse perte de détail par rapport à une matrice monochrome. A moins que l'alignement se fasse après dématrissage et que le dématrissage induise forcément une perte irréversible ? On a une perte de dynamique en revanche et la dynamique participe à la résolution, mais en même temps si on veut l'info couleur avec le capteur monochrome il faudra bien filtrer, donc pas soucis de simplification mettons de côté cette question de la dynamique, la question de base est déjà assez compliquée je pense On suppose donc que l'on est à dynamique identique sur les deux matrices. Je ne sais pas ce que ça inspire aux cadors du domaine @Marc Delcroix, @Christophe Pellier, @cbuil @JPProst, @christian viladrich, @Thierry Legault Je mets la vidéo en lien pour ceux qui veulent voir :
  2. Oui et ça c'est valable avec un télescope un peu poussif dans le bleu. Je suis 40% au dessus de ça et en monochorme. Ca passe bien. Un exemple de stack brut (pris un peu au hasard sur une bonne nuit), on gagne encore en finesse après dérotation.
  3. Pour remettre les points sur les i, je vous donne les sources biblio que j'ai trouvé par rapport à la perte sur une image brute. A lire avant de revenir avec des 50 ou 40% qui ne correspondent pas à la réalité. https://books.google.fr/books?id=yNZ5AgAAQBAJ&pg=PA128&lpg=PA128&dq=bayer matrix vs mono spatial resolution 30%&source=bl&ots=7qPuOnxvxx&sig=ACfU3U2y-7JvUR7X2zeQ7HvGC2BShBVt8Q&hl=fr&sa=X&ved=2ahUKEwi316v32K3mAhVNyoUKHRmNCG0Q6AEwAXoECAoQBA&fbclid=IwAR2GKVq58YLkQnpk8WH-w43-cUDIh3fDxFWoFIL2Bm02t_EAU9kI4uS0vXI#v=onepage&q=bayer matrix vs mono spatial resolution 30%&f=false http://www.stark-labs.com/craig/resources/Articles-&-Reviews/Debayering_API.pdf?fbclid=IwAR1uIiuiPn1_PrXVlMRf_DJGYkilS1kzveMaRXHWQFF9Wag696bFDGMTCpU https://www.adimec.com/bayer-area-scan-color-cameras-compared-to-3-ccd-color-cameras-part-1/?fbclid=IwAR07pN5P469iScko10ZgYKInOBkdYGjEN-RZuXTKutKTUoEZDlKJPJCp1O4
  4. là tu pars mal déjà. Ça c'est du raisonnement sur un coin de table qui ne tient pas compte de ce que savent faire les bons algorithmes de dématrissage. Et puis encore une fois ce n'est pas ma question. Ma question porte sur le résultat avant stacking pas par rapport à une image brute. Donc je reformule une fois clairement : Si on a une différence de résolution de 30% (ou 40% si tu veux je m'en fous), sur les brutes couleur vs N&B, combien on a après stacking (en assumant que la planète se déplace un peu sur le capteur).
  5. Oui c'est bien de ça dont je parle. Est-ce qu'il y a une logique type drizzle après stacking.
  6. Merci je ne confonds pas. Je dis juste que tu ne réponds pas à la question de départ. On a une perte d'information ça c'est acquis et entendu en préalable. Ma question porte sur la résolution après stacking. Ça pour moi c'est du sous-échantillonnage en planétaire. Voir mon message plus haut pour clarifier la question : Si on a une différence de résolution de 30% sur les brutes couleur vs N&B, combien on a après stacking (en assumant que la planète se déplace un peu sur le capteur). Voilà c'est juste ça que je cherche, pas un cours sur l'entropie.
  7. Je ne sais pas ce que tu appelles sur sur-échantillonnage ici. Le but est d'échantillonner ce dont on a besoin et la réponse à la question de départ peut aider à celà. Si tu parles simplement de se mettre à f/d=4xla taille du pixel, perso je concidère que c'est sous échantillonné avec une bonne optique. Et au final tu ne réponds pas à la question. Elle porte sur l'effet du stacking bayer vs n&b filtré rvb
  8. Tu complexifie inutilement ma question de départ. Bien entendu que si tous les détails de haute fréquence sont gommés par la turbu ou que si l'échantillonnage est x10 on nivelle par le bas. Je vais poser la question autrement dans ce cas. Mettons que l'on ait une différence de 30% ( ou même 40 si tu veux même si ce n'est pas le chiffre de la litérature ) sur les images brutes, quelle différence à-t-on après addition ? On oublie la turbu par contre il y aura forcément de la dérive de la monture. Tu pars toi même d'un principe à 40% avant de tout compliquer avec l'échantillonnage et la turbu. Alors que si tu fais ça, ça joue aussi sur ton 40%. Sans doute que l'algo utilisé pour stacker joue sur la réponse (?)
  9. Je ne sais pas. Je laisse tout le temps ouvert et ça se passe bien. Vu que la température n'est jamais stable ça me semble plus logique. Ceci dit il m'est arrivé (moins souvent), de ne pas ouvrir du tout et ça se passait bien aussi. Partir d'un télescope stocké dehors ça aide beaucoup.
  10. Tu as raison que ça compte, mais oublions cet aspect, je pose la question dans l'absolu. Ce qui me gène avec l'échantillonnage, c'est que non déjà on ne sur-échantillonne pas forcément "suffisamment", et surtout en règle de base on applique la règle de Shannon ce qui est insuffisant pour voir les plus petits détails qu'une optique peut dévoiler. On nous explique ici et là que pour bien faire il faut échantillonner à un f/d de 3,8x la taille du pixel. Perso je suis à 8,3x et je pense que ça m'apporte quelque chose par rapport à 8,3 (parce que l'optique suit notamment). Je suis sans doute un peu haut mais ça marche (il y a aussi des contraintes de montage optique, et je trouve ça intéressant d'être haut pour faire un traitement plus précis). Et ce qui est sûr c'est que j'ai des détails plus fins avec ma caméra n&b à 8,3x qu'avec la couleur qui est à 6,4x. C'est tout le sens de ma question de savoir quel raisonnement est juste, mais encore une fois je ne vois pas ce qu'apporte l’histoire de l’entropie de Shannon, car elle porte sur la source, pas sur le récepteur.
  11. je sais bien. L'ouverture arrière aide bien quand même sur le 250 j'ai l'impression. Le contexte d'utilisation joue pas mal aussi. J'ai peu de soucis sur le balcon.
  12. Ton message précédent est incompréhensible (pour moi en tout cas). Si tu peux formuler clairement, ... Là comme ça, je ne vois pas trop ce que l'entropie de l'information vient faire ici. On parle ici dans le cas d'observation planétaire d'objets qui émettent dans tout le spectre visible, et la source ne change pas, c'est la caméra qui change. Ce que je cherche c'est une réponse dans la pratique, pas une réponse aux limites en fonction de qualités chromatiques exotiques de l'objet visé. Il est bien entendu qu'une matrice de bayer pour observer une nébuleuse qui n'émet que en H beta ce n'est pas bien. Mais ce n'est pas ma question.
  13. la matrice de Bayer ce sont des filtres devant chaque pixel, un pixel donné ne capte qu'une seule couleur. Si un pixel à un filtre Vert on sait quelle est l'info en vert. Le B et le R sont extrapolés des pixels voisins. Les pixels sont disposés ainsi avec 1 sur 2 de couleur verte. https://fr.wikipedia.org/wiki/Matrice_de_Bayer#/media/Fichier:Bayer_pattern_on_sensor.svg Oui, c'est ça.
  14. Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité.
  15. ça seul le fabricant pourrait te dire si il a caractérisé les pièce individuellement et si il les a orientées pour optimiser le résultat. Si au départ les défauts de non-révolution sont négligeables tu peux faire ce que tu veux en terme d'orientation, mais je pense que tu n'auras aucun moyen de savoir. Dans la pratique 0 défauts ça n'existe jamais donc il semble raisonnable si il fonctionne bien de converser l'orientation usine. Ce n'est que si tu trouves de l'astig qu'il faudra partir à la chasse, après avoir éliminé un éventuellement défaut d'alignement du primaire si ça joue comme sur les cassegrains (ce que je ne sais pas).
  16. Je ne sais pas quel raisonnement tu fais mais il est faux. En sensibilité effective, un capteur avec une matrice de bayer est environ 1/3 moins sensible tout simplement car il y a un filtre devant chaque pixel. Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?
  17. Oui j'avais lu ce fil, ça converge avec ce que je dis avec le chiffre de 25%. (Il me semble qu'il est difficile de donner un chiffre au pourcent près car l'impact de la détérioration du motif considéré dépend de sa forme et de sa couleur). La contribution de @mala05 a en tout cas un peu remis les points sur les I. Même si certains continuent à douter. Si quelqu'un a vraiment envie d'affirmer le chiffre de 50% qu'il tente de le démontrer d'abord, on parlera ensuite
  18. Non ça c est faux . 30% de différence. Plongez vous dans la biblio à ce sujet mais ça c est acquis
  19. Il faut penser global et pas uniquement local. Localement si c'est de la pelouse oui je pense que le problème est réglé au bout de quelques heures, mais actuellement on a une situation extrême avec les planètes à 20°, il faut penser à tout ce que l'on a sous la ligne de visée sur des centaines de mètres voir des kilomètres. Il y a peu de chance que le sol soit homogène et donc neutre sur une telle distance (et même si tout s'est refroidi en dessous de la température ambiante, ici on va rester à ce niveau là, là on va aller en dessous, et bref les échange d'air ne vont pas stopper). Je ne sais pas quelle est l’épaisseur de la couche la plus critique. A Concordia il avait mesuré 30 m. Ce n'est pas directement comparable à un site standard, mais j'ai l'impression que ça donne un bon ordre de grandeur. L'épaisseur critique doit dépendre du profil de la masse d'air et du vent dans tous les cas.
  20. Hum. En poussant cette logique au bout on a fait le TBL et il n'a jamais été possible de fermer l'avant car on ne sait pas faire. Au final c'est toujours le T1M qui tient le haut du pavé en résolution angulaire avec un tube ouvert, mais des ventilateurs. De plus cette affirmation entre en contradiction forte et totale avec les designs de télescopes professionnels actuels. On peut aussi penser au SC qui sont un bel exemple de tubes fermés qui se comportent assez mal. Ça a des avantages de fermer un tube, mais ce n'est pas une solution unique loin de là et idéale dans tous les cas. Avec tout le respect que l'on peut avoir pour l'immense Texereau, il a écrit ça il y a très longtemps, on a appris pas mal de choses depuis et ce qui est certain c'est que ça reste une question pas simple. Je retiens par contre de la visite récente du LSST que le télescope est sur une tour de 16 m de haut pour limiter la turbu. L'expérience du balcon, du Pic ou de la Grande lunette à Paris me montre que plus que la fermeture du tube le paramètre le plus important c'est l'éloignement du plancher des vaches. Mes tubes sont ouverts et ça me va très bien. A part un vent de face malgré des conditions stables, c'est le seul cas ou le tube ouvert est vraiment aux fraises par rapport au tube fermé.
  21. alors que c'est l'inverse, les miroirs de Mewlon font toujours 1 cm de plus. Mais mécaniquement on dirait bien que le TEC est plus trapu, avec une ligne plus basique.