Clouzot

Membre
  • Compteur de contenus

    267
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 79451

Tout ce qui a été posté par Clouzot

  1. Binning et fwhm

    Oui, mais c’est trompeur à mon humble avis, du moins s’il s’agit uniquement d’un ré-échantillonnage /2 tel que décrit au-dessus. (S’il y a 2 pixels parmi ces 4 qui fonctionnent avec un gain différent, comme le font certains capteurs, c’est autre chose…) On va se mettre dans un cas particulier. Imagine que tu vises Vega en poses de 30s et que 4 pixels adjacents correspondant à l’étoile soient chacun pile poil arrivés à leur saturation d’électrons (49ke- chacun). Tu ne peux pas poser plus long, le signal n’augmentera pas sur ces 4 pixels (et tu risques de saturer d’autres pixels dans le coin) Maintenant, tu « binnes » 2x2. Ton pixel résultant (somme ou moyenne de 4 pixels eux-mêmes saturés) est toujours…saturé. Tu ne peux pas poser plus longtemps que tes 30s. Donc, tu n’as pas augmenté ton fullwell en « binnant » (parce que c’est bien à ça que ça sert, le fullwell. Enfin je pense !) Alors certes ton superpixel peut contenir (avant rescaling) 4x plus d’électrons, mais ce n’est pas pour autant que le fullwell de la caméra a fait un bond. Le seul truc qui augmente avec ce ré-échantillonnage, c’est le nombre de niveaux de représentation du flux sur la plage de dynamique acceptable. Là oui, on doit passer à 18 bits, donc on représente mieux les nuances et on a moins de bruit de quantisation dans l’image résultante. Si on n’est pas obligés de rescaler, par exemple dans un logiciel qui bosse en 32 bits internes, on est bons. Tu parlais du bruit de lecture : comme il est aléatoire, il se somme ou se moyenne de manière quadratique, donc une fois rescalé sa dispersion aura bien diminué d’1 bit (aura été divisée par deux). Je ne sais pas si ça répond réellement à tes questions. Si ce n’est pas le cas, désolé…j’essaierai de faire mieux avec un peu plus de temps.
  2. Binning et fwhm

    @Colmic s’agissant d’une (très belle) CMOS, le « binning » est fait dans le domaine digital, post ADC : les valeurs numériques (sur 16 bits) des 4 pixels adjacents sont moyennées. Ce mode de fonctionnement fait qu’il est effectivement impropre de parler de binning, puisqu’en fait c’est un rééchantillonnage qui est effectué, avec une fréquence spatiale divisée par deux. Il est d’ailleurs envisageable de faire ce rééchantillonnage de manière fractionnaire si on le veut : Startools (malgré tout le mal qu’on peut en penser) le permet, par exemple. Le fullwell du super pixel résultant n’augmente pas car il est de toute façon limité par le fullwell de chacun des pixels originaux : si l’un des pixels sature, c’est mort, le super pixel va finir avec un signal distordu même si lui-même n’est pas forcément saturé. On peut aussi voir la chose comme une somme et pas une moyenne de 4 pixels : dans ce cas la valeur du super pixel est bel et bien représentée temporairement sur plus de bits, mais la caméra va rescaler la valeur obtenue sur 16 bits, ce qui revient au même in fine. Comme tu le dis, seule une représentation de travail sur 32 bits permet de bénéficier d’une meilleure finesse dans la représentation des signaux puisqu’on n’est pas limité par la quantisation sur 16 bits de la caméra et de son pilote qui va raboter tout ce qui n’est pas un niveau entier. Mais dans aucun cas ça n’augmente le fullwell de la caméra, malheureusement…!
  3. Binning et fwhm

    Ça je pense qu’on est tous d’accord, les capteurs CCD ont un avantage clair et net sur ce point par rapport aux CMOS. On n’est pas forcément d’accord sur l’analyse de ce qu’il se passe physiquement (flux qui augmente ou pas, bruit qui diminue ou pas…) mais les conséquences sont les mêmes : en binnant 2x2, le RSB augmente d’un facteur 4 avec ta caméra, et d’un facteur 2 avec la mienne. La détection de signaux faibles est améliorée, de 1.5 magnitude dans le ch’Nord, de 0.75 magnitude dans le Sud. Ça me donnera une excuse facile pour toutes les fois où mes images sont toutes pourries (ceci dit, la techno de binning semi-hard conjointement au switch HCG telle qu’utilisée dans l’IMX294 et d’autres capteurs CMOS est intéressante car le bruit est très fortement diminué lors du passage en mode HCG. Et là c’est plutôt une diminution d’un facteur 3 du bruit de lecture, ce qui commence à être pas mal, encore loin d’un CCD mais avec un gros avantage de disponibilité commerciale)
  4. Binning et fwhm

    Je pense que ça va suffire, tu as probablement mieux à faire (une petite cible galactique inhabituelle, par exemple ?) Avec ta CCD, on peut voir les résultats comme un unique phénomène lié au flux (pas au bruit !), qui a plusieurs conséquences : - le CCD procure un "vrai bin2 de vraie CCD", créant de facto des super-pixels de surface quadruple, donc un C11EHD qui fonctionne "à f/5" à caractéristiques de pixel égales. A la grosse louche, le flux sur chaque super- pixel est quadruplé. C'est de là que vient le gain en magnitude, qui doit effectivement être de 2.5 x log(4) donc 1.5 magnitudes comme tu l'écris (je pense que ce chiffre de 1.5mag jeté en l'air n'était pas si innocent que ça, hmmmm ?). - le bruit de lecture n'est pas réduit (il est identique quelque soit le binning) ... - ... mais le rapport signal/bruit l'est (par la grâce des super-pixels et de leur flux boosté), permettant donc une meilleure détection (au sens statistique du terme) de signaux faibles qui seraient, sinon, perdus dans le bruit de lecture en bin1. Avec un CMOS, Nathanael (ou moi) ne peut créer un super-pixel qui va combiner les électrons. On va devoir se contenter d'ajouter (ou moyenner, ça revient au même) 4 pixels adjacents, signal et bruit en vrac. - La dispersion du bruit, qui suit une loi normale et est décorrelé entre les pixels, va diminuer d'un facteur 2 lors du moyennage des 4 pixels adjacents. - Le flux n'est pas spécialement boosté car on effectue une moyenne des électrons entre les 4 pixels. - Nathanael va donc améliorer son rapport signal/bruit, mais de 2 et pas de 4. Il va donc pouvoir détecter des étoiles avec un gain en magnitude de 2.5 * log(2) donc plutôt 0.75 magnitudes. C'est moins bien qu'avec une CCD, certes, mais c'est quantifiable et mesurable. Bref, tout le monde est d'accord : - CCD et CMOS bénéficient à des degrés divers d'un binning, qu'il soit logiciel ou matériel. -une fois binné 2x2 matériel, le CCD reçoit un flux x4 à bruit constant, aura donc un gain en détection de 1.5 magnitude. - une fois binné 2x2 soft, le CMOS reçoit un flux identique mais réduit son bruit d'un facteur 2. Il aura un gain en détection moitié moindre (0.75 magnitude). C'est déjà ça de pris. Toutes ces caractéristiques justifient bien les différences d'usage entre CCD et CMOS. L'un va préférer les poses plus longues pour noyer le bruit de lecture dans le bruit photonique, et pourra avantageusement utiliser le binning 2x2 pour augmenter sa capacité de flux. L'autre va pouvoir se permettre de poser plus court grâce à son bruit plus faible, permettra aux fanas de la pose courte de gratter de la FWHM sur certaines cibles, mais il faudra être bien plus rigoureux sur l'adaptation entre taille de pixel et focale. Bref, vous connaissez tout ça par coeur, non ?
  5. Binning et fwhm

    Je sais à peu près ce qu’est le binning logiciel dans le cas d’une CMOS, et c’est (je crois) de CMOS qu’on parle ici. Non ? Vous me mettez le doute. J’ai pris un exemple simple puisqu’il me semblait que la nature même de ce qu’est le bruit de lecture (une dispersion, pas un « niveau » au sens strict) semblait échapper à certains. Mais si la discussion a dévié sans que je m’en rende compte et qu’on en est, en fait, à discuter pour la millième fois du « vrai » binning CCD-qui-est-mieux-que-celui-des-CMOS, c’est à dire un vieux débat qui a déjà été maintes fois vu et qui n’a plus trop lieu d’être (faute de CCD modernes depuis lors, on a quasi tous des CMOS, par défaut ou par choix) alors je te le concède, on ne parlait pas de la même chose et le binning hardware des CCD est supérieur en termes de gain de RSB, oui, oui, oui. maintenant que c’est dit : dans les faits, avec la quasi totalité des capteurs sortis depuis 2017 (des CMOS, donc) et en première approximation avec un algo très simple : binning 2x2 = bruit de lecture divisé par 2 dans l’image obtenue = RSB qui augmente. Et que l’opération soit faite dans la caméra ou sur le PC, c’est pareil (sauf cas particuliers type IMX294 avec des trafics inavouables de pixels fonctionnant à des gains distincts) C’est pas de la religion ou une incantation, c’est du traitement du signal très basique, et ça m’étonne toujours que ce soit remis en question…Il y a amélioration du RSB, moindre qu’avec un CCD, mais il y a amélioration quand même.
  6. Binning et fwhm

    Le bruit de lecture est une valeur statistique mesurant la dispersion (et non pas le niveau !) des valeurs que prennent les pixels autour de leurs niveaux théoriques (signal utile). Se rajoutent évidemment les autres sources de bruit possibles (thermique, quantique…) Donc ce bruit existe que l’image soit encore sur la caméra, téléchargée sur le PC, postée sur Astrosurf…ou bien binnée logiciellement. Comme il s’agit en théorie d’un bruit aléatoire donc ayant une distribution suivant la loi normale (pour simplifier, la fameuse courbe en forme de cloche qu’on voit partout dans plein de domaines), le fait de prendre la moyenne de 4 pixels adjacents va finalement réduire l’écart qui peut exister entre tous les « nouveaux pixels » ainsi créés. Ça va en fait diviser la dispersion de ce bruit de lecture par 2 (donc le « niveau » de bruit comme on le dit abusivement). ça c’est la théorie. Dans les faits le bruit de lecture n’est pas totalement aléatoire, donc c’est une approximation.
  7. Monture équatoriale RainbowAstro RST-135

    Oui maintenant que j'ai regardé sur grand écran, le niveau de détail en live et surtout le champ (le diamètre du soleil ne rentre même pas dans la largeur du capteur qui est probablement un APS-C) fait plutôt penser à un instrument à focale substantielle. Du moins, un peu plus substantielle qu'une lulu de 50mm En tout cas belle brochette de Taka chez nos coréens volants, la Borg fait presque un peu tâche au milieu
  8. Monture équatoriale RainbowAstro RST-135

    La vidéo est sympa effectivement ! Là, « BJ » (le fan d’astro chez Rainbow, société plutôt versée dans la robotique industrielle à la base) a utilisé une focale qui semble plus raisonnable que les 2 mètres et quelques du C9, mais cette monture peut quand même se guider avec des focales plutôt longues (sans exagérer hein, ce n’est pas une 10Micron non plus). A même pas 3.5kg c’est une super monture légère pour le nomade, avec ses défauts bien sur (absence de frein électromagnétique en particulier). Je ne l’ai pas utilisée en altaz pour l’instant mais il y a tout ce qu’il faut pour dans la raquette. Le mode de cinématique inverse qui permet, en mode équatorial, d’emuler des mouvements en altaz est très bien vu par ailleurs
  9. Monture équatoriale RainbowAstro RST-135

    Histoire d’objectiver et comme j’avais la caméra déjà montée (ici à f/10), voici une courte vidéo. Le C9 est monté sur le Tpod90 et une demi colonne. La chaîne optique est en place avec une 294MM aux fesses, placée à 13 cm de la sortie du scope. Contrepoids en place. On doit être autour des 3s d’amortissement mais le champ est peut-être trop serré (ici 4.2x3.6 arcmin, soit 0.07x0.06°) A l’oculaire (20mm donc plutôt x116) c’est bien moins long, la vibration n’est plus sensible après 1.5s (Edit: 2s plutôt. J’y suis allé un peu plus fort) La cible est à 650m de mon salon. Désolé pour la MAP qui est faite pour le ciel et que je n’ai pas voulu retoucher (des fois que ça se dégage…) Sur cette monture il a été relevé par nos cousins américains que l’essentiel de la stabilité venait de la qualité du trépied. Ici il s’agit d’un trépied correct mais qui reste tres transportable (c’est le but de ce setup !). J’ai aussi un trépied photo carbone pour aller avec les setups bien plus légers style lulu ou C6, là la stabilité est clairement en deçà de l’Avalon
  10. Monture équatoriale RainbowAstro RST-135

    Non c’était bien avec guidage puis analyse des corrections apportées sur l’axe AD par PHD2 a posteriori (via PHDLogViewer) Voilà ce que j’avais relevé (il s’agissait de sa première lumière ou quasi, j’ai pas mal évolué ensuite sur la technique de guidage) https://www.astronomie-va.com/forum/viewtopic.php?p=88776#p88776 Sur l’amortissement, étant quasi exclusivement en mode imagerie sans devoir toucher au tube, je n’ai pas spécialement mesuré la période mais je peux essayer rapidement (sur une cible terrestre sans suivi par contre, car la météo n’est pas fameuse dans les prochains jours)
  11. Monture équatoriale RainbowAstro RST-135

    Oui bien sûr. Mais il faut garder à l’esprit que ce n’est pas une monture classique à pignon / VSF et qu’avec toutes les montures harmoniques (les RST mais aussi l’AM5) l’erreur périodique varie selon la charge. Avec le C9, en guidage d’une trentaine de minutes sur une zone le long de l’équateur céleste et 1h avant le méridien, j’ai mesuré l’erreur périodique à +/- 9 arcsec pic à pic. Ce n’est clairement pas le point fort de ces montures (l’AM5 est donnée pour des chiffres similaires je crois, +/- 10arcsec mesurées en usine), mais ça se guide par contre très bien comme tu l’as lu chez les américains.
  12. Monture équatoriale RainbowAstro RST-135

    Au plus lourd , un C9.25 avec son train d’imagerie +OAG et une petite lulu en parallèle. Le poids de l’ensemble est dans les 13k500. Étant à la limite de ce qui est supporté sans CP, j’ai préféré rajouter un contrepoids de 3kg, plus pour éviter la bascule du trépied (Avalon Tpod90) que pour les moteurs (qui suivent sans moufter)
  13. Monture équatoriale RainbowAstro RST-135

    J’ai la version RST-135 (donc sans encodeur, ça c’est la RST-135E). On est plusieurs à en avoir une en France d’ailleurs. Que voudrais-tu savoir ?
  14. J’ai fait comme @PETIT OURS le décrit. Il y avait deux points de colle qui empêchaient la plaque de coulisser dans sa glissière. Une fois tapotée gentiment par le côté libre (massette caoutchouc et cale en plastique) elle est venue sans problème.
  15. Asi 990/991mm Infrarouge

    Mon collègue du dessus a probablement trouvé la raison : une des courbes est normalisée par rapport à la longueur d’onde (l’énergie du photon étant proportionnelle à lambda) , l’autre pas.
  16. Visuel assisté, Observation, Vocabulaire

    C’est d’une logique imparable. Vivement la chute, qu’on soit tranquilles. (la perspective d’avoir l’équivalent d’un demi C2PU sur mon balcon fait carrément réfléchir)
  17. Visuel assisté, Observation, Vocabulaire

    Meuh non. Enfin si un peu quand même : la progression de la PL depuis une vingtaine d'années réduit comme peau de chagrin la possibilité de faire du vrai visuel à l'oculaire, sauf à faire des kilomètres ou à se contenter de cibles un peu brillantes. Des objets parfaitement visibles il y a 30 ans avec un modeste T100 sont désormais devenus impensables, sauf avec un gros entonnoir de Dob de l'espace... ou une caméra (tu vois où je veux en venir ) Bien sûr, et on est plein dans ce cas je pense. Malgré mon étiquette de VA-tiste invétéré, je cache un lourd secret : comme beaucoup, j'ai fait uniquement du visuel pendant des années. Le goto n'existait pas chez les amateurs, le suivi se faisait à la pogne avec la molette, mais on s'éclatait bien quand même. Et au crédit du circuit court photon->rétine, il faut reconnaître que certaines cibles "rendent" largement mieux à l'oculaire que tout ce qu'on peut faire avec une caméra. Faut juste pas me demander de les dessiner, c'est une boucherie quoique je fasse Je ne nous le souhaite pas, mais bon... Si ça doit arriver, un bon gros pack de batteries à décharge lente permettra de se poser longtemps dans des coins où il n'y a que des sangliers et pas de prise de courant !
  18. Visuel assisté, Observation, Vocabulaire

    Il y aurait alors comme un parfum de revanche pour les Dobsonistes à l'ancienne, sans goto ni suivi. Je passe de ce pas tout mon bazar sur batteries avec recharge par panneaux photovoltaïques. S'il n'y a plus qu'un seul VA-tiste, je serai celui-là
  19. Visuel assisté, Observation, Vocabulaire

    Et je viens de me rendre compte qu'il y avait déjà tous vos VA-tistes préférés (moi, quoi) et nul autre que @Bruno- dans la discussion. C'est très bien si ça t'a donné envie d'essayer ! Même si ma pratique très classique a un peu évolué depuis ce vieux sujet de 2019 (ASIAir, caméra mono, parfois filtres, monture équatoriale), le principe de base est toujours le même et reste simple : une caméra à la place de l'oculaire, et un écran pour afficher l'image (mon smartphone, ces derniers temps). Tout le reste (monture goto, darks, flats, guidage ou autres subtilités d'imagerie) permet d'améliorer le confort ou l'aspect, mais reste optionnel et devient de moins en moins utile au fur et à mesure que les capteurs progressent (la dernière génération a fait un bond qualitatif certain). En définitive ça n'a jamais été aussi facile de faire des observations en VA qu'actuellement, c'est le moment de tester. Après, le déroulement d'une session est vraiment proche d'une session à l'oculaire : on peut choisir de faire un marathon à coup de dizaines d'objets par soirée (instrument rapide apprécié). C'est la session classique, on change d'objet quand on en a marre..ou qu'on ne voit rien (ça arrive) ou se focaliser plus longtemps sur une cible unique avec un tube moins rapide comme mon modeste C6. J'ai par exemple passé toute une soirée dans le coin de M81, pas tant pour la galaxie elle-même que pour ses voisines type Holmberg IX (une mignonne irrégulière assez faiblarde). Ou encore le "Club des Milliardaires", réservé au VA, où le challenge est de détecter les objets les plus lointains possibles en quelques minutes (je l'ai jouée facile, un quasar bien brillant m'a permis un podium immérité). Bref, il y a de quoi faire et le nombre de cibles atteignables avec un peu d'aide électronique est monstrueux avec tout un panel de techniques plus ou moins évoluées. Il nous reste juste les planètes et la Lune, où rien ne remplace un bon oculaire. @yapo c'est une bonne idée mais le terme est plutôt utilisé par/pour ceux qui font réellement de la vidéo en direct, non ? Sans empilement, comme les expériences à base Sony A7s que citait JLD un peu plus haut ou avec un intensificateur suivi d'une caméra.
  20. Visuel assisté, Observation, Vocabulaire

    …par ceux qui ne pratiquent pas. C’est ça qui est assez extraordinaire à bien y réfléchir. (bon ce débat WA n’est pas forcément un bon exemple vu les noms d’oiseaux et autres insultes qui y ont été lancées. Ça s’est d’ailleurs fini nulle part). Je réitère ma vision des choses : une fois trouvées une ou plusieurs appellations qui conviennent à tous, qui ont du sens et qui ne donnent pas un acronyme de 10 pieds de long, seuls les participants ou les commentateurs pourront les adopter et progressivement les imposer, pas ceux qui (tout respectable qu’ils soient) ne participent en rien à ce champ d’activité. Sinon, ça sera comme ce débat de 2018-2019 : ça restera lettre morte, faute d’adhésion. Je suis personnellement à l’écoute de toute proposition de nouveau(x) terme(s) et étant plutôt actif sur un des forums d’en face, j’en ferai usage…s’il me plaît bien. Comme quoi je suis de bonne volonté, car j’ai bien conscience des débats que l’appellation actuelle provoque.
  21. Tri-Bahtinov ou Bahtinov Focus Mask

    Pareil que @Yoann DEGOT LONGHI pour faire la MAP au centre un masque simple fait très bien l’affaire le triBaht est sympa pour la collimation. On arrive au même niveau de réglage qu’avec les donuts de taille de plus en plus petite, mais on le fait d’un coup et c’est appréciable. Ça n’évite pas de finir sur la figure de diffraction d’une étoile (si la turbulence le permet), ce qui reste quand même le plus précis Dans les deux cas penser à finir dans le sens anti horaire pour pousser le miroir, surtout avec un C14 dont le primaire est déjà bien costaud (mais j’imagine que tu savais déjà tout cela)
  22. Visuel assisté, Observation, Vocabulaire

    @Bruno- bien compris. Je suis aussi assez pessimiste. Le VAtiste amateur est plutôt du genre têtu, surtout quand on l’a traqué depuis 2-3 ans sur le thème « c’est de la (mauvaise) astrophoto » ou autre. Ceci dit ça ne serait pas la première fois qu’un terme parfaitement impropre s’installe dans le jargon technique, ou qu’un terme dépassé y reste par habitude ou flemme. Mais bon, on va y travailler, on est déjà en ligne sur l’aspect « observation » qui est primordial (en tout cas chez moi), et l’illumination viendra peut-être à force de poster des comptes-rendus « d’observation en VA » comme je m’oblige à le faire le plus souvent possible.
  23. Visuel assisté, Observation, Vocabulaire

    Sans vouloir te désespérer @Bruno- le vrai souci c’est que le terme de VA est celui utilisé quotidiennement par ceux qui pratiquent (y compris moi). Si tu veux que l’appellation change (et je reconnais que tes arguments sont solides, que le terme initial est mal choisi etc) il va falloir trouver un terme fédérateur, compréhensible par tous, et surtout le communiquer de l’intérieur en donnant l’exemple. Tu ne peux pas faire un tel changement en mode Académie Française, sinon on va t’écouter gentiment (parce qu’on est polis) puis continuer comme si de rien n’était, parce qu’on sait à peu près ce que "VA" recouvre (et en plus @jldauvergne le diffuse dans la presse nationale, donc on voit débarquer tous les jours du monde qui veut débuter « en VA » parce qu’ils l’ont lu dans C&E. C’est sa faute, en fait )
  24. Visuel assisté, Observation, Vocabulaire

    Malheureusement on semble plutôt prendre le chemin inverse ces derniers temps (comme l'IMX678 avec ses mini-pixels de 2um). Peut-être que le marché du smartphone pousse dans ce sens...ou plutôt celui de la video-surveillance qui tape aussi dans la focale courte. En bon utilisateur d'optiques à longue focale, j'étais tout émoustillé quand j'ai vu apparaître cet IMX432 dans l'offre de capteurs chez ZWO, mais @Nicolobrica m'a calmé récemment en m'expliquant qu'il s'agissait en fait d'un capteur IMX420/428 "bridé" en bin2 systématique (un peu comme le 482 qui est un 485 binné "d'usine"). Celui qui se semble se rapprocher le plus (et encore) de ce qu'on peut faire avec un A7s, c'est l'IMX410 embarqué entre autres dans l'ASI2400, mais le prix pique légèrement et il faut un instrument capable d'accueillir le monstre. Oui ! Certains le font avec des objectifs bizarroides type Lomo russe, pour ma part j'ai essayé à coup d'Hyperstar et de 294, et on voit effectivement des choses sympa en direct sans trop pousser le temps de pose et sans empiler. Mais je crois qu'on est encore très, très loin de que sort un Sony A7 défiltré avec un objectif ouvert comme ce que tu décris. J'ai souvenir d'une vidéo de présentation publique lors de la Nuit des Etoiles 2019 où l'A7s se baladait dans le Cygne, avec des résultats excellents, couleurs comprises.
  25. Visuel assisté, Observation, Vocabulaire

    @Bruno- ok, j’ai compris la logique, ça se tient. C’est finalement très proche du terme « observational imaging » qui avait été proposé chez les américains, avec la reconnaissance du but de la manip qui est bel et bien d’observer un objet, et pas (forcément) d’en faire une photomoche (marque déposée par moi)