patry

Member
  • Content count

    3682
  • Joined

  • Last visited

  • Country

    France

Posts posted by patry


  1. Pour information, voila la mesure pour le filtre IRpro 742, on retrouve la fuite dans l'UV présente aussi dans le 807.

    IRpro742-1.jpg

    Et quelques zooms,

    autour de 742nm, mais le filtre est plutôt calé à 744nm ... je vais vivre avec ! :) 

     

    IRpro742-2.jpg

    Ensuite jusqu'à 1µm (98% de transmission, c'est pas mal).

    IRpro742-3.jpg

    Et enfin la "fuite" en bas du visible (l'axe vertical est toujours en %), le filtre est effectivement extrêmement sombre mais pas "noir".

    IRpro742-4.jpg

     

    Ca reste du très très bon ces filtres pour imager dans l'IR, ou bien pour les (très) gros instruments pour améliorer très sensiblement la turbulence au prix d'une perte de résolution.

     

     

    Marc

     


  2. Et surtout, le rapport qualité/transportabilité est ce qui se fait de mieux pour des diamètres moyen. Moi qui part à la Palma cet été, je ne vais certainement pas prendre la 80ED (trop longue, pas assez de diamètre), ni le C8 et encore moins le C11 (raisons évidentes) mais je vais (re)prendre un mak 127. Un gros pied photo qui est de toute façon du voyage et roule ma poule. Le tube devrait rentrer dans mon (gros) sac à dos photo.

     

    Marc

     


  3. Pas de soucis ...

    J'ai eu (et je vais reprendre) un mak 127 en plus de mon C8/C11 avec lequel j'ai fait quelques clichés (ce n'était pas sa vocation première mais quand le ciel ne sourit pas aux plus gros c'est une alternative valable)

     

    mak 127, barlow Meade #140 en mode x1,6n webcam philips Vesta pro capteur monochrome.

     

    moon0711010650-0704.jpg

     

    Idem mais au foyer (un plan raté et pas de backup)

    moon0711010710-17.jpg

     

    Un régal cet instrument !

     

     

    Marc

     

    • Like 2
    • Thanks 1

  4. Le 09/01/2010 à 09:39, jp-brahic a dit :

    tiens c'est bizarre , on est pas mal à avoir eu 15 ans en 1982 wink.gif
    perso j'ai débuté l'astronomie en 1978 , avec une vénérable lunette 60/900 de " la redoute" smile.gif

     

    Tout pareil ... je l'ai encore d'ailleurs !

    En tout cas je ne m'en souviens pas vraiment de cette éclipse, peut être un problème de météo ?

     

    Marc

     

    • Like 1

  5. Pour avoir fait du visuel avec un taka epsilon, je dois dire que c'était pas transcendant quand même. l'image était nettement peu contrastée (vs un mak 127 par exemple). L'obstruction (monumentale) de 40% n'y est pas étrangère. Le RC 200/1600 a une obstruction de 47% ... je pense qu'il faut essayer.

     

    Marc

     

    • Like 1

  6. Le ser peut parfaitement sortir en 8 bits.

    Par contre l'AVI, c'est un conteneur, il faut un codec pour lui faire sortir ne serai-ce que du mono 8 bits (je l'ai eu à l'époque de ma DMK).

    "Normalement" c'est pas plus important que cela ... sauf que l'AVI apporte son lot de contraintes : limite à 2Go (avant 1996) puis 4Go actuellement.

    Du coup pour des grosses vidéos ca risque de pas le faire.

     

    En lunaire, j'ai pas franchement vu de différences entre 8 bits et 12 bits pour ma part. Pareil en planétaire/stellaire. Il n'y a guère que quelques rares cas où j'ai trouvé une quelconque utilité : il y a des années, j'ai capturé Saturne, avec une exposition calée pour Saturne, donc mag ~ 0, et j'ai trouvé mimas (mag ~13) dans le fond du ciel avec une exposition de moins de 50 ms a la sortie du post-traitement (en poussant largement les curseurs et en cramant Saturne). En 8 bits je n'y voyais rien. Mais attention, c'est plus un jeu qui permet de savoir ce que l'on gagne en dynamique, sous un ciel "moyen" (d'où l'exposition de 30 ou 50ms car je ne peux généralement pas aller plus haut chez moi). C'est un peu comme faire du HDR, on s'en lasse vite.

     

    Marc

     

    • Thanks 2

  7. Attention, le shifting c'est le fait de faire basculer le primaire quand tu change le sens de pousser/tirer le primaire. Cette opération se fait FORCEMENT avec les vis de blocage desserrées.

    Les vis de blocages ne servent QUE pour éviter un basculement du primaire (mirror flop) au moment du retournement au méridien (pour ceux qui font du CP surtout, en planétaire on passe son temps à faire la map a chaque changement de filtre de toute façon).

     

    Pour le premier cas, toujours finir la mise au point dans le même sens permet d'éviter la majorité des problèmes. Ensuite, refaire des aller/retours min/max de temps en temps pour étaler la graisse déjà présente. Enfin en dernier, regraisser (avec de la graisse épaisse) la coulisse permet de refaire le lien "gras" et limiter les bascules.

     

    Marc

    • Like 1

  8. Comment ça "faut-il" ? C'est à toi de savoir ce que tu veux faire avec.

    La caméra est capable de capture "plus" de 8 bits, c'est sur, mais est-ce que tu en a besoin ?

    Et pour en faire quoi ?

     

    En fait cela va dépendre de ton post-traitement si tu a bien suivi. En planétaire, en général tu gagnera a avoir plus d'images (en 8 bits) que plus de dynamique par image (mais moins d'images). En CP, comme tu a peu d'images (quelques dizaines/centaines contre quelques milliers/dizaines de milliers en planétaire), la dynamique compte vachement plus.

    En solaire, par contre il semble préférable d'avoir beaucoup de dynamique pour récupérer de l'information dans les ombres du H-alpha.

     

    L'ASI 533 semble résolument une caméra "CP" donc, et si ton soft de traitement le permet, capture en raw 16 bits (en réalité 14 par la caméra), au format FIT (format astro) ou PNG (format généraliste). Tu dois aussi pouvoir capturer une vidéo en FIT 16 bits (le format le permet) mais je ne pense pas que les logiciels sachent décoder ce format.

     

    Marc

     

     

     

    • Thanks 1

  9. Le 21/12/2019 à 07:34, STF8LZOS6 a dit :

    Je suis assez épaté que la double parois ait été mise en oeuvre chez celestron.

    En effet, dès 1960 il y avait aussi le couple tube/barillet collimatable, la focalisation sur 3 points à 120°, tout cela qui a disparu, sans doute à cause de la rentabilité. Mais bon la collimation (à l'époque) ça devait être coton ... expliquée sur 5 ou 6 pages contre 1 page (en écrivant gros) aujourd'hui !

     

    Le 21/12/2019 à 13:28, Bernard_Bayle a dit :

    Oui tu as raison, j'ai retrouvé  c'est bien sur le 22",  je t'ai envoyé un mess en Mp au sujet de ma doc Celestron History

    Et moi je pensait benoitement que c'était sur toutes les tailles de tubes. 

    Maintenant que je suis de retour sur Internet (je suis monté à Paris pour les vacances) je vais répondre à ton MP.

     

    Il y a 11 heures, JP-Prost a dit :

    Le problème est le même effectivement: si le tube se refroidit plus bas que l'air ambiant (et notamment l'air qui est à l'intérieur du tube), cela va déclencher des cellules de convection naturelles qui vont casser les ..... ce que vous voulez:)

    Enfin quand même un petit peu. Le but reste quand même de supprimer les courants de convection dans le tube. Pour cela, il faut que l'intérieur (y compris le baffle) et le tube soient à la même température. Peu importe que cette température soit 5 ou 10° supérieure à celle de l’extérieur. Par contre au niveau de la lame un trop gros écart sera préjudiciable.

    Alors que si un tube ouvert n'a pas forcément ce problème, mais il y en a d'autres : un souffle de vent, le rayonnement autour de l'instrument, et le miroir n'étant plus caché au fond de son tube, il voit le fond du ciel et c'est lui qui va descendre "trop bas" en température (si la région est humide, il va ruisseler) et il faudrait alors le réchauffer au risque de le déformer

     

    Marc

     


  10. Il y a 15 heures, astroespo a dit :

    Un truc pas mal aussi, c'est de la sous face de parquet flottant épaisse de 4mm avec une face aluminée. Très léger, souple, et solide.

     

    Bonne idée, et c'est peut être plus efficace que le tapis de sport ?

    Il y a aussi de très bons isolants en "couches mince" pour isoler des toits qui doivent être redoutables, mais certainement plus chers.

     

    Il y a 5 heures, STF8LZOS6 a dit :

    Mais on en viendrait presque à penser qu'il faudrait des tubes à doubles parois pour la durabilité

    C'est ce que faisait Celestron sur ses premiers modèles (avant les oranges) avec une double paroi. 

    Tu limite vachement les mouvements de convection lié au fait que le tube se retrouve bien plus froid que l'air intérieur.

    Toutefois, actuellement, c'est plus le baffle qui rayonne dans le tube, c'est la vraie galère des tubes fermés "industriels".

     

    Marc

     

    • Thanks 1

  11. Il y a 17 heures, CPI-Z a dit :

    Pourquoi du Drizze?

    La fonction merge_CFA te recombine en x1 couleur.

     

    En fait, quand tu fait un split_CFA tu retrouve une image 4x plus petite, donc si tu la traite classiquement, autant faire du super-pixel (la matrice de bayer en un pixel), tu aura le même résultat.

    Traiter en drizzle (avec le bon facteur x2) dans ce cas permet de retrouver la résolution native des photosites ... comme avec une matrice mono tel que souhaité par JLD.

     

    Marc

     

    • Like 2

  12. il y a une heure, CPI-Z a dit :

    C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

    > split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

     

    Mais c'est bien sur : split_cfa et pas split_rgb, merci CPI-Z.

     

    il y a une heure, jldauvergne a dit :

    Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp !

     

    Oui c'est pour cela qu'il faut beaucoup d'images en drizzle. D'une part pour remplir statistiquement les trous (et on ne maîtrise pas vraiment les déplacements en astro, cela se fait en photo directement depuis les capteurs montés sur des piezzos) et d'autre part car le but second sera d'améliorer le rapport S/B pour préparer au filtrage. Donc on est parti là pour accumuler des milliers (des dizaines de milliers ?) d'images. Cela ne se conçoit QUE pour de très très belles séances pour moi. Dans ces cas là, le drizzle permet de gratter un peu, mais sinon tu aura une super-résolution mais pas assez de S/B pour appliquer les ondelettes (ou tout autre filtre de contraste) sinon à ruiner le résultat.

     

    il y a 59 minutes, jldauvergne a dit :

    On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y.

     

    En fait c'est plus compliqué car si tu peux faire effectivement la séparation avant tout autre traitement, s'assurer que les décalages seront identiques (ils devraient) sur tous les flux est une gageure.

     

    il y a une heure, jldauvergne a dit :

    Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

     

    En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

     

    Là encore, c'est beaucoup de boulot qui ne se conçoit que pour nos plus belles séances.

    Dommage qu'on ne puisse pas facilement scripter tout ça car si on doit faire : la séparation CFA (IRIS), la dérotation de chaque flux (winjupos), les traitements (AS!3) la recombinaison ... même avec des grosses machines (i7 pour moi dans une tour, pas un portable), c'est beaucoup de temps !

     

    Marc

     


  13. Jean luc, le mieux ne serait il pas de revenir aux sources ?

    Sous IRIS (je connais moins ISIS mais ca doit marcher aussi), tu sépare ton flux en un tripler de flux R, G et B (commande split_rgb de mémoire). De là tu traite (en drizzle si tu veux ce serait bien) chaque plan (attention tu aura des résolutions différentes en RB et en G, donc il faudrait limiter le drizzle de la couche verte) et tu recombine le tout à la fin. Cela devrait bien donner le même résultat que le bayer drizzle et avec un peu d'analyse en déduire ce qui est fait dans d'autres softs (ou pas fait plutôt).

    Comme il est acquis qu'en couleur on a un plus grand espacement entre les photosites, le drizzle est une bonne solution pour  combler ce manque et faire ce qu'un capteur mono obtient tout naturellement.

     

    Il y a 6 heures, olivdeso a dit :

    En planétaire (que tu connais bien) on essaie justement d'échantillonner suffisamment serré pour reproduire fidèlement ce que "voit" le télescope et profiter de son pouvoir séparateur au mieux. 

    Transformer la figure d'Airy en diract, c'est un grave sous échantillonnage ou autre (filtre passe haut), en tout cas le signal de sortie n'a plus rien à voir avec l'entrée.

     

    Je comprends ce que tu dis, mais à la base, le télescope ne "voit" pas une figure d'airy, c'est le fruit de sa fonction de transfert (sinon, tous les instruments verraient la même chose) depuis le dirac. Et le dirac c'est l'asymptote de ce que tu veux obtenir non ?

    Si j'ai écrit que je transformait la figure d'airy en dirac c'est une maladresse de ma part.

     

    Marc

     

     


  14. Il y a 7 heures, brizhell a dit :

    Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

     

    Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso qui disait que cela n'existait pas dans la nature. Hors une étoile (non résolue) et à distance respectueuse de l'artefact de la figure d'airy, est assez représentative de la fonction de dirac : un fond à zéro (le ciel) et une étoile qui fournit toute son énergie sur un unique pixel du détecteur.

    C'est d'ailleurs bien pratique pour identifier les défauts d'une optique ; photographier un champ d'étoiles permet de rapidement se rendre compte de la qualité du train optique (et on a souvent des surprises).

    En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

     

    Marc


  15.  

    Il y a 3 heures, olivdeso a dit :

    Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

    Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

     

    Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

     

    C'est un dirac quoi ... ou encore une étoile (hors de notre système solaire), assez courant en astronomie non ?

    En tout cas au travers de nos instruments, cela reste des sources ponctuelles sauf a grossir suffisamment pour faire apparaître l'artefact instrumental qu'est la figure d'airy.

     

    Marc

     

    • Like 1

  16. Il y a 3 heures, polo0258 a dit :

    RGBBGR    ,je pense  la moyenne horaire se faisant sur les  bleus ! on assemble avec winjupos rr gg bb et ensuite rgb  !

     bonne journée !

     

    En effet, c'est bien ça (j'étais fatigué hier)

    En fait si on pense à la dérotation comme à une "cartographie" à plat (les deux sont liés de toute façon), avec une carte dont on composite les détails au fur et à mesure pour chaque plan de couleur, on aura une capture avec des détails "à l'est" qui se lèvent, et d'autres à l'ouest qui vont disparaître. Mais l'un dans l'autre, la date moyenne permettra d'avoir le maximum d'information aux 2 limbes.

     

    Et bien évidemment, à mettre toutes les R d'un coté, à la fin on va manquer de R "à l'est" (et inversement on risque de manquer de B à l'ouest avec une date moyenne antérieure à la première B) lors de la reconstruction et avoir des franges colorées de part et d'autre. Ce qui est galère c'est de devoir refaire le focus très très souvent. Les filtres RGB d'astronomik ont assez rigoureusement la même épaisseur mais il peut subsister la petite fraction de tour pour corriger le chromatisme longitudinal de l'instrument.

     

    Pour le coup, faire en une seule fois toutes les couches d'un coup avec une cam couleur c'est plus facile.

     

    Marc

     


  17. Il y a 8 heures, wilexpel a dit :

    je suis sur-échantillonné avec la 224C parce que justement je reprends le chemin optique identique de la 174

    Justement, comme tu sur-échantillonne avec la couleur, tu compense implicitement la perte de résolution.

     

    Il y a 8 heures, Lucien a dit :

    Quand on voit comment les bords des planètes sont souvent mal définis...

    De plus les trois films ne sont pas pris au même temps.

    Je milite depuis que la dérotation existe pour que la "date moyenne" des captures soit la plus constante possible. Donc plutôt que de faire du RRGGBB (avec des dates de captures arbitrairement de 0,1,2,3,4 et 5,  la moyenne des rouges sera de 1, différentes des vertes qui sera de 3 et des bleues de 5), il est infiniment préférable de faire RGBBGB (la date moyenne sera constante au milieu des B). Comme ça, les bords de la planète sera identiquement résolue. Mais bon c'est pas trop le sujet.

     

    il y a 58 minutes, CPI-Z a dit :

    Un échantillonnage insuffisance ne restitue pas ce qu'un télescope à dans le ventre, que la caméra soit mono ou couleur.

    Très bien dit.

     

    il y a 3 minutes, lyl a dit :

    Comme par hasard, c'est le f/D 25 de mon image lunaire avec une cam 3.75 um un peu plus haut dans le post.

    C'est un peu aussi mon cas, car avec le C11, mon montage est souvent plus proche de F/D 20 (même autour de 22 compte tenu du tirage).

     

    Marc

     


  18. Tu compense en sur-échantillonnant, donc tu change les paramètres de capture.

    Pour moi, à iso focale et si on est pas sur-échantillonné pour la monochrome, celle ci sera devant. Mathématiquement la matrice couleur est AU MIEUX 1,414 fois moins résolue (dans le vert, x2 dans les autres couleurs).

    Maintenant, si on sur-échantillonne en monochrome (mais moins que x2), c'est moins facile à trancher. La version monochrome ne va plus rien gagner, alors que la couleur va progresser. Puis si on pousse encore la focale, là on ne gagner plus rien nulle part et on a 2 images identiques (l'une en couleur bien sur).

     

    Mais attention, on doit aussi considérer que le flux est alors plus étalé "en couleur" qu'en "monochrome". De plus les µfiltres vont aussi bouffer un peu de luminosité (postulat : on capture une L en monochrome). Du coup il faut poser plus longtemps et se risquer un peu plus à la turbulence. C'est pas facile de trouver le bon équilibre pour qu'une image couleur rattrape une image monochrome.

     

    Marc

     

    • Like 3

  19. filtre 23A à la capture, c'est mon meilleur ratio flux/turbulence, puis plus rien, au pire je sélectionne le même nombre d'images a compositer des deux cotés. Sur le C11, le défocus est par contre très "touchy", et une fraction de tour de plus ou de moins change pas mal les résultats. Faut être vachement précis.

     

    Maintenant, dès qu'on change de moyen de mesure, les résultats bougent mais ce qui compte (pour un moyen amateur je veux dire), c'est d'identifier et de localiser les éventuels défauts. Maintenant la métrologie "absolue" n'est valable que pour celui qui veut bien y croire, et entre 2 interféros on a déjà des résultats différents, sauf que les 2 sont faux en réalité (c'était la maxime de mon prof de mesure, un gars super) !

     

    Marc

     

     


  20. Le 07/12/2019 à 16:44, Bernard_Bayle a dit :

    -  empilage de TOUTES les frames  (autostakkert)

    - aucun traitement (impératif), seulement empilage de toutes les images du film

     

    Comme mentionné, cela me paraît évident. Winroddier analyse les (subtiles) différences de luminosité entre intra et extra focale. Il FAUT donc avoir exactement la même dynamique et cela passe par le même nombre d'image compositées de part et d'autre.

    Ensuite l'analyse de ces images doit/peut être perturbées si on applique un filtrage quelconque, et qui dit filtrage dit généralement un rehaussement de contraste. Dit autrement, sur une coupe, on augmente les pentes entre les "creux" (sombres) et les bosses (claires). L'effet délétère va être de creuser les creux et d'élever les bosses => le différentiel intra/extra n'a alors plus aucun sens !

     

    Alors bien sur, un même défaut sera toujours présent malgré le filtrage, donc en soit (ou plutôt pour soi) cela ne change rien. Par contre quand on commence à vouloir comparer, cela va vite se transformer en récréation d'école primaire si on ne maîtrise pas la chaîne de capture ET de traitement (nombre d'itérations, taille d'image, ...). C'est pour moi la principale cause de diatribe sur les forums parlant de mesure (après quand même le sempiternel foucault vs reste du monde, cela fait penser au post APO vs reste du monde d'ailleurs).

     

    Ce faisant, on retrouve assez bien des mesures faites sur un interféromètre (dans mon cas, un 400x400 points, soit une mesure tous les 0.56 mm2 pour une taille ~300mm, rien ne lui échappe). Le PtV est retrouvé à 0,25 près, et le RMS à 1 point près (de mémoire). Sachant qu'en plus la majeure contribution au PtV est une bordure de quelques mm au bord du disque, l'instrument a été jugé "bon pour le service" (et pas qu'un peu).

    Ensuite au petit jeu de décocher les défauts le résultat va vitre grimper, mais quand on utilise l'instrument, on ne décoche rien du tout attention !

     

    Marc

     


  21. Pourquoi vous traitez vos intra/extra ?

    L'objectif n'est pas de manipuler en quoi que ce soit l'image ou le flux de la capture à mon avis.

     

    Moi, j'ai toujours fait une vidéo en intra, une autre en extra, on empile toutes (ou au moins le même nombre) les images pour chaque coté et on enfourne dans winroddier.

     

    J'ai du mal à appréhender ce que sera un PTV ou un RMS si on a triché avec les contrastes (filtrage) ou la dynamique (compositage) avant, sachant que c'est ce qu'utilise le logiciel justement pour déterminer la déformation du front d'onde !

    Si vous appliquez EXACTEMENT le même filtrage cela peut avoir un sens sur le calcul mais pas sur la représentativité ; c'est à dire que le défaut sera bien détecté tant en position qu'en intensité mais il faut oublier toute forme de comparaison en valeur avec un autre moyen de test. Les deux indiqueront les même défauts ... aux mêmes endroits voila tout !

     

     

    Marc