patry

Member
  • Content count

    3722
  • Joined

  • Last visited

  • Country

    France

Posts posted by patry


  1. Il y a 15 heures, astroespo a dit :

    Un truc pas mal aussi, c'est de la sous face de parquet flottant épaisse de 4mm avec une face aluminée. Très léger, souple, et solide.

     

    Bonne idée, et c'est peut être plus efficace que le tapis de sport ?

    Il y a aussi de très bons isolants en "couches mince" pour isoler des toits qui doivent être redoutables, mais certainement plus chers.

     

    Il y a 5 heures, STF8LZOS6 a dit :

    Mais on en viendrait presque à penser qu'il faudrait des tubes à doubles parois pour la durabilité

    C'est ce que faisait Celestron sur ses premiers modèles (avant les oranges) avec une double paroi. 

    Tu limite vachement les mouvements de convection lié au fait que le tube se retrouve bien plus froid que l'air intérieur.

    Toutefois, actuellement, c'est plus le baffle qui rayonne dans le tube, c'est la vraie galère des tubes fermés "industriels".

     

    Marc

     

    • Thanks 1

  2. Il y a 17 heures, CPI-Z a dit :

    Pourquoi du Drizze?

    La fonction merge_CFA te recombine en x1 couleur.

     

    En fait, quand tu fait un split_CFA tu retrouve une image 4x plus petite, donc si tu la traite classiquement, autant faire du super-pixel (la matrice de bayer en un pixel), tu aura le même résultat.

    Traiter en drizzle (avec le bon facteur x2) dans ce cas permet de retrouver la résolution native des photosites ... comme avec une matrice mono tel que souhaité par JLD.

     

    Marc

     

    • Like 2

  3. il y a une heure, CPI-Z a dit :

    C'est exactement ce que j'allais proposer à Jean-Luc avec IRIS

    > split_cfa [c1] [c2] [c3] [c4] ou split_cfa2 [entrée] [a] [c] [d] [nombre] pour une série

     

    Mais c'est bien sur : split_cfa et pas split_rgb, merci CPI-Z.

     

    il y a une heure, jldauvergne a dit :

    Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp !

     

    Oui c'est pour cela qu'il faut beaucoup d'images en drizzle. D'une part pour remplir statistiquement les trous (et on ne maîtrise pas vraiment les déplacements en astro, cela se fait en photo directement depuis les capteurs montés sur des piezzos) et d'autre part car le but second sera d'améliorer le rapport S/B pour préparer au filtrage. Donc on est parti là pour accumuler des milliers (des dizaines de milliers ?) d'images. Cela ne se conçoit QUE pour de très très belles séances pour moi. Dans ces cas là, le drizzle permet de gratter un peu, mais sinon tu aura une super-résolution mais pas assez de S/B pour appliquer les ondelettes (ou tout autre filtre de contraste) sinon à ruiner le résultat.

     

    il y a 59 minutes, jldauvergne a dit :

    On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y.

     

    En fait c'est plus compliqué car si tu peux faire effectivement la séparation avant tout autre traitement, s'assurer que les décalages seront identiques (ils devraient) sur tous les flux est une gageure.

     

    il y a une heure, jldauvergne a dit :

    Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. 

     

    En effet, mais rien n'empêche de faire la séparation et de faire traiter chaque plan par AS!3 (en espérant que les décalages seront identiques, ou, si l'on est optimiste, de dire qu'on optimise le morphing par couche) pour recombiner le tout à la fin ?

     

    Là encore, c'est beaucoup de boulot qui ne se conçoit que pour nos plus belles séances.

    Dommage qu'on ne puisse pas facilement scripter tout ça car si on doit faire : la séparation CFA (IRIS), la dérotation de chaque flux (winjupos), les traitements (AS!3) la recombinaison ... même avec des grosses machines (i7 pour moi dans une tour, pas un portable), c'est beaucoup de temps !

     

    Marc

     


  4. Jean luc, le mieux ne serait il pas de revenir aux sources ?

    Sous IRIS (je connais moins ISIS mais ca doit marcher aussi), tu sépare ton flux en un tripler de flux R, G et B (commande split_rgb de mémoire). De là tu traite (en drizzle si tu veux ce serait bien) chaque plan (attention tu aura des résolutions différentes en RB et en G, donc il faudrait limiter le drizzle de la couche verte) et tu recombine le tout à la fin. Cela devrait bien donner le même résultat que le bayer drizzle et avec un peu d'analyse en déduire ce qui est fait dans d'autres softs (ou pas fait plutôt).

    Comme il est acquis qu'en couleur on a un plus grand espacement entre les photosites, le drizzle est une bonne solution pour  combler ce manque et faire ce qu'un capteur mono obtient tout naturellement.

     

    Il y a 6 heures, olivdeso a dit :

    En planétaire (que tu connais bien) on essaie justement d'échantillonner suffisamment serré pour reproduire fidèlement ce que "voit" le télescope et profiter de son pouvoir séparateur au mieux. 

    Transformer la figure d'Airy en diract, c'est un grave sous échantillonnage ou autre (filtre passe haut), en tout cas le signal de sortie n'a plus rien à voir avec l'entrée.

     

    Je comprends ce que tu dis, mais à la base, le télescope ne "voit" pas une figure d'airy, c'est le fruit de sa fonction de transfert (sinon, tous les instruments verraient la même chose) depuis le dirac. Et le dirac c'est l'asymptote de ce que tu veux obtenir non ?

    Si j'ai écrit que je transformait la figure d'airy en dirac c'est une maladresse de ma part.

     

    Marc

     

     


  5. Il y a 7 heures, brizhell a dit :

    Des oscillations de Gibbs sur la numérisation d'un dirac. Waow !

     

    Je parlait de la source impulsionnelle représentative d'une étoile ponctuelle en réponse à olivedeso qui disait que cela n'existait pas dans la nature. Hors une étoile (non résolue) et à distance respectueuse de l'artefact de la figure d'airy, est assez représentative de la fonction de dirac : un fond à zéro (le ciel) et une étoile qui fournit toute son énergie sur un unique pixel du détecteur.

    C'est d'ailleurs bien pratique pour identifier les défauts d'une optique ; photographier un champ d'étoiles permet de rapidement se rendre compte de la qualité du train optique (et on a souvent des surprises).

    En grossissant, le premier anneau (airy) visible sur la simulation n'est lié qu'à la pupille d'entrée de l'instrument. Avec une pupille de forme différente, la figure aura une forme également différente (c'est donc bien un artefact instrumental).

     

    Marc


  6.  

    Il y a 3 heures, olivdeso a dit :

    Là tu reproduis un signal qui passe de 0 à 100% en 1 pixel.Donc un carré.

    Spectralement ça donne des harmoniques à l'infini, ce qui évidemment est impossible dans la vraie vie. i.e. le signal reconstruit n'est pas représentatif d'une réalité.

     

    Il faut donc couper ces harmoniques en sortie pour reproduire la même pente de montée qu'en entrée.

     

    C'est un dirac quoi ... ou encore une étoile (hors de notre système solaire), assez courant en astronomie non ?

    En tout cas au travers de nos instruments, cela reste des sources ponctuelles sauf a grossir suffisamment pour faire apparaître l'artefact instrumental qu'est la figure d'airy.

     

    Marc

     

    • Like 1

  7. Il y a 3 heures, polo0258 a dit :

    RGBBGR    ,je pense  la moyenne horaire se faisant sur les  bleus ! on assemble avec winjupos rr gg bb et ensuite rgb  !

     bonne journée !

     

    En effet, c'est bien ça (j'étais fatigué hier)

    En fait si on pense à la dérotation comme à une "cartographie" à plat (les deux sont liés de toute façon), avec une carte dont on composite les détails au fur et à mesure pour chaque plan de couleur, on aura une capture avec des détails "à l'est" qui se lèvent, et d'autres à l'ouest qui vont disparaître. Mais l'un dans l'autre, la date moyenne permettra d'avoir le maximum d'information aux 2 limbes.

     

    Et bien évidemment, à mettre toutes les R d'un coté, à la fin on va manquer de R "à l'est" (et inversement on risque de manquer de B à l'ouest avec une date moyenne antérieure à la première B) lors de la reconstruction et avoir des franges colorées de part et d'autre. Ce qui est galère c'est de devoir refaire le focus très très souvent. Les filtres RGB d'astronomik ont assez rigoureusement la même épaisseur mais il peut subsister la petite fraction de tour pour corriger le chromatisme longitudinal de l'instrument.

     

    Pour le coup, faire en une seule fois toutes les couches d'un coup avec une cam couleur c'est plus facile.

     

    Marc

     


  8. Il y a 8 heures, wilexpel a dit :

    je suis sur-échantillonné avec la 224C parce que justement je reprends le chemin optique identique de la 174

    Justement, comme tu sur-échantillonne avec la couleur, tu compense implicitement la perte de résolution.

     

    Il y a 8 heures, Lucien a dit :

    Quand on voit comment les bords des planètes sont souvent mal définis...

    De plus les trois films ne sont pas pris au même temps.

    Je milite depuis que la dérotation existe pour que la "date moyenne" des captures soit la plus constante possible. Donc plutôt que de faire du RRGGBB (avec des dates de captures arbitrairement de 0,1,2,3,4 et 5,  la moyenne des rouges sera de 1, différentes des vertes qui sera de 3 et des bleues de 5), il est infiniment préférable de faire RGBBGB (la date moyenne sera constante au milieu des B). Comme ça, les bords de la planète sera identiquement résolue. Mais bon c'est pas trop le sujet.

     

    il y a 58 minutes, CPI-Z a dit :

    Un échantillonnage insuffisance ne restitue pas ce qu'un télescope à dans le ventre, que la caméra soit mono ou couleur.

    Très bien dit.

     

    il y a 3 minutes, lyl a dit :

    Comme par hasard, c'est le f/D 25 de mon image lunaire avec une cam 3.75 um un peu plus haut dans le post.

    C'est un peu aussi mon cas, car avec le C11, mon montage est souvent plus proche de F/D 20 (même autour de 22 compte tenu du tirage).

     

    Marc

     


  9. Tu compense en sur-échantillonnant, donc tu change les paramètres de capture.

    Pour moi, à iso focale et si on est pas sur-échantillonné pour la monochrome, celle ci sera devant. Mathématiquement la matrice couleur est AU MIEUX 1,414 fois moins résolue (dans le vert, x2 dans les autres couleurs).

    Maintenant, si on sur-échantillonne en monochrome (mais moins que x2), c'est moins facile à trancher. La version monochrome ne va plus rien gagner, alors que la couleur va progresser. Puis si on pousse encore la focale, là on ne gagner plus rien nulle part et on a 2 images identiques (l'une en couleur bien sur).

     

    Mais attention, on doit aussi considérer que le flux est alors plus étalé "en couleur" qu'en "monochrome". De plus les µfiltres vont aussi bouffer un peu de luminosité (postulat : on capture une L en monochrome). Du coup il faut poser plus longtemps et se risquer un peu plus à la turbulence. C'est pas facile de trouver le bon équilibre pour qu'une image couleur rattrape une image monochrome.

     

    Marc

     

    • Like 3

  10. filtre 23A à la capture, c'est mon meilleur ratio flux/turbulence, puis plus rien, au pire je sélectionne le même nombre d'images a compositer des deux cotés. Sur le C11, le défocus est par contre très "touchy", et une fraction de tour de plus ou de moins change pas mal les résultats. Faut être vachement précis.

     

    Maintenant, dès qu'on change de moyen de mesure, les résultats bougent mais ce qui compte (pour un moyen amateur je veux dire), c'est d'identifier et de localiser les éventuels défauts. Maintenant la métrologie "absolue" n'est valable que pour celui qui veut bien y croire, et entre 2 interféros on a déjà des résultats différents, sauf que les 2 sont faux en réalité (c'était la maxime de mon prof de mesure, un gars super) !

     

    Marc

     

     


  11. Le 07/12/2019 à 16:44, Bernard_Bayle a dit :

    -  empilage de TOUTES les frames  (autostakkert)

    - aucun traitement (impératif), seulement empilage de toutes les images du film

     

    Comme mentionné, cela me paraît évident. Winroddier analyse les (subtiles) différences de luminosité entre intra et extra focale. Il FAUT donc avoir exactement la même dynamique et cela passe par le même nombre d'image compositées de part et d'autre.

    Ensuite l'analyse de ces images doit/peut être perturbées si on applique un filtrage quelconque, et qui dit filtrage dit généralement un rehaussement de contraste. Dit autrement, sur une coupe, on augmente les pentes entre les "creux" (sombres) et les bosses (claires). L'effet délétère va être de creuser les creux et d'élever les bosses => le différentiel intra/extra n'a alors plus aucun sens !

     

    Alors bien sur, un même défaut sera toujours présent malgré le filtrage, donc en soit (ou plutôt pour soi) cela ne change rien. Par contre quand on commence à vouloir comparer, cela va vite se transformer en récréation d'école primaire si on ne maîtrise pas la chaîne de capture ET de traitement (nombre d'itérations, taille d'image, ...). C'est pour moi la principale cause de diatribe sur les forums parlant de mesure (après quand même le sempiternel foucault vs reste du monde, cela fait penser au post APO vs reste du monde d'ailleurs).

     

    Ce faisant, on retrouve assez bien des mesures faites sur un interféromètre (dans mon cas, un 400x400 points, soit une mesure tous les 0.56 mm2 pour une taille ~300mm, rien ne lui échappe). Le PtV est retrouvé à 0,25 près, et le RMS à 1 point près (de mémoire). Sachant qu'en plus la majeure contribution au PtV est une bordure de quelques mm au bord du disque, l'instrument a été jugé "bon pour le service" (et pas qu'un peu).

    Ensuite au petit jeu de décocher les défauts le résultat va vitre grimper, mais quand on utilise l'instrument, on ne décoche rien du tout attention !

     

    Marc

     


  12. Pourquoi vous traitez vos intra/extra ?

    L'objectif n'est pas de manipuler en quoi que ce soit l'image ou le flux de la capture à mon avis.

     

    Moi, j'ai toujours fait une vidéo en intra, une autre en extra, on empile toutes (ou au moins le même nombre) les images pour chaque coté et on enfourne dans winroddier.

     

    J'ai du mal à appréhender ce que sera un PTV ou un RMS si on a triché avec les contrastes (filtrage) ou la dynamique (compositage) avant, sachant que c'est ce qu'utilise le logiciel justement pour déterminer la déformation du front d'onde !

    Si vous appliquez EXACTEMENT le même filtrage cela peut avoir un sens sur le calcul mais pas sur la représentativité ; c'est à dire que le défaut sera bien détecté tant en position qu'en intensité mais il faut oublier toute forme de comparaison en valeur avec un autre moyen de test. Les deux indiqueront les même défauts ... aux mêmes endroits voila tout !

     

     

    Marc

     

     

     

     


  13. Il y a 10 heures, dfremond a dit :

    Ma petite experience m'a montré que ça variait beaucoup, meme si ma préférence va souvent à l'IR 742 d'astronomik.

     

    En effet, c'est celui qui a le meilleur ratio transmission vs réduction de la turbulence malgré une perte sensible de la résolution. Mais bon, c'est non plus tous les jours qu'on utilise un 300 mm à sa pleine résolution.

     

    Marc

     


  14. Jijil> c'est le truc le plus génial que j'ai vu en impression 3D : un cadran solaire à projection alphanumérique. En plus l'explication du mode de fonctionnement (ca traîne sur le tube) est très bien faite. Cela fait des années que je l'ai vu mais j'ai jamais franchi le pas pour le faire faire !

    Par contre un joli cadran solaire calculé pour ma maison, j'y pense depuis quelque temps maintenant.

     

    Marc

     

     


  15. 14% c'est il me semble le rapport des flux par rapport à une transmission dans le visible, sans filtre. Donc sans B ni V et pas non plus la totalité du rouge. Ca laisse pas beaucoup. Mais c'est un rendu qui sera différent dans une caméra qui ne dispose pas d'un rendement "humain".

     

     

    Marc

     


  16. C'est pour faire quoi exactement ?

     

    En son temps j'ai eu besoin de figer la turbulence (donc plutôt une longueur d'onde élevée) au C11 et tant pis pour la perte de résolution.

    J'avais hésité entre le 23A et le 25 mais j'ai finalement pris le 23A qui laisse passer sensiblement plus de flux (caméra monochrome, à l'époque une DMK21).

    La turbulence est incomparablement mieux maîtrisée qu'avec un L pour finalement une exposition identique (temps expo, gain, merci à la transmission dans l'IR) et au final les images sont bien meilleures.

    Avec un 25, tu figera un peu plus la turbulence (un poil plus) pour une transmission moindre (sensiblement).

    Par contre sur certaines planètes, le contraste est un peu inférieur avec le 23A ... tout est affaire de compromis !

    Pour réellement améliorer la turbulence (indispensable pour les instruments de plus de 400mm à mon avis) il faut passe à l'IR752 ou IR806, mais l'exposition prend cher avec les caméras actuelles bien plus calées sur le vert que le rouge.

     

    Mais pour le prix (à l'époque en tout cas) de mon Lumicon 23A, le recul me donne pleine satisfaction.

    C'est pour monter sur quelle instrumentation ?

     

     

    Marc

     

    • Thanks 1

  17. Concernant la partition de recovery, pour le moment, c'est un moyen de revenir en arrière dans le cas où l'installation ne fonctionnerait pas correctement.

    Si tout marche bien (comprendre au bout de quelques semaines d'usage) tu pourra effacer cette partition et le mieux sera d'utiliser l'outil de nettoyage de disque de windows pour cela.

    Comme l'a dit sky runner, tu ne manque pas de place, donc tu n'est pas non plus pressé non ?

     

    Marc

     

    • Like 1

  18. Il y a 2 heures, Cédric Perrouriefh a dit :

    Je m'explique : je connais très bien le Panoptic 41, que j'utilise régulièrement sur un C14. Je n'ai par contre jamais essayé le XW 40, mais d'autres XW qui frisaient tous la perfection attendue d'un oculaire, de plus la réputation des XW 40 est aussi bonne que celle de tout le reste de la gamme.

     

    Tu n'est pas gêné par la distorsion du panoptique ?

    Je l'ai essayé sur le C11 en visant la lune et j'ai eu beaucoup de mal à la conserver ronde. En fait dès que sélène n'est plus pile poil centrée, elle devient vite patatoïde (c'est assez horrible à mes yeux).

    Par contre en ciel profond (comprendre là où on se fout de conserver les angles entre les étoiles) cela devient un oculaire au top avec le champ très propre presque jusqu'au bord.

    Très très bon.

     

    Je ne connais pas le Pentax, il a très bonne presse également.

     

    Marc

     


  19. Question pour lyl:

     

    Dans le spot diagramme, tous les spots ne sont pas inscrits dans le cercle imaginaire de la tache de diffraction (pour le diamètre, dessiné en noir) y compris "on focus".

    Est-ce qu'il serait juste alors de dire que cela correspondrait à un instrument parfait (en tout cas sur la plage 470~650nm) mais de diamètre inférieur (i.e. avec une tache de diffraction plus grosse) ?

    Et avec une tache 20% plus grosse (à la louche), cela correspond à un instrument 20% plus petit (de mémoire la tache de diffraction évolue à la même puissance que le rayon). D'où l'importance de filtrer (+focus) pour faire de la HR  en RGB ? Mais en "L" ce sera compliqué.

     

    Par contre je suis impressionné par le fait que le spot diagramme évolue peu sur le champ !

     

     

    Marc