jldauvergne

Member
  • Content count

    12605
  • Joined

  • Last visited

  • Days Won

    13
  • Country

    France

Everything posted by jldauvergne

  1. Oculaires planétaires

    j'ai regardé vite fait avant hier dans une 72/430 ED. Tu as raison c'est fort en bord de champ, mais sur la lunette ça jouait vraiment sur une faible partie du champ. Reste à voir ce que ça dit sur le µ250. A relativiser toutefois dans la mesure où dans l'absolu sur le Mewlon ce qui s'exprime très vite aussi c'est la coma. Quoi qu'il en soit le but 1er ça reste les planètes, donc je suis plus surpris par le défaut que déçu.
  2. Oculaires planétaires

    Oui il faut voir d'où elle vient. Dans la mesure où je vais rentrer à f/24 dedans il y a peut de chance que j'ai ce genre de problème. L'oculaire il y a peut de chance qu'il ait intrinsèquement une forte courbure de champ. De plus mon œil est encore souple (même si je commence à perdre, grrrrrr) et puis mes cibles vont le plus souvent n'occuper que quelques degrés dans ce champ. Bref je n'ai pas testé, mais si il y a bien l'ADN d'un Pentax je ne m'attends pas à être déçu. Sinon je devrais envisager le Delite mais c'est plus cher.
  3. Oculaires planétaires

    Par curiosité tu utilises quoi en 32 mm ? Je me posais la question pour moi ayant la même problématique. Après pas mal de recherches j'en étais venu à la conclusion que les Explore Scientific à faible champ étaient peut être une bonne solution, mais je ne les ai pas testé. Chez moi c'est pire que chez toi encore puisque le montage est à base de powermate 2,5x. Pour le moment j'ai les 2, 20 mm d'origine WO, et 2 jolis SWA serie 4000 old school made in Japan de chez Meade. J'ai eu la chance d'en trouver 2 dans les PA. Mais en longue focale pour rester en 31,75 d'un côté et conserver de la qualité de l'autre, ce n'est vraiment pas simple. J'ai enfin mon 2e ADC pour avoir 2 montage fixes suite à une ancienne discussion que l'on avait eu. C'est bô, c'est propre La question pour les 24 m'intéresse aussi. Il faut attendre les beaux jours et le retour des planètes pour que je teste un peu plus ma config bino pour voir mes besoins. Après à la différence de toi, mon usage premier c'est l'imagerie. Donc pas mal d'utilisation en monoculaire au milieu d'un changement de caméra. Je viens de prendre le petit Pentax XF 12 en 60° de champ pour ça. Pas cher en plus même en neuf, cette gamme est un bon plan pour les planéteux, mais il n'y a qu'un 12 et un 8,5 mm (plus un zoom 6.5-19, mais il est à part, plus cher et conception forcément un peu différente).
  4. Oui O et V reste le référent sur Losmandy avec une longue expérience. Vu le poids de cette monture c est sidérant qu'elle se soit couchée. J'espère que le support n'est pas trop tordu.
  5. Oui l'étanchéité à l'hélium est très difficile à faire à cause de la petite taille des atomes. D'où les systèmes de valve sur les montres de plonger. Les pros qui vont en très grande profondeur partent d'un environnement sous pression d'hélium, et le gaz rentre dans les montres. Sans la valve elle se retrouverait en surface avec un Delta de pression pas désirable.
  6. Mise au point sur Lune

    Déjà de base je n'ai jamais compris l’intérêt de ce masque, en ccd une mesure de la fwhm est très efficace. Avec un APN en zoomant à fond sur le live view on voit très bien quand c'est net et quand ça ne l'est pas. Mais toutes ces méthodes -bahtinov y compris- sont propres au ciel profond, lorsque l'image n'est pas dominée par la turbulence. Pour revenir à la question initiale, sur la Lune il y a du contraste, ce n'est pas si compliqué de voir si on est bon ou pas. C'est plus difficile sur Uranus, Neptune ou Jupiter en CH4. JLUc
  7. Besoin avis/conseils achat Mak

    En diamètre autour de 100 mm je trouve qu'une lunette est vraiment préférable, une classique 80 mm par exemple. Mais par rapport à tes envies dans l'absolu le 127 me semble nettement préférable. Pour la réduction n'attend pas de miracle, le champ de pleine lumière est très petit sur un mak. Même au f/d natif le capteur du 7S est trop grand à priori. Si tu cherches de la polyvalence (mais avec pas mal de désavantages par ailleurs), il faut plutôt aller sur du SC, ou du maksutov Rumak (donc en occasion). Le problème c'est qu'un Alter M603 ça fait plus de 3 kg.
  8. Mise au point sur Lune

    Il faut voir sur quel instrument c'est. Une astuce à 3 balles au sens propre que j'utilisais avec mon Mewlon 210 c'est de mettre une grosse pince sur la molette de mise au point. Genre pince de bec bunsen pour vous rappeler vos souvenir de lycée. Ca démultiplie la mise au point et ça permet de l'actionner du bout des doigts en faisant à peine vibrer le télescope. C'était sur un Cassegrain (DK) avec déplacement du primaire, mais ça doit fonctionner sur un Newton ou autre formule optique. Autre principe que j'applique tout le temps, c'est refaire régulièrement la mise au point. Si mal chance elle n'est pas bonne, elle le sera peut être lors de l'ajustement suivant. Autre remarque en passant, la mise au point est d'autant plus franche que l'optique est bonne. L'optique on a ce que l'on a, on ne choisit pas, mais au minimum il faut soigner au plus haut degré la mise au point. Et pour moi le plus haut degré c'est faire une image d'étoiles et vérifier que l'anneau fasse bien le tour. Simplement en visuel l’œil a une réponse log et il a du mal à voir le problème quand l'anneau fait le tour mais qu'il est plus lumineux d'un côté que de l'autre. Bien entendu motoriser sa mise au point est un très gros plus. Je n'ai jamais mis de comparateur comme @Thierry Legault, mais il a raison. Dans mon cas ça ne m'intéresse pas sur mon télescope actuel car le secondaire est motorisé et ça fonctionne très bien, mais un comparateur ou un codeur qui fonctionne bien c'est clair que c'est une aide très précieuse.
  9. Hello Christophe De La Chapelle vient de publier une vidéo sur les caméras n&b vs couleur. En bossant dessus ça a ouvert pas mal de discussion entre nous pour amender le contenu par rapport à la version initiale. La discussion portait principalement sur la perte de résolution d'une caméra couleur par rapport à une caméra n&b (à échantillonnage égal bien entendu). , Souvent les gens pensent que l'on perd un facteur 2 de résolution. En réalité tout dépend si on considère la couche luminance ou chrominance, et tout dépend avec quel algo ces couches sont générées. Toujours est-il qu'il est admis dans la littérature que la perte est de l'ordre de 30% et non pas 50%. Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot. Une fois que l'on composite j'ai tendance à me dire qu'avec la turbu et les dérives de la monture, chaque détail est tantôt en face d'un pixel R, un pixel B, un pixel V. Et intuitivement j'ai l'impression que du coup, on n'a pas forcément une grosse perte de détail par rapport à une matrice monochrome. A moins que l'alignement se fasse après dématrissage et que le dématrissage induise forcément une perte irréversible ? On a une perte de dynamique en revanche et la dynamique participe à la résolution, mais en même temps si on veut l'info couleur avec le capteur monochrome il faudra bien filtrer, donc pas soucis de simplification mettons de côté cette question de la dynamique, la question de base est déjà assez compliquée je pense On suppose donc que l'on est à dynamique identique sur les deux matrices. Je ne sais pas ce que ça inspire aux cadors du domaine @Marc Delcroix, @Christophe Pellier, @cbuil @JPProst, @christian viladrich, @Thierry Legault Je mets la vidéo en lien pour ceux qui veulent voir :
  10. réparation

    non, en tout cas pas dans l'équipement de dotation de l'observatoire.
  11. Présentation alaindumercantour

    bienvenu.
  12. réparation

    Je ne connaissais même pas cette monture, c'est une pièce rare. Après tu ne prends aucun risque à priori à essayer un sens puis l'autre et tu vois ce qui fait tourner la monture comme il faut. Tu as même une chance sur 2 d'avoir bon du 1er coup c'est encourageant
  13. Dans la zone 4x4 pixels avec un seul pixel sensible à notre filtre, le signal est différent selon le coin du carré où on se trouve, en ça c'est très différent d'un binning 2x2. Si tu prends un exemple extrême avec un système sous échantillonné visant des étoiles par exemple. Une étoile donné sera visible sur certaines trames et pas sur d'autres. Tu auras aussi tout un cas de cas intermédiaires avec l'étoiles à cheval du pixel sensible avec le signal partagé avec le pixel d'à côté, ... où il n'y a pas de récepteur. Photométriquement c'est la cata, et même astrométriquement calculer le baycentre à partir de ça, ça me semble hasardeux. Donc faire du drizzle à partir de cette info de mauvaise qualité, est ce que ça peut vraiment donner quelque chose de bon ? Intuitivement j'ai l'impression que faire ça, c'est assez analogue à faire du drizzle à partir d'un dématrissage classique. Le drizzle fonctionne fonctionne parce que lorsqu'une étoile est à cheval sur 2 pixels tu le détectes, tu as bien une réponse des deux pixels, et c'est bien ce qui permet de déduire ce qui se passe à l'échelle sub-pixel. Tu m'as peut être mal compris, je ne parle pas de débayerisé dans ce cas. Je parle d'une couche bleue basée sur l'image CFA sur laquelle on passe à 0 rouge et vert. La planète se déplace, donc l'information réelle de ce qui se passe dans tes trous tu finis par l'avoir vraiment, tu bouches les trous avec la vraie information au fur et à mesure. Sur le papier c'est simple et c'est propre, on génère bien une image à l'échelle x1 avec la vraie information de cette échelle. Dans la pratique sur des images de ciel profond j'ai l'impression que c'est ce que fait PixInsight, mais en planétaire c'est plus compliqué à appliquer à cause de la turbu (et concrètement du manque de logiciel approprié).
  14. Si seulement il y avait la sensibilité et le bruit de lecture qui va avec La vraie caméra "badass" ce serait plutôt une tri-cmos à base d'imx290 Avec le prix des capteurs qui diminue, le retour au tri capteur mériterait d'être considéré. On a eu d'abord du tri-ccd car les capteur étaient tellement mauvais que c'était un gros levier d'amélioration. La solution reste quand même difficile en terme de tirage, on a déjà du mal à intégrer proprement les ADC et les roues à filtres, ... En partant de f/12 en ce qui me concerne j'ai cherché les caméras qui ont le moins de tirage. Altair pour l'imx224 et ZWO mini pour le 290. Et puis en vrai perso je n'ai pas de problématique, la stratégie de séquence de prise de vue IMX224 puis IMX290 puis de nouveau IMX 224 fonctionne très bien et permet de profiter du meilleur des 2 mondes entre capteur couleur et monochrome. Vive Winjupos, quel bonheur ce soft !
  15. Je viens de regarder, je n'avais pas pigé qu'il réduit la taille des images avec la fonction split. Donc si on fait ça, derrière il faut repartir sur une stratégie de Drizzle classique. Il y a quand même le problème du barycentre sensible qui bouge dans le pixel d'une image à l'autre, ça renvient à avoir les caractéristiques du pixel qui changent d'une image à l'autre. Intuitivement j'ai l'impression que ça peut poser problème. C'est pour ça que je pense que la meilleure stratégie c'est de rester à l'échelle 1 avec des trous à combler. Mais ce que tu dis serait à tester dans tous les cas. En tout cas comme dit @patry ça peut difficilement rentrer dans une production de flux. Sur une bonne nuit on a 50 Go, on arrive à bout de cette pile uniquement par l'automatisation (mais on revient parfois s'acharner sur quelques vidéos en particulier pour en sortir la quintessence).
  16. Oui c'est ce que décrit Philippe plus haut et que j'ai vu ailleurs, le fichier d'alignement est issu d'une analyse des images dématricées à l'ancienne. En ciel profond c'est relativement simple c'est une série de x,y, en planétaire avec la turbu c'est plus poilu.
  17. Je comprends bien oui, mais la difficulté, c'est qu'il ne s'agit pas uniquement d'isoler les couches, il faut aussi pouvoir les corréler aux bonne actions d'alignement que tu ne peux calculer (il me semble) que sur des images issues d'un dématrissage classique. Chose peut être possible dans Iris tellement c'est une boîte à outils, mais impossible dans AS3 qui est une boîte noire (sans connotation péjorative de ma part).
  18. On peut jouer avec IRIS, mais ça suppose d'avoir fait une première passe de traitement classique avec debayerisation pour mesurer les décalage x, y. Ce qui me freine à faire un test comme ça c'est qu'il y aura peut être un succès d'estime, mais ce test ne tiendra pas compte du morphing lié à la turbu. Là dessus AS3 reste invaincu. Après ce qui m'importait avec ce fil c'est d'avoir une réponse à la question, c'est juste de la curiosité intellectuelle. Ce que je retiens c'est qu'en débayerisation classique on a bien perte de résolution même après stacking. Pour contourner ça la seule solution serait que AS3 implémente une fonction de Bayer Drizzle, ce que l'on peut souffler à Emil (ceci dit si quelqu'un a une documentation de la fonction pour être certain de son fonctionnement ce serait intéressant). Après à titre perso, perdre en résolution avec ma caméra couleur franchement ça m'importe peu vu que je ne mise pas sur elle pour sortir les plus fins détails. Et quand bien même si on pouvait utiliser ces caméras couleur sans perte de résolution je continuerais à faire du N&B pour la cadence de prise de vue et les images spéciales (UV, CH4, IR, etc).
  19. Je ne pense pas vu que ce n'est pas le même algo. Enfin j'ai l'impression. Moi ce que j'imagine du fonctionnement du Bayer Drizzle c'est que tu prends l'info là où elle est quand tu l'as. La première photo de ton stack B par exemple, c'est une image à trou avec 1/4 des pixels renseignés, et la suivante si la planète s'est décalée de 1 pixel par exemple, tu as l'infos du pixel d’à côté. Au bout de 4 images stackées si on s'est déplacé à chaque fois d'un pixel pour couvrir le carré 2x2, on a l'info B complète sans bricolage à l'échelle 1 pixel par photosite. Là où c'est peu efficace en bruit c'est qu'il faut au moins 4 photos pour reconstruire une couche. Donc si on veut améliorer le bruit x2 il faut 16 photos au lieu de 4 habituellement, gasp ! Au contraire, une débayerisation classique nous donne la couche B immédiatement mais peu résolue. En suivant ta logique, on partirait d'une image B par exemple interpolée, avec donc une information partiellement inventée (de façon intelligente, mais inventée). Intuitivement ça ne me semble pas saint de partir de là. Ce qui pourrait marcher peut être pour les B et R, c'est faire une réduction 2x2 sans aucune interpolation, juste en créant une image dans laquelle les pixels V et R on été supprimés. Faire du Drizzle classique là dessus ça fonctionne peut être (mais je ne suis pas certain vu que le barycentre du photosite bouge d'une image à l'autre, c'est donc potentiellement merdique). Le problème de cette stratégie c'est quand tu arrives à la couche verte, il n'y a pas vraiment de moyen de réduire l'image sans la bricoler, un binning 2x2 contraint à faire la moyenne des 2 pixels verts, est ce que l'on ne perd pas bêtement de l'information spatiale ? Enfin tout ça pour dire que le Bayer Drizzle est à mon avis plus dans la logique de ce que je décris. Sa faiblesse c'est que les couche B et R sont forcément très bruitées par rapport à V. Mais une fois que l'on a cette info là il y a moyen d'optimiser l'image en synthétisant un L dans laquelle le poids de B et R est minoré par rapport à V.
  20. Ce qui n'est pas loin de la règle que tu donnes augmentée de 30% de perte sur la matrice de bayer. On obtient en suivant cette logique f/25. Je suis proche de cette valeur f/24 et je peux affirmer que c'est insuffisant les bons soirs, ça recoupe ce que tu dis, à f/28. Du coup il faut suivre cette logique comme règle de base et on peut se dire que l'on ajoute 10% de marge qui ne seront pas de trop les bons soirs et si on sait que l'on a une très bonne optique. Sur mon montage je reste un peu au dessus de ça dans la pratique avec e=L/16d à 400 nm. Mais bon, c'est aussi un compromis entre les deux capteurs que j'utilise d'une part, les contraintes du montage avec ADC, et d'autre part en grand fou je vise plutôt L=350 nm (dans la pratique je sais que je n'ai pas encore réussi à franchir le mur des 400 nm en résolution mais je ne m'avoue pas vaincu ). Je ne vais pas changer de montage en tout cas, en début de train optique il y a la barlow Clavé qu'utilisait notre très regretté Gérard dans les années 90.
  21. Conversion par lot d'images APN Raw en fit noir et bllanc

    c'est pas hyper compliqué, faudrait que je t'explique si tu patauges.
  22. Conversion par lot d'images APN Raw en fit noir et bllanc

    http://www.astrosurf.com/lecureuil/traitement Iris.pdf
  23. Conversion par lot d'images APN Raw en fit noir et bllanc

    Oui il fait ça et très bien