patry

Member
  • Content count

    4414
  • Joined

  • Last visited

  • Country

    France

Everything posted by patry

  1. J'ai récupéré avec un C8 un Orthoscopique Celestron. 7mm qui me donne x285 et je peux te dire qu'il me semble meilleur (sur des étoiles doubles) que mon Celestron PL 10mm. 36 Boo est vue à x285 (une petite pétouille bleue perdue dans les anneaux de diffraction de la principale. Avec une barlow x2 (modèle Meade #140), donc à x570 c'est très facile à voir ... dans les trous de turbulence.Par contre, je ne sais pas si cela se fait encore, comme c'est la course aux oculaires très grand champ, se contenter de moins de 50° de champ semble une hérésie en ce moment.
  2. C'est l'inverse pour moi !Ne disposant pas de webcam "pose longue", la méthode des aigrettes ne fonctionne pas (difficile de voir une aigrette digne de ce nom, même sur véga à 1/6e de seconde). Par contre, avec un disque de hartman (ok ok, un disque opaque percé de quelques - entre 2 et 3 - trous) on voit très bien trois (dans mon cas, avec trois trous) taches d'airy formée et qui se confondent en une seule la MAP faite ! Ca marche à plus de 10i/s et 1/50e de seconde sur des étoile brillantes ! En diminuant encore l'exposition, le capteur n'est plus saturé par l'étoile et elle surgit d'un coup ! Ca prends moins de 30" et le plus long consiste à repointer "en aveugle" (avec un oculaire sans changer la MAP, donc tout flou) l'objet voulu. Pour le planétaire je n'ai rien trouvé de mieux, sauf d'ajouter une pince à linge sur le bouton de MAP de mon C8 pour un réglage plus doux encore !
  3. Repérer Dumbell (M 27)

    C'est quand même plus simple effectivement de partir de la flèche, et, sans toucher à l'axe AD, de remonter lentement (mais franchement quand même) pour tomber sur M27.Sur mon C8, c'est ce que je fait et elle est dans le champ systématiquement (un peu excentré mais dedans) avec un simple PL32 de 50° (soit, avec un grossissement x62 un champ de 0,8°). De plus, si elle est beaucoup plus grande que M57, elle est aussi plus ténue mais on ne peut pas la confondre.A essayer avec un 25~30mm sur un 115 ca va être facile !
  4. Poids et prix d'un tube C8

    Tu veux parler de l'oncle ROD sans doute ? http://skywatch.brainiac.com/sct-user/usedSCT.PDF C'est un concentré de l'historique des SC depuis le prédécesseur du C8 orange (oui oui, Celestron faisait du SC AVANT le célebrissime "Orange"). Les Meade, Taka sont passés en revue, les modèles à chercher, et les modèles à fuir ! Les montures, leur caractéristiques, les battailles commerciales. Très bonne lecture.
  5. Poids et prix d'un tube C8

    Il me faudrait démonter ma fourche mais mon C8 orange, avec sa fourche complète (fourche avec moteur en AD donc) pèse 9kg. Son grand frère, toujours en version 8" mais sur monture Ultima tare correctement ses 14kg avec son chercheur 8x50 (6x30 pour l'autre). Le tube optique en lui même ne doit faire que 4 à 6kg à mon avis.S'il te faut une mesure précise, je veux bien déposer un tube et le peser seul si tu insiste.
  6. Il me semble (utilisation d'un C8) qu'un grossissement de 200x était un bon compromis (en plus cela correspond au grossissement utile). La turbulence locale permettait rarement de faire plus. Toutefois, si tu peux pousser encore un peu plus (si les conditions le permettent) pourquoi pas ! En dessous de 100x, on voit plus des ombres qu'autre chose sur une bille rougeatre, et entre 150 et 200x, on se dit qu'il est possible de faire mieux !Maintenant, le diamètre aidant, pourquoi ne pas tenter un 300x, ou plus si un voisin astronome dispose d'un diamètre de 300 ou 400mm !
  7. Trichromie et webcam

    Je te rejoins tout à fait, mais alors, tant qu'a vouloir faire du LRVB, est-ce que la méthode suivante à une quelconque chance d'aboutir (mes essais tardis sur jupiter ne donnent pas grand chose vu l'altitude de la belle).Faire une acquisition via un capteur couleur en mode raw (merci à E.Bonduelle au passage). Traiter cette image (registration, bestof, etc etc) comme une image N&B. La précision de la monture important "peu" en planétaire, ce ne sont JAMAIS les mêmes photosites R, V ou B qui sont illuminés par une même région. Donc on élimine du coup les contraintes du filtrage. On en récupère une image "L"Et on recommence les mêmes opérations avec la séquence "dérawtisée" ou "dabayerisée" et on obtient nos trois couches R, V et B. La couche L représentant bien ce quelle est en réalitée - la luminance présente pour les 3 composantes.Problème perso (?), j'obtiens toujours à la fin, une grille de tramage (+/- fine) sur ma composante "L" malgré un fort déplacement de la cible sur le capteur !
  8. Trichromie et webcam

    Quand le capteur CCD fonctionne en N&B, on dispose d'autant de photosites que de pixels sur l'image générée.Quand le capteur est en couleur, devant chaque photosite, se trouve un micro-filtre rouge, vert ou bleu. L'organisation des filtres est variable mais le plus souvent on dispose, sur une matrice de 2x2, de un filtre rouge, un bleu et deux verts. Afin de retrouver autant de pixels "colorés" que de photosites, (alors qu'a priori chaque pixel est soit bleu, soit rouge, soit vert), il faut aller chercher les informations manquantes sur les photosites adjacents (c'est la débayerisation du nom de la matrice de bayer). Alors forcément, on perds en résolution car pour chaque pixel réel de l'image on a qu'une des composantes R, V ou B qui correspond à "cet endroit" le reste est interpollé.Pour faire de la haute résolution, on a tout interêt à faire de l'acquisition N&B, mais il faut parfois aller vite. Car pour prendre l'exemple de jupiter, si on doit passer plus de 10' pour faire les 3 acquisitions, la surface aura évolué de façon suffisament sensible pour le capteur. "Passer" en N&B a donc des avantages (résolution, mais aussi sensibilité puisque on a plus de filtres devant les photosites), mais aussi quelques contraintes !
  9. Les capteurs 1/4, et 1/3 disposent du même nombre de photosites, ils sont simplements plus gros pour les 1/3.Du coup, l'angle apparent suos lequel on voit deux photosites (l'échantillonage) n'est pas le même et pour avoir la même "résolution", il te faudra une focale plus longue.A contrario, les photosites plus gros doivent (théoriquement) être plus sensibles à technologie égale.
  10. Bonjour à la liste tout d'abord !Voila ma question, je cherche à faire fonctionner un Celestron Ultima 8" dont l'alimentation me semble "exotique" (2 batteries qui alimentent un moteur AC, donc l'electronique fait office de variateur de fréquence). Il s'agit d'un modèle non PEC et si un membre du forum dispose du même matériel j'aimerais obtenir quelques informations précieuses.Cela tourne autour des batteries de type 'D' de 2V / 2.5AH situées dans la monture. Le branchement me semble pour le moins curieux : Je trouve 3 fils jaunes reliés à la carte electronique. Un avec une cosse noire, une cosse rouge et une (double cosse) grise. Quand je branche un chargeur 12V, j'ai environ 5V entre les cosses noires et rouges. Cela semble indiquer un branchement en série si mes humbles souvenirs d'electronique ne font pas défaut (le noir comme référence en plus tout va bien).Maintenant l'étiquetage ; les cosses rouge et noires sont reliées aux pôles moins de chacune des batteries (?), et les grises aux deux pôles positifs. Après une courte charge, le moteur est entrainé mais comme le chargeur semble à la peine (il chauffe beaucoup), j'ai coupé et mesuré le potentiel des 2 batteries. La première me donne +2V, ok, la seconde -1,85V (non je ne me suis pas trompé de polarité).J'ai retenté une charge mais le transfo (neuf de ce jour, 12V / 1A) à rendu l'âme. Bon je vais le faire changer demain, mais ce serait sympa de me trouver une explication de cablage précis de ce que vous avez dans votre monture qui marche !A vot' bon coeur Msieur'Dam !
  11. pollution lumineuse : Cartes

    Ces cartographies en 3D semblent similaires à ce qui est utilisé par certains pour réaliser des "MESH" pour Flight Simulator et consorts. Je pense que le principe est le même et on peut trouver (gratuitement qui plus est) des "cartes" en 3D de quasiment toute la france. Parfois la résolution horizontale n'est que de quelques dizaines de mètres, en horizontal et en vertical pour des scènes locales.En son temps les MESHs "Nanucq" étaient très réputés ET disponibles, il ne sont malheuresement plus dispo actuellement mais il y en a d'autres (peut être moins bons, je me suis éloigné de la simulation ces temps çi).En espérant que cela t'aide dans ta recherche !
  12. Donc il y a quelques jours (le 20/05 à 0h03 TL), C8 orange + barlow x2 Meade (#140) + téléconvertisseur à tirage variable (à fond) + Vesta pro. 5 i/s à 0,6" de pose, non modifiée mais optimisée (E.Bonduelle). 1 minute de pose (300 images), dont 128 compositées. Filtrage wavelet (que je préfère finalement au vancittert), mode LRGB (avec L=R).Europe quitte le disque à droite, son ombre suit à gauche et Io s'invite dans le champ à gauche encore. On doit être presque au maximum de la résolution du C8 avec un peu moins de 0,7" (3 à 4 pixels sur 250pixels de diamètre pour 42" d'arc).
  13. C8 orange + Jupiter = ?

    Merci à vous deux ! J'avoue que je suis surpris par la résolution de l'image "de référence". Les détails les plus fins ne font que quelques pixels là encore mais l'image "pête" encore plus. Peut être que l'opposition était plus favorable (diamètre de juju un peu plus important ?). Dis fred, tu a tenté de mesurer la résolution obtenue ?En tout cas, bravo à pour ton image ... je vais continuer mes efforts qui ne seront pas vains, et plus j'ai une idée maintenant de ce qu'il faut obtenir. Je vais "rejouer" du tournevis pour la collimation dès ce soir.Question à la va-vite ; la mise au point, tu la faisait comment ? Pour ma part (le C8 étant standard dans son jus), j'utilise un disque à 2 trous et je focalise au mieux avec la webcam sur une étoile. Mais c'est "chaud" pour trouver le bon point avec un shifting "d'il y a 20 ans" ! Il y des méthodes "meilleures" ?
  14. Il me faudrait y regarder de plus près pour vérifier. Mais le fait de voir s'animer l'image rend l'oeil plus "tolérant" peut être ! Un peu comme de s'extasier sur la belle image d'un DVD ... sauf dès que l'ont fait PAUSE et que l'image tout pixels comptés, ne fait QUE 700 par 500 pixels avec pas mal de lissage qui plus est ... soit pas terrible !
  15. C8 à F10 + barlow Meade mod 140 + tirage (15cm environ soit probablement 5 à 7 m de focale, il faudrait que je calcule par rapport au diamètre de jupiter sur la Vesta Pro ; 260pixels).Conditions d'observations ; turbulence faible, avec un ciel légèrement brumeux. Telescope fraichement recollimaté sur une étoile, mise au point via disque de Hartman sur Arcturus avant de repointer Jupiter.Acquisition à 5 i/s pendant 60 à 120s (selon la photo). Cela donne ceci : image du 5/5 J'ai également fait d'autres prises de vues qui, chacune après un traitement sous Iris (vancittert 15 9 et alignement, rotation) m'a donné 6 images. Bien assez pour en faire un gif animé ! Saturne a été pris quelques jours avant avec des conditions similaires : image du 29/4
  16. La Lune et un moucheron à réacteurs.

    Bon reflexe ! J'aime bien l'effet "sabre-laser-à-la-star-wars" de l'avion avec la condensation écarlate !
  17. Je suis plus ou moins d'accord avec toi.d'une part parce qu'il mes arrivé de croisé un observateur avec du matériel "tip top" (Un Tak de ~200 mm, sur une EM10) ... qui ne savait pas pointer M13 ! J'étais vert avec mon vieux C8 orange, sa monture un peu branlante (si si). Par contre moi, je l'avait en pleine mire M13.Habitués par un télescope GOTOisé, il leur était impossible de trouver le moindre objet dans le ciel (bon faut dire qu'avec une mise en station approximative ... sur Deneb, ca aide pas non plus). Toutefois, là où je ne te rejoins pas, c'est sur les progrès réalisés. Bien que je reconnaisse qu'il est difficile (à un cout raisonnable) de faire une monture "qui suive", autant je reconnais que l'autoguidage permet de faire automatiquement ce que l'on faisait avec les molettes de rattrapage.Question rattrapage, merci, j'ai fait une pose de 5' dans le cygne au foyer d'une lunette de 60x900 alors que je guidait sur un newton 115x900 (dans cet ordre cause foyer innaccessible sur le newton). Le plus drole c'est que je n'avais PAS de moteur, mais une mimine qui a tourné l'axe AD le plus régulièrement possible tout au long des 5 minutes. Résultat correct, les étoiles sont rondes et moi je me suis pris une belle crampe ! Est-ce si important de savoir tourner une molette de rattrapage que cela catégorise les "bons" et les "mauvais" astronomes amateurs ? De la péloche, j'en ai grillé, et quand 99% des images sont ratés, on est à deux doigts de laisser tomber l'astrophoto ! Aujourd'hui, avec la webcam, c'est plus de 80% de bonnes images qui sortent du PC, et le plus souvent limités par "des causes extérieures" (météo en général). D'ailleurs, on peut comparer, toi qui aime les livres, les images de High Resolution Astrophotograpy, où on cite moins de 50 personnes dans le monde, alors que plus de 50 amateurs font mieux aujourd'hui rien qu'en france.
  18. Utilisation Iris

    Bheuuu ???Iris arrive à trier correctement des images qui ne sont pas préalablement alignées ... pour ma part cela n'a pas toujours donné de bons résultats.Mais effectivement c'est une possibilité comme tu l'indique.
  19. Utilisation Iris

    L'avantage devient décisif quand on a un grand volume d'images, dont une petite fraction va "servir" essentiellement.Exemple, je dispose de 1000 images et j'en composite 128.Je suis obligé de faire dans l'ordre (pour la couche verte), un pregister (ou cregister), un bestof puis un select. Pour les autres couches (R et B) ce sera pareil ; une registration sur les 1000 images pour finalement les selectionner et n'en garder que 128. Question, pourquoi avoir passé du temps à registrer 900 images inutilement ?L'idée consiste donc (après la première opération, donc uniquement pour les couches R & B) à selectionner d'abord, et à registrer ensuite. Sauf que bien sur les dx/dy du fichier shift ne sont plus applicables, vu qu'on a ré-ordonné les images.Donc on trie le fichier shift.lst, on sélectionner les images, et on les registre ensuite. Dans l'odre ; iris_sort, puis select, et enfin file_trans.Idée pour la version 3, fournir le nombre N de vues à compositer et ne conserver que les N lignes du fichier select et on gagne là encore mais sur l'opération de selection cette fois çi. Je complète ma réponse ; Le tri sera difficile si le suivi n'est pas bon. Les fonctions d'auto-corrélation demandent généralement à s'appliquer aux mêmes "vues". Ce qui n'est pas le cas si la cible se déplace entre les vues. Le programme risque de ne pas différencier un déplacement d'une mauvaise corrélation => image rejetée, ou plus exactement "mal classée".[Ce message a été modifié par patry (Édité le 27-04-2005).]
  20. Utilisation Iris

    tu a parfaitement raison, pour le bit qui manque, cela permet de "centrer" les informations sur 0 et pas sur 8192.J'ai écrit un petit tutoriel sur Iris avec une vidéo (bien modeste) en plus. A voir sur http://perso.magic.fr/marc.patry/marc/astro.html J'ai du fortement (?) compresser la vidéo pour pouvoir l'héberger mais le principe reste valable pour la séquence de traitement.A ce sujet, si cela vous tente, j'ai écrit un petit programme supplémentaire pour accélérer assez fortement les traitements sous Iris. Normalement, on commence d'abord par registrer (aligner) les images, puis ensuite par les sélectionner. Ces deux opérations, réalisées sur la couche verte vont imposer un traitement important sur un nombre d'image qui ne l'est pas moins. J'ai écrit une petite routine permettant de trier le fichier shift.lst par rapport au fichier select.lst. Du coup, si sur le plan vert, les deux opérations restent dans cet ordre, après application du soft, les autres plans peuvent s'appliquer sur une fraction réduite des images (une selection des N premières lignes du fichier select), et ensuite être registrées correctement. On passe d'un traitement de quelques centaines d'images (pas loin de 1000 parfois) qui sera restreint en fin de traitement, à celui des N "meilleures" images et ce dès le début du processus.Gain de temps appréciable !
  21. Pour revenir à la question de base, OUI, on peut faire de l'imagerie en ville, seulement on va éviter de scruter trop profondément le ciel. Un programme de travail sur les planètes (jupiter, saturne) se pratique "presque" partout. Et les belles images planétaires requièrent principalement une ciel calme à défaut d'être parfaitement transparent et noir.Quelque uns des meilleurs observateurs ne sont pas nécessairement dans des zones privilégiées mais en pleine banlieue de grande agglomération.C'est certain que cela "spécialise" un peu l'observateur, mais le ciel est vaste et il y en a pour tout le monde.
  22. Utilisation Iris

    encore plus simple Tony, tu utilise add_norm qui va calculer puis appliquer automatiquement le coefficient que tu a déterminé à l'ensemble de tes images. Du coup, l'addition étant normalisée sur 32767, pas de risque de débordement. Si le nombre d'images n'est pas suffisant, le coefficient appliqué reste sur 1 bien sur mais le total sera inférieur à 32767 !dernière chose, le coefficient est donné en fin d'addition par la commande, histoire de se rendre compte de combien on "dépasse" la dynamique. Il m'est arrivé d'obtenir un coef inférieur à 0,25 sur des images très brillantes, qui exploitent alors la dynamique de 8bits de la webcam. Dans ces conditions, au dela de 128 images, on dépasse le seuil, ce qui arrive vite en compositant.
  23. Utilisation Iris

    A mon avis c'est effectivement un problème de seuil de visualisation. Iris travaillant sur 15 bits, et la carte graphique sur 8, il y a simplement une information 128 fois trop grande. les curseurs permettent de régler les seuils min et max (de 0 à 2^15-1 soit 32767).
  24. Imagerie webcam ?!

    Quelle était ta cible ? La lune ? Une planète ou bien un objet du ciel profond ?Dans le premier cas, tu a un problème sans doute de temps d'exposition. Au foyer direct, je pense qu'une pose de l'ordre de 1/25e à 1/50e permet de baisser le gain au minimum.Pour une planète, généralement c'est le cadrage qui pèche.Pour le ciel profond, ce sont les photons qui manquent cruellement au capteur. Finalement, sans une modification de type "pose longue" (i.e. >> 1 seconde de pose), tu n'obtiendra que du noir.Pour ma part, avec une vesta pro (non modifiée), pour obtenir quelques volutes sur M42, j'utilise rien de moins qu'un téléobjectif ouvert à F2.8 et encore, il faut compositer !Sur un C8 (à F10 donc), je n'ai jamais eu que les étoiles centrales !