patry

Membre
  • Compteur de contenus

    5 268
  • Inscription

  • Dernière visite

  • Jours gagnés

    1
  • Last Connexion

    Soon available - 42403

Messages posté(e)s par patry


  1. Quand le capteur CCD fonctionne en N&B, on dispose d'autant de photosites que de pixels sur l'image générée.

    Quand le capteur est en couleur, devant chaque photosite, se trouve un micro-filtre rouge, vert ou bleu. L'organisation des filtres est variable mais le plus souvent on dispose, sur une matrice de 2x2, de un filtre rouge, un bleu et deux verts.
    Afin de retrouver autant de pixels "colorés" que de photosites, (alors qu'a priori chaque pixel est soit bleu, soit rouge, soit vert), il faut aller chercher les informations manquantes sur les photosites adjacents (c'est la débayerisation du nom de la matrice de bayer).
    Alors forcément, on perds en résolution car pour chaque pixel réel de l'image on a qu'une des composantes R, V ou B qui correspond à "cet endroit" le reste est interpollé.

    Pour faire de la haute résolution, on a tout interêt à faire de l'acquisition N&B, mais il faut parfois aller vite. Car pour prendre l'exemple de jupiter, si on doit passer plus de 10' pour faire les 3 acquisitions, la surface aura évolué de façon suffisament sensible pour le capteur.


    "Passer" en N&B a donc des avantages (résolution, mais aussi sensibilité puisque on a plus de filtres devant les photosites), mais aussi quelques contraintes !


  2. Les capteurs 1/4, et 1/3 disposent du même nombre de photosites, ils sont simplements plus gros pour les 1/3.

    Du coup, l'angle apparent suos lequel on voit deux photosites (l'échantillonage) n'est pas le même et pour avoir la même "résolution", il te faudra une focale plus longue.

    A contrario, les photosites plus gros doivent (théoriquement) être plus sensibles à technologie égale.


  3. Bonjour à la liste tout d'abord !

    Voila ma question, je cherche à faire fonctionner un Celestron Ultima 8" dont l'alimentation me semble "exotique" (2 batteries qui alimentent un moteur AC, donc l'electronique fait office de variateur de fréquence). Il s'agit d'un modèle non PEC et si un membre du forum dispose du même matériel j'aimerais obtenir quelques informations précieuses.

    Cela tourne autour des batteries de type 'D' de 2V / 2.5AH situées dans la monture. Le branchement me semble pour le moins curieux : Je trouve 3 fils jaunes reliés à la carte electronique. Un avec une cosse noire, une cosse rouge et une (double cosse) grise. Quand je branche un chargeur 12V, j'ai environ 5V entre les cosses noires et rouges. Cela semble indiquer un branchement en série si mes humbles souvenirs d'electronique ne font pas défaut (le noir comme référence en plus tout va bien).

    Maintenant l'étiquetage ; les cosses rouge et noires sont reliées aux pôles moins de chacune des batteries (?), et les grises aux deux pôles positifs. Après une courte charge, le moteur est entrainé mais comme le chargeur semble à la peine (il chauffe beaucoup), j'ai coupé et mesuré le potentiel des 2 batteries. La première me donne +2V, ok, la seconde -1,85V (non je ne me suis pas trompé de polarité).

    J'ai retenté une charge mais le transfo (neuf de ce jour, 12V / 1A) à rendu l'âme. Bon je vais le faire changer demain, mais ce serait sympa de me trouver une explication de cablage précis de ce que vous avez dans votre monture qui marche !

    A vot' bon coeur Msieur'Dam !


  4. Ces cartographies en 3D semblent similaires à ce qui est utilisé par certains pour réaliser des "MESH" pour Flight Simulator et consorts.
    Je pense que le principe est le même et on peut trouver (gratuitement qui plus est) des "cartes" en 3D de quasiment toute la france. Parfois la résolution horizontale n'est que de quelques dizaines de mètres, en horizontal et en vertical pour des scènes locales.

    En son temps les MESHs "Nanucq" étaient très réputés ET disponibles, il ne sont malheuresement plus dispo actuellement mais il y en a d'autres (peut être moins bons, je me suis éloigné de la simulation ces temps çi).

    En espérant que cela t'aide dans ta recherche !


  5. Merci à vous deux ! J'avoue que je suis surpris par la résolution de l'image "de référence". Les détails les plus fins ne font que quelques pixels là encore mais l'image "pête" encore plus. Peut être que l'opposition était plus favorable (diamètre de juju un peu plus important ?). Dis fred, tu a tenté de mesurer la résolution obtenue ?

    En tout cas, bravo à pour ton image ... je vais continuer mes efforts qui ne seront pas vains, et plus j'ai une idée maintenant de ce qu'il faut obtenir. Je vais "rejouer" du tournevis pour la collimation dès ce soir.

    Question à la va-vite ; la mise au point, tu la faisait comment ? Pour ma part (le C8 étant standard dans son jus), j'utilise un disque à 2 trous et je focalise au mieux avec la webcam sur une étoile. Mais c'est "chaud" pour trouver le bon point avec un shifting "d'il y a 20 ans" ! Il y des méthodes "meilleures" ?


  6. Donc il y a quelques jours (le 20/05 à 0h03 TL),
    C8 orange + barlow x2 Meade (#140) + téléconvertisseur à tirage variable (à fond) + Vesta pro.
    5 i/s à 0,6" de pose, non modifiée mais optimisée (E.Bonduelle).
    1 minute de pose (300 images), dont 128 compositées.
    Filtrage wavelet (que je préfère finalement au vancittert), mode LRGB (avec L=R).

    Europe quitte le disque à droite, son ombre suit à gauche et Io s'invite dans le champ à gauche encore.


    On doit être presque au maximum de la résolution du C8 avec un peu moins de 0,7" (3 à 4 pixels sur 250pixels de diamètre pour 42" d'arc).


  7. Il me faudrait y regarder de plus près pour vérifier. Mais le fait de voir s'animer l'image rend l'oeil plus "tolérant" peut être !
    Un peu comme de s'extasier sur la belle image d'un DVD ... sauf dès que l'ont fait PAUSE et que l'image tout pixels comptés, ne fait QUE 700 par 500 pixels avec pas mal de lissage qui plus est ... soit pas terrible !

  8. C8 à F10 + barlow Meade mod 140 + tirage (15cm environ soit probablement 5 à 7 m de focale, il faudrait que je calcule par rapport au diamètre de jupiter sur la Vesta Pro ; 260pixels).

    Conditions d'observations ; turbulence faible, avec un ciel légèrement brumeux. Telescope fraichement recollimaté sur une étoile, mise au point via disque de Hartman sur Arcturus avant de repointer Jupiter.

    Acquisition à 5 i/s pendant 60 à 120s (selon la photo).
    Cela donne ceci : image du 5/5


    J'ai également fait d'autres prises de vues qui, chacune après un traitement sous Iris (vancittert 15 9 et alignement, rotation) m'a donné 6 images. Bien assez pour en faire un gif animé !

    Saturne a été pris quelques jours avant avec des conditions similaires : image du 29/4



  9. Je suis plus ou moins d'accord avec toi.

    d'une part parce qu'il mes arrivé de croisé un observateur avec du matériel "tip top" (Un Tak de ~200 mm, sur une EM10) ... qui ne savait pas pointer M13 !
    J'étais vert avec mon vieux C8 orange, sa monture un peu branlante (si si). Par contre moi, je l'avait en pleine mire M13.

    Habitués par un télescope GOTOisé, il leur était impossible de trouver le moindre objet dans le ciel (bon faut dire qu'avec une mise en station approximative ... sur Deneb, ca aide pas non plus).


    Toutefois, là où je ne te rejoins pas, c'est sur les progrès réalisés. Bien que je reconnaisse qu'il est difficile (à un cout raisonnable) de faire une monture "qui suive", autant je reconnais que l'autoguidage permet de faire automatiquement ce que l'on faisait avec les molettes de rattrapage.

    Question rattrapage, merci, j'ai fait une pose de 5' dans le cygne au foyer d'une lunette de 60x900 alors que je guidait sur un newton 115x900 (dans cet ordre cause foyer innaccessible sur le newton). Le plus drole c'est que je n'avais PAS de moteur, mais une mimine qui a tourné l'axe AD le plus régulièrement possible tout au long des 5 minutes. Résultat correct, les étoiles sont rondes et moi je me suis pris une belle crampe ! Est-ce si important de savoir tourner une molette de rattrapage que cela catégorise les "bons" et les "mauvais" astronomes amateurs ?


    De la péloche, j'en ai grillé, et quand 99% des images sont ratés, on est à deux doigts de laisser tomber l'astrophoto !
    Aujourd'hui, avec la webcam, c'est plus de 80% de bonnes images qui sortent du PC, et le plus souvent limités par "des causes extérieures" (météo en général).
    D'ailleurs, on peut comparer, toi qui aime les livres, les images de High Resolution Astrophotograpy, où on cite moins de 50 personnes dans le monde, alors que plus de 50 amateurs font mieux aujourd'hui rien qu'en france.


  10. Bheuuu ???

    Iris arrive à trier correctement des images qui ne sont pas préalablement alignées ... pour ma part cela n'a pas toujours donné de bons résultats.

    Mais effectivement c'est une possibilité comme tu l'indique.


  11. L'avantage devient décisif quand on a un grand volume d'images, dont une petite fraction va "servir" essentiellement.

    Exemple, je dispose de 1000 images et j'en composite 128.

    Je suis obligé de faire dans l'ordre (pour la couche verte), un pregister (ou cregister), un bestof puis un select.
    Pour les autres couches (R et B) ce sera pareil ; une registration sur les 1000 images pour finalement les selectionner et n'en garder que 128. Question, pourquoi avoir passé du temps à registrer 900 images inutilement ?

    L'idée consiste donc (après la première opération, donc uniquement pour les couches R & B) à selectionner d'abord, et à registrer ensuite. Sauf que bien sur les dx/dy du fichier shift ne sont plus applicables, vu qu'on a ré-ordonné les images.

    Donc on trie le fichier shift.lst, on sélectionner les images, et on les registre ensuite.
    Dans l'odre ; iris_sort, puis select, et enfin file_trans.

    Idée pour la version 3, fournir le nombre N de vues à compositer et ne conserver que les N lignes du fichier select et on gagne là encore mais sur l'opération de selection cette fois çi.


    Je complète ma réponse ; Le tri sera difficile si le suivi n'est pas bon. Les fonctions d'auto-corrélation demandent généralement à s'appliquer aux mêmes "vues". Ce qui n'est pas le cas si la cible se déplace entre les vues. Le programme risque de ne pas différencier un déplacement d'une mauvaise corrélation => image rejetée, ou plus exactement "mal classée".

    [Ce message a été modifié par patry (Édité le 27-04-2005).]


  12. tu a parfaitement raison, pour le bit qui manque, cela permet de "centrer" les informations sur 0 et pas sur 8192.

    J'ai écrit un petit tutoriel sur Iris avec une vidéo (bien modeste) en plus. A voir sur http://perso.magic.fr/marc.patry/marc/astro.html

    J'ai du fortement (?) compresser la vidéo pour pouvoir l'héberger mais le principe reste valable pour la séquence de traitement.

    A ce sujet, si cela vous tente, j'ai écrit un petit programme supplémentaire pour accélérer assez fortement les traitements sous Iris.
    Normalement, on commence d'abord par registrer (aligner) les images, puis ensuite par les sélectionner. Ces deux opérations, réalisées sur la couche verte vont imposer un traitement important sur un nombre d'image qui ne l'est pas moins. J'ai écrit une petite routine permettant de trier le fichier shift.lst par rapport au fichier select.lst.
    Du coup, si sur le plan vert, les deux opérations restent dans cet ordre, après application du soft, les autres plans peuvent s'appliquer sur une fraction réduite des images (une selection des N premières lignes du fichier select), et ensuite être registrées correctement. On passe d'un traitement de quelques centaines d'images (pas loin de 1000 parfois) qui sera restreint en fin de traitement, à celui des N "meilleures" images et ce dès le début du processus.

    Gain de temps appréciable !


  13. Pour revenir à la question de base, OUI, on peut faire de l'imagerie en ville, seulement on va éviter de scruter trop profondément le ciel.
    Un programme de travail sur les planètes (jupiter, saturne) se pratique "presque" partout. Et les belles images planétaires requièrent principalement une ciel calme à défaut d'être parfaitement transparent et noir.

    Quelque uns des meilleurs observateurs ne sont pas nécessairement dans des zones privilégiées mais en pleine banlieue de grande agglomération.

    C'est certain que cela "spécialise" un peu l'observateur, mais le ciel est vaste et il y en a pour tout le monde.


  14. encore plus simple Tony, tu utilise add_norm qui va calculer puis appliquer automatiquement le coefficient que tu a déterminé à l'ensemble de tes images.
    Du coup, l'addition étant normalisée sur 32767, pas de risque de débordement.
    Si le nombre d'images n'est pas suffisant, le coefficient appliqué reste sur 1 bien sur mais le total sera inférieur à 32767 !

    dernière chose, le coefficient est donné en fin d'addition par la commande, histoire de se rendre compte de combien on "dépasse" la dynamique. Il m'est arrivé d'obtenir un coef inférieur à 0,25 sur des images très brillantes, qui exploitent alors la dynamique de 8bits de la webcam. Dans ces conditions, au dela de 128 images, on dépasse le seuil, ce qui arrive vite en compositant.


  15. A mon avis c'est effectivement un problème de seuil de visualisation.
    Iris travaillant sur 15 bits, et la carte graphique sur 8, il y a simplement une information 128 fois trop grande.
    les curseurs permettent de régler les seuils min et max (de 0 à 2^15-1 soit 32767).

  16. Quelle était ta cible ?
    La lune ? Une planète ou bien un objet du ciel profond ?

    Dans le premier cas, tu a un problème sans doute de temps d'exposition. Au foyer direct, je pense qu'une pose de l'ordre de 1/25e à 1/50e permet de baisser le gain au minimum.

    Pour une planète, généralement c'est le cadrage qui pèche.

    Pour le ciel profond, ce sont les photons qui manquent cruellement au capteur. Finalement, sans une modification de type "pose longue" (i.e. >> 1 seconde de pose), tu n'obtiendra que du noir.

    Pour ma part, avec une vesta pro (non modifiée), pour obtenir quelques volutes sur M42, j'utilise rien de moins qu'un téléobjectif ouvert à F2.8 et encore, il faut compositer !

    Sur un C8 (à F10 donc), je n'ai jamais eu que les étoiles centrales !