alx

Member
  • Content count

    127
  • Joined

  • Last visited

  • Last Connexion

    Soon available - 91173

Community Reputation

103 Good

About alx

  • Rank
    Member

Personal Information

  • Adress
    lieu-dit Kersablen, 56360 Le Palais
  • Instruments
    Dobson Skywatcher Flextube 305/1500
    ZWO ASI 120MM
    ZWO ASI 533MM

Recent Profile Visitors

1248 profile views
  1. @roland: il y a en effet un léger ''crop'' des images puisque la zone homogène d'intégration est, au pire, située à l'intérieur du cercle inscrit dans le champ du capteur. En pratique, on va seulement perdre les coins, ou plus, selon le temps d'intégration. D'autre part, la dérotation logicielle est à peine plus coûteuse en temps calcul que l'alignement : il suffit de pouvoir détecter seulement deux étoiles communes par couple d'images successives pour calculer les coefficients d'une matrice de translation + rotation (au lieu d'une seule étoile dans le cas d'une simple translation). Les opérations qui suivent (interpolation) sont à la portée de la plupart des chips embarqués qui, par exemple, sont capables de faire un lissage numérique en temps réel. J'ajoute que cet angle de ''dérotation'' est astronomiquement et a priori déterminé si l'on connaît la direction visée (variation de l'angle parallactique). On peut donc simplement en tenir compte au cours de l'opération d'alignement. Je ne sais pas ce qui est réellement implanté dans les Vaonis ou autre Seestar. Alx.
  2. Smart eye

    Il faut un suivi , mais qui n'a pas besoin d'être très précis. Le capteur utilisé (IMX 533) a beaucoup de pixels (3000x3000) dont on peut sélectionner dynamiquement une sous-région et donc recentrer au cours de l'empilement, quitte à perdre un peu de champ. Je ne sais pas si Pegasus a implémenté ça, mais si c'est le cas, il est en principe possible de compenser des imperfections de suivi de quelques secondes d'arc et même la fraction réfractive de la turbulence (''tip-tilt''). Ainsi que la rotation de champ pour un alt-azimutal (Dobson). Alx.
  3. Pourquoi ? Le temps de pose unitaire pourra rester le même et donner le même SNR après intégration si tu regroupes tes pixels correctement dans l'image finale. Avec mon T305 à F/D=5 et la turbulence de mon site qui ne descend jamais au-dessous de 2" (Bretagne), je me satisfais jusqu'à présent du CMed. Une possibilité, pour minimiser ce problème de perte de résolution, pourrait être l'algorithme suivant, que je n'ai pas essayé: Pour chaque pixel, comparer sa valeur avec les valeurs minimum et maximum dans un voisinage (3x3 ou 5x5). S'il y a égalité, marquer ce pixel. Pour les voisinages marqués, en fonction de l'écart des extremums, remplacer ou non la valeur du pixel central par la valeur de la médiane. L'avantage étant que les calculs de médianes seront minoritaires et que ceux des extremums peuvent être faits par opérations morphologiques (ouverture et fermeture) nettement moins lentes. Mais c'est peut-être déjà bien connu: Merci en tous les cas d'avoir relancé cette discussion: les nouvelles CMOS simplifient énormément les choses puisqu'il n'y a presque plus aucune opération correctrice à faire pour éliminer les biais de l'instrumentation. Ce qui devrait aider beaucoup d'astrams à simplifier leurs procédures. Sauf malheureusement l'élimination du RTS qui reste un problème ouvert.
  4. Le filtrage median 3x3 (le CMed sans lissage gaussien), à l'usage, me paraît quand même la bonne idée. En effet, il procure un gain en ''bruit de lecture" important (un bon facteur 2) et n'est pas si critique que ça pour ce qui concerne la résolution. C'est assez proche d'un ''binning'' x2. Par exemple, sur une image brute où j'ai mesuré que les 10 plus brillantes étoiles avaient un FWHM de 4.0 pixels (2") , celui-ci passe à 4.4 pixels sur la même image filtrée. Le seul inconvénient à mon avis est que le filtrage médian n'est pas un filtrage linéaire, donc opérable par convolution. C'est un algorithme lent, pas facilement compatible avec un traitement en temps réel. Par exemple, sur mon PC portable d'acquisition une image 3008x3008 est traitée en 140 ms., même en utilisant un code fortement optimisé (code parallèlisé + instructions avancées SSE2). C'est pourquoi, j'aimerais bien que les fabricants de caméras (ZWO & co) aient la bonne idée d'implanter ce filtrage dans le FPGA de sortie de la caméra, en remplacement de la fonction "binning" qui n'a pas d'utilité pour un CMOS. En tout état de cause, la question de la perte de résolution peut être réglée par un sur-échantillonnage adéquat (Barlow).
  5. Je n'en suis pas sûr, malheureusement. Voici un test effectué avec mon ASI533mm: une acquisition de 1000 images d'obscurité (''dark'') dans une fenêtre de 320x240 pixels à 125 fps. Le premier graphique montre l'histogramme bien connu des valeurs observées pour les données brutes et les données filtrées par filtrage médian 3x3. La partie haute de l'histogramme est de profil gaussien (le bruit thermique normal de l'électronique). Le bruit de télégraphe se manifeste dans la partie basse de l'histogramme qui représente en moyenne moins d'un millième des pixels de chaque image, soit typiquement 0.001*320*240 ~ 80 pixels. Mais si on localise ces pixels déviants sur les 1000 images, on trouve environ 6000 locations possibles, soit ~75 fois plus et ~8% des pixels. Cela semblerait plutôt indiquer que le phénomène est très instable, même sur 8 secondes. Qu'il n y a pas de carte a priori, et qu'il faut nettoyer lecture par lecture ? Alain.
  6. siril 1.2.1

    Il serait plus logique que le répertoire de travail soit dans l'arborescence de l'utilisateur de Siril. Problème d'installation et de droit d'accès aux fichiers ? alx.
  7. Choix final achat dobson 400

    Oui, ce 305 (que j'utilise) est astronomiquement époustouflant vu son prix et sa rusticité , mais déjà un peu lourd. Attention au 355 qui outre son poids encore plus grand ne passe pas, par exemple, par toutes les portes (> 70 cm à la base). alx.
  8. Oui, j'ai essayé d'illustrer ça par un petit calcul, quelques pages plus haut: la turbulence élargit l'es étoiles par rapport à ce que permet la limite de diffraction. C'est en général estimé par la largeur à mi hauteur de l'étoile étalée. Pour deux étoiles d'éclats égaux, la séparation est assurée si la somme de ces largeurs est supérieure à la distance entre étoiles. Mais si les éclats sont différents, c'est la largeur de l'étoile la plus brillante au niveau d'éclat de l'étoile la plus faible qui compte. Et cet élargissement croît en gros comme la racine carrée de la différence de magnitudes (tache gaussienne). C'est pour cela que F est plus difficile à séparer que E, même sans limite de magnitude. alx.
  9. D'accord pour les maths Soit le flux lumineux X fourni par le télescope en unité physique (photon/sec). Je le mesure à xi au pixel i dans une échelle (en adu) proportionnelle à l'échelle physique, avec un courant d'obscurité di : xi = Gi.X + di Gi est ce qu'on appelle un gain, di un offset (en l'occurrence le courant d'obscurité). Il faut résoudre: X = (xi - di)/Gi Si je n'ai pas de vignettage, je n'ai pas vraiment besoin de l'indice i, Gi est constant, et X est bien représenté à un facteur commun près par (xi - di) en chaque pixel i. Mais si j'ai du vignettage (ou des poussières sur la caméra), les Gi et les xi vont être différents de pixel à pixel, même si le signal X en entrée du télescope est uniforme. Si donc je sais que Y est uniforme, et pour simplifier vaut 1, j'obtiens le flat yi par yi = Gi.Y + di = Gi + di, c'est à dire Gi = yi - di En reportant dans la première équation, j'ai X = (xi - di)/(yi - di) Le facteur correctif est bien une division par (yi - di), c'est-à-dire par (flat - dark) J'obtiens bien une une représentation de X corrigée du vignettage (ou de l'obstruction par les poussières). Evidemment, cela ne donne pas X en valeur absolue: il resterait à déterminer la valeur de Y, mais c'est une autre histoire (photométrie).
  10. En effet. J'ai fait l'innocent plus haut pour voir où on en était. Ca vaut la peine de commenter un peu. L' offset n'est pas vraiment un signal. Le noir ("dark") et la pleine lumière (''flat") sont eux des signaux. Je m'explique: Un CMOS, essentiellement, produit des électrons à partir du flux de photons (lumière) qui l'éclairent, l'énergie de chaque photon étant absorbée dans un atome de silicium qui libère alors un électron. Ces électrons constituent un certain nombre de charges par seconde, autrement dit un courant électrique. Celui-ci est ensuite amplifié et converti en une tension mesurable dans une échelle numérique qu'on peut manipuler. La très bonne linéarité du CMOS (je n'entre pas dans les détails) fait que cette échelle (représentable graphiquement par une droite) est définie par seulement deux nombres: le gain de l'ampli de sortie, et le zéro de référence quand la caméra ne reçoit pas de lumière. Ce zéro de courant a en principe la valeur numérique 0, - c'est l'offset ou biais -, mais en peut le régler et on va voir pourquoi ci-dessous. L'offset est donc un simple décalage de la tension de mesure qui ne modifie en rien les autres signaux physiques qui interviennent dans le fonctionnement de la caméra. Comme ce que je viens de décrire est propre à chaque photo-capteur individuel (pixel), on pourrait penser que la tension d'offset pourrait ne pas être uniforme sur l'ensemble du capteur. Je pense que ce n'est pas le cas (jusqu'à plus ample informé), mais que sa valeur est commune à tous les pixels (et fixée dans le dernier étage de sortie de la caméra). Ce qui vient un peu compliquer les choses est que le CMOS n'est pas complétement passif en l'absence de lumière, il génère en interne un signal d'agitation thermique comme tout circuit électronique. Celui-ci contribue et se superpose au signal mesuré en présence d'éclairement: c'est le "dark", ou courant d'obscurité. Et comme pour tout signal physique, le courant d'obscurité est variable à très courte échelle de temps à causes de phénomènes microscopiques qui dépendent de sa nature physique, mais sa valeur moyenne est constante, avec une dispersion dans laquelle les valeurs déviantes sont d'autant plus rares qu'elles sont larges. C'est ce qu'on appelle le bruit de mesure du signal en question. Le processus de "lecture" de la caméra (ce qui se passe entre la production d'électrons et la production de la tension de sortie) est lui même bruité; c'est le "bruit de lecture" (RON). Le signal lumineux provenant du télescope est lui aussi affecté d'un bruit intrinsèque (bruit photonique) mais de statistique un peu différente. Sur les caméras CMOS modernes, le courant d'obscurité est devenu négligeable, même s'il dépend toujours de la température de fonctionnement (c'était le thème du précédent fil initié par @frédogoto). Par exemple, sur l'IMX533, il vaut 0.001 el/sec à 0°C et encore seulement 0.1 el/sec à 30°C. Avec un gain standard de 1 el/adu, il faut donc poser au moins 1000 secondes pour que le ''dark'' diffère de l''offset par 1 adu. Pratiquement, sa valeur moyenne diffère si peu de celle de l'offset qu'on peut raisonnablement confondre les deux: dark = offset. Au moins dans le monde astram, où le % d'imprécision n'est pas critique. C'est d'ailleurs comme cela qu'on peut mesurer le courant d'offset, en enregistrant un "dark" de durée quasi nulle (donc sans courant d'obscurité appréciable). Pour étalonner l'observation et obtenir des valeurs physiques indépendantes de l'instrument, - comme il a été précisé plus haut par plusieurs intervenants - , il faut donc appliquer la formule : ciel(physique) = (ciel(adu) - dark(adu))/(flat(adu) - dark(adu)) dark(adu) étant la valeur de référence en adu, et 1/(flat(adu) - dark(adu)) une estimation du gain pour chaque pixel sur un champ uniforme de pleine lumière. Il reste deux questions me semble-t-il: 1) comment évaluer au mieux le "dark" (ou l'"offset"), 2) pourquoi faut-il un offset et comment le régler (s'il est réglable, car sur certaines caméras il est imposé) ? Réponses: 1) soit traditionnellement, en faisant une moyenne ("superdark") de darks individuels. Plus simplement, en utilisant la valeur de réglage de l'offset (offset ou dark dit "synthétique") qu'il est possible d'étalonner une fois pour toute. Donc en ne faisant rien de particulier. On m'objectera qu'un "dark" est nécessaire pour éliminer les "pixels chauds", les valeurs aberrantes de certains pixels. Je pense le contraire. Dans le cas des CMOS, c'est le bruit de télégraphe qui domine; celui-ci n'est pas très sympathique, car la valeur moyenne des pixels touchés n'est pas significative ni stationnaire. Il vaut mieux éliminer ces valeurs aberrantes autrement (détection, filtrage median, etc...). 2) pourquoi un offset ? Justement parce que le signal mesuré est affecté d'un bruit de mesure qui fait qu'une partie (en gros la moitié) de ses valeurs observables sont inférieures à sa valeur moyenne, celle qui nous intéresse. Ce phénomène est bien illustré par l'histogramme que la plupart des logiciels d'acquisition permettent de visualiser en temps réel. Si l'on garde l'offset à 0, les valeurs inférieures (négatives) vont être remplacées par 0, avec comme conséquence une erreur (surestimation) sur la valeur moyenne recherchée et une détection par accumulation de poses moins efficace. L'offset se règle donc en veillant à ce que tout l'histogramme soit au-dessus de 0. Mais pas au-delà, sinon on perd en intervalle dynamique utile. Comme la largeur de l'histogramme dépend du réglage du gain, on voit que cette valeur d'offset doit être ajustée en même temps que le gain. Voilà, j'espère ne pas avoir été trop long et que ça peut aider certains. alx.
  11. Merci, mais je ne suis pas plus avancé. Qu'entendez-vous par biais (bias) ?
  12. Désolé, mais franchement je ne comprend pas bien ce qui est appelé ''offset'' dans ce fil ni, surtout, en quoi consiste ''faire'' un offset alx.
  13. Merci, Donc les bosses centrales, c'est de l'ordre de 1% ? alx.
  14. Je n'arrive pas à lire l'échelle de droite sur la visu dilatée en amplitude. Quelle est l'amplitude relative (1%, 5%, 30%) d'ensemble (et des bosses centrales) de ce ''superflat'' ? Merci, alx.
  15. Ca ne change rien, l'offset correspondant en 12 bits sera 32 ou 64, donc toujours au niveau de 1 à 2 % de la valeur du flat. En principe, je serais d'accord avec cette règle . Mais ici, on peut dire que l'offset est toujours négligeable devant le flat (au niveau de précision ''astram'' standard ), et que le plus important c'est de régler l'offset (si il est réglable) au niveau le plus bas possible préservant l'intégrité de l'histogramme du bruit de fond.