Roch

La pose courte, quel impact ? Petit test pour un début de réponse...

Recommended Posts

Posted (edited)

 

Bonsoir à tous :)

 

Depuis quelques années, et grâce aux progrès des capteurs d'image, une nouvelle forme d'astrophotographie amateur s'est développée ; je veux bien sûr parler de la photo du ciel profond en poses courtes, ou "lucky imaging".

L'idée générale est en réalité plutôt simple : on réduit le temps de pose unitaire afin de "figer" la turbulence, ce qui diminue fortement son impact. La déformation induite étant fluctuante, on peut ensuite sélectionner les poses afin de ne conserver que les images les mieux résolues
Dans la pratique, cela se rapproche assez de l'imagerie planétaire telle qu'on la pratique depuis 15 ans... à ceci près que la faible brillance de certains objets imagés apporte son lot de contraintes supplémentaires.

 

Ceci étant, il reste beaucoup à défricher dans le domaine, et j'ai voulu essayer de proposer un début de réponse à ces quelques questions :

 

- Quels sont les bénéfices réels de la pose courte vis à vis de la pose longue, quantitativement parlant ?
- Comment optimiser au mieux les paramètres de prise de vue afin de pouvoir en tirer le maximum ?

 

Bien évidemment, certaines équipes pros se sont déjà penchées sur le problème, et il suffit de taper les mots "lucky imaging pdf" dans google pour se rendre compte que les publications scientifiques ne manquent pas sur le sujet ; cependant, le monde amateur étant très différent ;) j'ai voulu y aller de mes petits tests de mon côté, afin de voir si je retrouvais des résultat similaires. Nous n'avons pas les mêmes instruments ni les mêmes conditions d'observation, donc il y a certainement quelque chose à en tirer.
D'autre part, la majorité des publications "pro" que j'ai pu trouver se concentrent sur une application du procédé poussé à l'extrème ; on sélectionne un nombre d'images très faible sur un total énorme et on réduit le temps de pose de manière drastique. Bien évidemment, c'est dans ces conditions que l'amélioration de piqué sera la plus importante, mais le rapport signal/bruit de l'image est en contrepartie fortement mis à mal.


Or, ce qui compte afin d'obtenir un résultat final intéressant dans notre domaine, c'est plutôt de trouver le meilleur compromis entre le piqué et le rapport signal/bruit ; habituellement, on réalise plutôt des poses modérément courtes ( de l'ordre de la seconde ) afin de ne pas trop dégrader le RSB final mais obtenir toutefois une amélioration du piqué substantielle. Donc pas tout à fait le même champ de recherches ;)

 

Les expériences ont été effectuées en mars dernier ( oui ça date... ) et j'en tire un bilan mitigé car quelques biais se sont glissés dans ma méthode.
Je voulais refaire un traitement complet des images afin de me débarrasser d'une partie de ces biais, néanmoins... je suis tellement en retard sur mes traitements que je préfère vous livrer mon analyse telle qu'elle et plutôt retenter entièrement l'expérience une autre fois si cela s'avère nécessaire.

Donc, après cette longue introduction, voici le protocole expérimental ;)

 

Protocole de test

 

Pour estimer le piqué de nos images, on va utiliser une grandeur facilement mesurable sur nos images : la FWHM ( en français, largeur à mi-hauteur ) d'une étoile que l'on exprimera en nombre de pixels.
La plupart des logiciels astro ont des outils permettant d'extraire de manière précise et rapide cette donnée des images, ce qui rend le procédé tout à fait faisable.

Une autre donnée, le rapport de Strehl, aurait peut être été préférable afin de rendre compte du seeing de manière plus précise, mais à ma connaissance je n'ai pas de logiciel qui permette de faire cette mesure rapidement sur des séries de plusieurs milliers d'images... ;)

 

Pour comparer entre poses longues et poses courtes avec le minimum de biais observationnels, j'ai eu l'idée suivante :

-Réaliser une prise de vue en continu à une cadence la plus élevée possible

-Puis empiler les images par paquets consécutifs sans les aligner, afin de former une image longue pose virtuelle

 

Par exemple, si j'empile 100 images de 1/100s, à condition que la latence entre les poses soit négligeable et que les images soient consécutives, j'obtiendrai une image dont le piqué serait identique à une pose de 1s prise au même moment.


Bien sûr le bruit de lecture de la caméra sera compté 100 fois dans le premier cas et pas dans le second, ce qui va fortement impacter le RSB, mais cela n'a ( normalement ) aucune incidence pour la mesure qui m'intéresse ici,  la FWHM d'une étoile.

 

L'avantage de procéder ainsi est énorme, puisque c'est la même série d'images qui peut être utilisée pour mesurer le piqué sur les poses courtes et les poses longues. On évacue ainsi tout le problème que pose le caractère aléatoire de la turbulence, puisqu'on réalise les différentes mesures au même moment et avec le même matériel ;)
De plus, on peut multiplier à l'infini les différents temps de pose "virtuels" que l'on souhaite tester.

 

Autre biais à évacuer, les erreurs de suivi... cela entache les images "longue pose" sans pour autant que ce ne soit dû à l'atmosphère.

Pour pallier à ça, j'ai tout simplement débranché la monture totalement et fait l'ensemble des vidéos sur l'étoile polaire. Cette dernière bouge suffisamment peu pour que le déplacement soit négligeable jusqu'à des poses "virtuelles" de 250ms environ ; mais même au delà, son déplacement est connu et peut être considéré comme rectiligne et uniforme sur une durée pas trop longue. Comme mon film ne dure qu'une minute, j'ai simplement compensé ce déplacement ( prévisible ) sur les brutes. C'est d'ailleurs là ou arrive le premier biais dans ma méthode... mais j'y reviendrai ;)

 

La caméra utilisée est la QHY290, elle permet de tenir une cadence d'image de 500fps avec un temps de pose de 1/500s et un nombre de frames droppées que je considère comme négligeable ( j'ai du en avoir quatre ou cinq sur les 32767 acquises )
Cette caméra possède des photosites de 2.9 microns.

Le télescope est un Newton 250/1300 artisanal, et sera utilisé au foyer ; je voulais utiliser une barlow pour augmenter l'échantillonnage afin d'observer une différence la plus significative possible mais je me suis rendu compte, suite à un changement récent de miroir secondaire, que l'adaptation n'était plus possible... cela donne donc un échantillonnage final de 0.45"/pixel.
Cependant, la nuit était plutôt turbulente, ce qui était plutôt une bonne chose ( pour une fois :D ) ; ainsi l'image de l'étoile était étalée sur plus de pixels.

 

Même à 48° de hauteur, la dispersion atmosphérique est déjà sensible, aussi ai-je utilisé un filtre bleu pour la réduire en partie. Néanmoins, on verra en dessous que cela n'a pas été suffisant...
J'ai préféré un filtre bleu au vert ou rouge parce que la turbulence est plus forte dans cette longueur d'onde. Malheureusement, c'est également le cas de la dispersion atmosphérique... :D

 

Avant tout traitement, j'ai multiplié la taille des images par deux afin de réduire au maximum la perte de piqué dû à l'alignement. Aussi, les chiffres avancés ci-dessous correspondent à un échantillonnage résultant de 0.225"/pixel.

J'ai acquis plusieurs films de 128 secondes chacun ( plus de 60.000 images ) et au traitement, je me suis aperçu qu'IRIS ne gérait pas de listes de plus de 32768 fichiers, donc je me suis contenté de traiter la moitié d'un film, soit 64 secondes réelles. Au départ je voulais faire un croisement des données en traitant chaque film indépendamment, mais ayant passé plusieurs heures sur le premier film, je me suis dit que je ne traiterais pas les autres, parce que la flemme :D

 

Pour le traitement, voici les étapes, dans l'ordre :

-Retrait du dark
-Empilement d'images par paquets de différentes tailles ( allant de 1 image pour une pose de 1/500s à 1024 pour une pose de 2s ( environ ) ) en utilisant la commande COPYADD d'IRIS

Puis, pour chaque série de paquets obtenus correspondant chacun à un temps de pose différent :

-Alignement des images sur l'étoile
-Mesure de la FWHM finale sur l'image empilée.

 

Pour faire cette mesure, j'ai préféré Siril à IRIS car celui-ci permet une mesure ne demandant pas à l'utilisateur de tracer un carré autour de l'étoile ; j'ai remarqué que la valeur variait selon que la sélection était faite serrée ou large autour de l'étoile, ce qui n'est pas bon pour la cohérence des données ;)
Siril en revanche donne une valeur sans avoir besoin de zone de sélection, ce qui évite ce problème ; même si la méthode de mesure n'est pas exacte, au moins elle est faite de la même manière sur toutes les images.

Les données sont ensuite inscrites dans un tableau ( deux colonnes, une pour la fwhm X et l'autre pour la fwhm Y )


La mesure de la FWHM donnée par SIRIL a ici un autre avantage : la FWHM X et Y ne correspond pas nécessairement à une mesure sur les axes X et Y de l'image, mais sur la plus petite et la plus grande dimension de l'ellipse que forme l'étoile. On a donc une véritable mesure de l'allongement de l'étoile, utile pour mettre en évidence la dispersion atmosphérique, ou tout autre effet ayant induit un allongement.

 

J'ai donc tiré un premier graphique de tout ça, mais je ne me suis pas arrêté là ;)

 

J'ai ensuite utilisé les mêmes données afin de mesurer l'impact d'une sélection d'images sur cette même FWHM. Afin de ne pas me surcharger de travail rébarbatif, j'ai sélectionné les temps de poses virtuels de 1/500s, 1/64s, 1/8s et 1s, puis j'ai utilisé Siril afin de sélectionner un pourcentage de meilleures images unitaires, ceci encore une fois basé sur une mesure de la FWHM.

 

J'obtiens donc un deuxième tableau et un deuxième graphique, et vous pouvez aller admirer tout ça sur le pdf que voici :

 

 

                 l              l

                V             V

-> ->   graphes fwhm.pdf  <- <-

                

 

 

Bon et puis pour vous épargner le clic, je vous les met en jpeg aussi ;) :

 


5d967a7845272_Graphe1.jpg.52598ec5d3af03900f69e7d4d85687ed.jpg

 

 

5d967a8094053_Graphe2.jpg.f076d0b521735792ace643327ea5bb6d.jpg
 

 

Analyse des résultats :

 

Je commence par le premier graphique

 

Première constatation : l'amélioration de piqué en réduisant le temps de pose unitaire est clairement montrée. Victoire :D


Bon ensuite on peut aller un peu plus loin...

 

Déjà on entend souvent dire que réduire le temps de pose en deça d'une certaine limite ne sert plus à rien ( je pense aux planéteux... )
En passant les images à 500fps au ralenti, j'avais moi aussi l'impression que travailler à cette cadence ne donnerait rien de plus tant une image était semblable à la suivante.
Et pourtant, même si l'amélioration n'est pas aussi significative que pour des fréquences plus faibles, on observe bien une amélioration.
Ceci étant, c'est peut être à mettre en relation avec la turbulence de ce jour là, qui était particulièrement présente.

 

Ensuite, on observe un allongement significatif de l'étoile. C'est dû, je pense, à la dispersion atmosphérique. on observe un allongement moyen de 1.5 pixel, ce qui correspond à environ 0.3" d'arc, ce qui est dans l'ordre de grandeur de ce qui serait attendu pour cette élévation et cette bande passante.
Cependant, l'allongement augmente en taille à partir de poses d'environ 500ms, et ça ce n'est pas normal. Enfin je ne crois pas.

En admettant que les données soient représentatives, il se pourrait qu'un autre facteur extérieur soit venu jouer les trouble-fête : le vent !

En effet, il y avait du vent ce soir là. J'étais pourtant dans un coin relativement abrité, mais il se peut que cela n'ait pas suffi... après c'est évidemment un problème auquel les imageurs en ciel profond "pose longue" sont confrontés, et donc c'est également un des avantages de la technique des poses courtes, mais quand même, j'aurais aimé faire une comparaison plus juste

De fait, en voyant la courbe, on pourrait être tenté de dire que des poses de 1s ou 2s sont déjà fortement bénéfiques, car si on prolonge, on voit bien que la fwhm n'a pas encore atteint son maximum. Mais il se peut que l'on voie l'effet du vent davantage que l'effet de la turbulence, donc je ne ferai pas de conclusion hâtive et referai une expérience plus poussée, en montant les temps de poses unitaires vers des valeurs plus hautes. Dans l'idéal, j'aimerais tester jusqu'à la minute de pose.


Mais dans tous les cas, on observe bien une baisse de la FWHM très significative. Qui plus est, dans le cadre de mon setup et avec les conditions météo de ce jour là, cette baisse semble la plus importante quand on arrive sur des temps de pose "intermédiaires" entre 1s et 1/10s que sur des temps de pose "faibles", entre 1/10s et 1/500s


Maintenant deuxième graphique !

 

Premièrement je suis étonné par la lisibilité des données, notamment sur les temps de pose très courts. La courbe est limpide comme jamais je n'aurais imaginé ;)
Les courbes correspondant aux temps de pose de 1/8s et surtout 1s sont moins "belles" mais je met ça sur le compte du nombre d'images qui n'est pas assez élevé pour avoir une statistique significative ( rappel, j'ai toujours 64s de temps de pose total utilisé pour l'analyse )

 

La première chose à observer pour moi, c'est que la courbe monte de plus en plus vite. Autrement dit, si on décide de diviser son nombre d'images utiles par 2 plusieurs fois, la première division apportera un bénéfice plus important que la deuxième division, et elle même apportera plus que la troisième division, etc, etc.

J'aurais bien voulu aller encore plus loin dans la sélection en ne prenant par exemple qu'une image sur mille pour la séquence à 1/500s, mais Siril ne permet de sélectionner qu'un pourcentage entier de la séquence, pas de 0.1% possible donc ;)

 

On observe également bien là encore que c'est sur les temps de poses "intermédiaires" que le bénéfice semble le plus important.

 

Dernière chose... je vais peut être un peu loin dans l'analyse, mais il semble que sélectionner des images en poses très courtes soit plus bénéfique que de sélectionner des images plus longues. En effet, pour les poses de 1/500s, on passe d'une FWHM de 10.32 à 6.59 pixels si on passe d'une sélection de 100% à 2% des images, ce qui correspond à une réduction de la FWHM de 37% environ. Par contre, pour les poses de 1/8s, la réduction n'est plus que de 12.95 pixels à 9.11 pixels, ce qui correspond à une baisse de 30%

 

Alors maintenant, mettons un peu en parallèle les deux courbes et voyons un peu ce que ça donne :D

 

Déjà, grâce à du lucky imaging, on peut faire chuter la FWHM d'une étoile de 16.8 pixels au pire à environ 6.3 pixels au mieux ; le piqué final est plus de 2.5 fois meilleur :D


Ces valeurs correspondent à peu de choses près à ce que j'ai pu observer chez les mesures faites par les pros, si je considère des sélections et temps de poses équivalents. Il se pourrait qu'on puisse gagner encore plus, car :
- Mon échantillonnage était un peu limite et a peut-être été facteur limitant de l'amélioration observée
- Je ne suis pas allé dans les valeurs extrèmes, que ce soit en terme de sélection d'image mais surtout en temps 'exposition minimal et maximal. Peut être que l'étoile prise avec des poses de 1 minute aurait une dimension de 20 pixels ou plus... ou peut être qu'on aurait été seulement à 15 et que c'est le vent qui a amplifié la chose.
 

Ensuite, la grande question, qu'on se pose souvent en imageant... vaut-il mieux réduire le temps de pose ou le nombre d'images utilisées ?
Si je prends l'exemple d'un objet réalisé en poses de 1/4s. Passer à des poses de 1/8s engendrera une diminution de FWHM d'environ 6%, alors que passer d'une sélection de toutes les images à seulement la moitié apportera une diminution de 12%. Par contre, passer de 10% des images à 5% des images n'apportera qu'un gain de 3%...

Donc finalement, la méthode utilisée empiriquement par les quelques membres du "club des pose-courtistes" semble être la bonne :D à savoir, un savant mélange de temps de pose bien diminué avec une sélection d'images pas trop drastique. Après ça dépend un peu aussi de ce que l'on veut faire, car sélectionner une moitié d'images prises avec un temps de pose donné ne revient pas exactement à prendre des images avec un temps deux fois plus court... j'y reviendrai certainement plus tard.


Voilà, c'est fini ! félicitations à ceux qui ont tout lu, je pense que je dois avoir la palme du post le plus long aboutissant sur des conclusions que l'on connaissait déjà :D mais bon, vu que je l'ai fait, je le met là, et après, faites-en ce que vous voulez hein ;)

 

Par contre, je prépare une partie 2 avec un autre petit test, là je crois qu'on pourrait avoir des surprises, mais je n'en dis pas plus... ;)

 

A bientôt !

 

Romain

Edited by Roch
  • Like 6
  • Love 1
  • Thanks 2

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com
Posted (edited)
Il y a 7 heures, Roch a dit :

afin de "figer" la turbulence

pas que la turbulence.

Cela rend plus tolérant à des erreurs de suivi, l'accumulation de l'amp glow, la non linéarité des capteurs pour le bruit et la profondeur du puit.

L'amélioration de l'empilement est statistique : proportionnelle à la racine carrée du nombre d'images. Choisir le bon temps de pose est important. Quant à la quantité d'images, je pense qu'on arrive à une limite d'efficacité de l'empilement.

Edited by lyl

Share this post


Link to post
Share on other sites

comme toujours une pertinence absolue

même si je ne suis pas un "imaging man"

une autre remarque que je ferai en voyant les courbes serait qu'on est sur des courbes de type hyperbolique avec une asymptote

soit si on raccourcissait encore le temps de pose, çà n'apporterait pratiquement plus de gain

apparemment à 1/500s il y a encore à gagner

mais d'autres contraintes apparaissent liées au caméra ...

Share this post


Link to post
Share on other sites
Posted (edited)
Il y a 2 heures, astrocg a dit :

soit si on raccourcissait encore le temps de pose, çà n'apporterait pratiquement plus de gain

apparemment à 1/500s il y a encore à gagner

Attention à passer le seuil de capter suffisamment de photons quand même (c'est quantique :p), sinon il va manquer du détail et du contraste.

20ms en CP ça me semble bien peu

Edited by lyl

Share this post


Link to post
Share on other sites

Bonjour,

 

c'est top comme expérimentation !

 

Pour l'allongement des étoiles, ce n'est pas forcément régulier avec le temps de pose. Je sais pas si on peut vraiment en tirer quelque chose quand on raisonne en relatif. Tracer le ratio FWHM X/FWHM Y en fonction du temps de pose donnera une meilleure vision de l’évolution de la rotondité en fonction du temps de pose.

 

Pour le deuxième graphe, l'échelle log en abscisse fausse un peu la lecture je trouve. On a l'impression d'une pente plus importante sur entre 80/90/100% mais sur l’abscisse ces valeurs sont rapprochées. Il serait intéressant d'avoir une échelle linéaire.

 

Merci pour le partage !

Share this post


Link to post
Share on other sites

Superbe expérience, instructive pour moi et avec des résultats chiffrés.

Petit détail :

Il y a 13 heures, Roch a dit :

Une autre donnée, le rapport de Strehl, aurait peut être été préférable afin de rendre compte du seeing de manière plus précise, mais à ma connaissance je n'ai pas de logiciel qui permette de faire cette mesure rapidement sur des séries de plusieurs milliers d'images...

Dans Iris il y a bien la cde "best_strehl" qui produit évidemment le fichier select du classement, mais aussi le fichier score lui quantifiant !

 

Une question peut-être bête : le diamètre du télescope doit aussi avoir une influence. Dans ce cas les courbes restent-elles quelque part proportionnelles ou sont-elles complètement différentes? Là c'est un T250, donc que donnerait un T125 et un T500 en comparaison? 

 

 

Share this post


Link to post
Share on other sites
Posted (edited)

Très joli boulot en effet, j'avais hâte de voir tes résultats Romain.

 

1 hour ago, lyl said:

20ms en CP ça me semble bien peu

 

1/500ème ca fait 2ms secondes de pose, mais bon, hormis ce détail, en effet en CP ça va limiter ferme la magnitude.

 

Il y a un groupe de pro à Cambridge qui travaille sur le Lucky Imaging, et j'avais d'ailleurs piqué des schémas chez eux pour ma page sur la turbulence.

https://www.ast.cam.ac.uk/research/lucky

 

8 hours ago, lyl said:

L'amélioration de l'empilement est statistique : proportionnelle à la racine carrée du nombre d'images

 

Ça c'est vrai mais seulement à rapport signal sur bruit constant. Or le RSB décroît rapidement avec la turbulence.

 

8 hours ago, lyl said:

Quant à la quantité d'images, je pense qu'on arrive à une limite d'efficacité de l'empilement.

 

Il y a pleine d'info intéressante chez eux, et en particulier ici  :

https://www.ast.cam.ac.uk/research/instrumentation.surveys.and.projects/lucky.imaging/latest.results/very.low.mass.binaries

On trouve en bas de cette page ceci :

 

"Even in poor seeing Lucky image selection strategies deliver an improvement in image resolution of as much as a factor of four."


image.png.c9f437a1215252f5f55f7d656dbd9958.png

 

La droite en pointillé représente une pose théorique sans sélection en lucky imaging, les différents points de mesures correspondent à des fréquences de prise d'images différentes (12Hz en bleu, 18Hz en vert et 36Hz en rouge. La FWHM est en ordonnée et la pose en abscisse. On voit que le facteur d'amélioration de la FWHM dépend de la quantité d'image prise pour la sélection (1% à gauche, 100% à droite), et ça peut aller jusqu’à un facteur 4......

 

Très jolis quantification de l'intérêt des poses courtes en tout cas !

 

Edited by brizhell
  • Like 1
  • Thanks 1

Share this post


Link to post
Share on other sites
Posted (edited)
il y a 24 minutes, brizhell a dit :

La FWHM est en ordonnée et la pose en ordonnée

en abscisse pour la pose 

 

x4 : oui, avec l'expérience, j'ai évalué ça aussi, la raison pour laquelle, je ne fais pas des tonnes d'images.

(c'est idéal sur la Lune, alors oui pourquoi pas en CP)

 

Autostakkert d'Emil Kramp fonctionne très bien en planétaire, vous utilisez quoi en CP du coup ? 

Edited by lyl
  • Like 1

Share this post


Link to post
Share on other sites
3 minutes ago, lyl said:

en abscisse pour la pose 

 

Merci je corrige :)

Share this post


Link to post
Share on other sites
Posted (edited)

En % du nombre d'images capitalisées

image.png

 

=> il faut trier, ne prendre que les meilleures.

Je me demande comment est choisie l'image de référence, par globalité (frame complète) ou celle recomposée ?

Le double passe d'AutoStakkert fonctionne plus efficacement mais j'ai pas tout saisi sur la méthode.

 

Celle avec trop de bruit/déchet (ex : à 100% sélection) n'apportent rien, au contraire, ça réduit la qualité de l'empilement.

 

Et pour la fréquence, c'est curieux mais je me demande si ça a un rapport avec ce que j'arrive à prendre sur mon PC quand j'arrive à un bon réglage.

J'ai remarqué en effet que je choppe plus de belles images lunaires quand je capte ~20 images/s 

Edited by lyl

Share this post


Link to post
Share on other sites

 

16 minutes ago, lyl said:

=> il faut trier, ne prendre que les meilleures.

 

Et poser court !

En stellaire, c'est l'écart de la FWHM mesurée à la FWHM théorique dans le télescope (ce qui revient quelque part à considérer le Strehl). J'aurais aussi dut mettre l'autre graphique de la page précitée d'ailleurs qui montre l'effet des poses cumulées sur ce ratio : 

image.png.790c0a7dd0b4935e52dca58a450d308e.png

De 1% d'image additionnées à 100% l'intensité du pic s'effondre..... L'écart entre le 100% et la courbe "Autoguideur" montre l'impact propre de la turbulence. En dessous c'est les erreurs de guidage qui interviennent dans l'élargissement (et l'effondrement) du pic d'intensité.

 

16 minutes ago, lyl said:

Je me demande comment est choisie l'image de référence, par globalité (frame complète) ou celle recomposée ?

 

En planétaire, je ne sais pas bien (je n'ai pas suivi l'évolution de softs planétaires ces dernières années). L'image est découpée en patch et j'imagine que c'est la détection locale des détails les plus fins (via une FFT) qui permet de sélectionner les patch les plus fin d'une séquence, que l'on recombine ensuite pour faire l'image traitée.

J'ai entendu dire qu'Emil Kreikamp est facilement accessible, il faudrait lui poser la question.

 

  • Thanks 1

Share this post


Link to post
Share on other sites
Posted (edited)

Impec, on sent l'expérience propre aux instruments qu'il est nécessaire d'avoir pour établir ces courbes.

Autrement dit, en grand champ je précise, avec un télescope à strehl autour de .81 (un bon newton photo à f/4) tu as intérêt à prendre plus d'images, enfin de diminuer le % par rapport à une bonne lulu dans la bonne plage de couleur. Là, tu peux taper un peu en dessous de 10% (affirmation à la louche) et rester dans la taille de spot.

Edited by lyl

Share this post


Link to post
Share on other sites
Posted (edited)

Merci pour vos retours sympathiques et pour tous ces compliments qui font bien plaisir :)

 

Le 04/10/2019 à 07:38, lyl a dit :

pas que la turbulence.

Cela rend plus tolérant à des erreurs de suivi, l'accumulation de l'amp glow, la non linéarité des capteurs pour le bruit et la profondeur du puit.


Certes, et j'en sais quelque chose, ça fait trois ans que je ne fais que de la pose courte. Néanmoins, les problèmes que tu mentionnes sont plutôt de l'ordre pratique, et ces aspects peuvent avoir un impact négligeable sur les images si c'est bien géré ou si le matériel est adéquat. Ce qui n'est pas vraiment le cas concernant la turbulence...

Bon j'aurais pu en parler certes, mais déjà que j'ai essayé de faire court, et tu vois le résultat... :D

 

Le 04/10/2019 à 07:38, lyl a dit :

Quant à la quantité d'images, je pense qu'on arrive à une limite d'efficacité de l'empilement.


là j'avoue que je ne comprends pas vraiment ce que tu veux dire... tu dis juste avant, à raison, que l'amélioration de l'empilement est proportionnelle à la racine carrée du nombre d'images... donc non il n'y a pas de limite, même si c'est de plus en plus lent.

 

Le 04/10/2019 à 11:41, astrocg a dit :

une autre remarque que je ferai en voyant les courbes serait qu'on est sur des courbes de type hyperbolique avec une asymptote

soit si on raccourcissait encore le temps de pose, çà n'apporterait pratiquement plus de gain

apparemment à 1/500s il y a encore à gagner

mais d'autres contraintes apparaissent liées au caméra ...


Oui l'asymptote concernant le temps de pose est facile à prouver, c'est tout simplement qu'à force de réduire le temps de pose unitaire, la différence d'une image à l'autre devient imperceptible puisque l'image est complètement figée.

 

On devrait également pouvoir trouver une asymptote de l'autre côté de la courbe, dans les valeurs de vitesses les plus lentes. A un moment, augmenter le temps de pose ne dégradera plus l'image ( enfin, c'est ce que j'ai toujours entendu dire... à vérifier ;) )

 

Et concernant l'autre courbe, elle admet également une asymptote horizontale vers la gauche, puisqu'il est prouvé que la turbulence a une probabilité de former par "chance" une image parfaite. Même si cette probabilité est d'autant plus faible que la turbulence est forte ( ou que le diamètre utilisé est grand ) , cela signifie donc qu'en sélectionnant des groupes d'images de plus en plus petits, au bout d'un moment, on ne sera plus limité que par la diffraction de la lumière, qui est une valeur fixe.

 

Le 04/10/2019 à 14:39, Flopin a dit :

Pour l'allongement des étoiles, ce n'est pas forcément régulier avec le temps de pose. Je sais pas si on peut vraiment en tirer quelque chose quand on raisonne en relatif. Tracer le ratio FWHM X/FWHM Y en fonction du temps de pose donnera une meilleure vision de l’évolution de la rotondité en fonction du temps de pose.

 

Si on considère que l'allongement vient de la dispersion atmosphérique, celui-ci devrait-être égal à une valeur fixe même avec un empâtement progressif des étoiles. Donc on devrait avoir une proportion qui diminue, alors qu'en échelle linéaire on peut constater que l'allongement fait toujours la même taille...

 

Le 04/10/2019 à 14:39, Flopin a dit :

Pour le deuxième graphe, l'échelle log en abscisse fausse un peu la lecture je trouve. On a l'impression d'une pente plus importante sur entre 80/90/100% mais sur l’abscisse ces valeurs sont rapprochées. Il serait intéressant d'avoir une échelle linéaire.


J'ai préféré l'échelle logarithmique car cela me semble plus logique : passer de 100% à 50% des images revient au même en terme de RSB perdu que de passer de 10% à 5% des images ; il me semble donc normal que la distance traduisant ces deux "sauts" soit la même sur l'axe X.

Néanmoins, toutes les données chiffrées sont dispo dans le PDF ( lien juste au dessus des images ) donc si ça t'amuse, tu peux faire d'autres courbes et les poster ici, sans problème :)

 

Le 04/10/2019 à 14:51, CPI-Z a dit :

Une question peut-être bête : le diamètre du télescope doit aussi avoir une influence. Dans ce cas les courbes restent-elles quelque part proportionnelles ou sont-elles complètement différentes? Là c'est un T250, donc que donnerait un T125 et un T500 en comparaison? 


Evidemment, la taille de la tache de diffraction a une influence, c'est pour ça que mesurer le rapport de Strehl serait plus logique.
A moins de faire la mesure avec d'autres scopes, difficile à dire ce que ça donnerait... mais j'avais lu quelque part que l'amélioration de la fwhm due a une compensation tip-tilt ( comme ici ) était maximale pour une valeur de D/R0 autour de 7, avec D le diamètre de l'instrument et R0 la taille des cellules de turbulence. Il faudrait que je retrouve le papier en question...

 

Le 04/10/2019 à 15:20, brizhell a dit :

La droite en pointillé représente une pose théorique sans sélection en lucky imaging, les différents points de mesures correspondent à des fréquences de prise d'images différentes (12Hz en bleu, 18Hz en vert et 36Hz en rouge. La FWHM est en ordonnée et la pose en abscisse. On voit que le facteur d'amélioration de la FWHM dépend de la quantité d'image prise pour la sélection (1% à gauche, 100% à droite), et ça peut aller jusqu’à un facteur 4......


EDIT : non rien, j'avais mal compris le graphique... :D  mais c'est vrai que c'est étonnant de ne voir aucune amélioration significative avec la baise de temps de pose. Peut être est-ce le cas dans un ciel très stable... ?


Juste je rajoute ici un pdf très complet sur le sujet que j'aime bien, pour les anglophones qui ont du temps à perdre... beaucoup de choses très intéressantes, je ne comprends pas tout mais je crois avoir saisi l'essentiel :

https://arxiv.org/pdf/1404.5907.pdf

Romain

Edited by Roch

Share this post


Link to post
Share on other sites
Posted (edited)
il y a 22 minutes, Roch a dit :

là j'avoue que je ne comprends pas vraiment ce que tu veux dire... tu dis juste avant, à raison, que l'amélioration de l'empilement est proportionnelle à la racine carrée du nombre d'images... donc non il n'y a pas de limite, même si c'est de plus en plus lent.

Nous sommes allés bien plus loin dans l'explication depuis l'intervention de brizhell

 

2 facteurs incontournables :

a) le minima de pose pour récupérer suffisamment de photons par rapport au bruit caméra.

Les comparatifs annuels de PtGrey en fournisse un tableau.

https://www.google.com/search?client=firefox-b-d&q=MonoCameraSensorPerformanceReview

 

https://www.flir.fr/globalassets/iis/guidebooks/2019-machine-vision-emva1288-sensor-review.pdf

 

b) le passage sous la turbulence qui ne sert plus après un seuil qui tourne autour des 40 images / s.

https://www.ast.cam.ac.uk/research/instrumentation.surveys.and.projects/lucky.imaging/latest.results/very.low.mass.binaries

et que la limite d'amélioration de la qualité d'image approche les 4x de la résolution de base.

 

D'autre part, ne pas oublier que les caméras ont une courbe fréquentielle du Qe

 

C'est sans doute utile de poser court, mais il faut quand même remplir le puit d'électrons pour tirer suffisamment de S/B

J'aime bien les fonds de ciel noir, mais faut quand même qu'il y ait quelque chose à montrer sur l'image.

Edited by lyl
  • Like 1

Share this post


Link to post
Share on other sites
Posted (edited)

Oui, oui, j'ai bien tout lu évidemment, mais je ne comprends toujours pas ladite phrase... tu sous-entend qu'il y a une limite dans l'empilement d'images, or je ne vois rien qui n'aille dans ce sens. Plus d'images feront toujours plus de RSB, qu'on en aie 100 ou 1 million... ( pour des images de qualité similaire bien sûr )

Alors par contre j'avais mal compris ce graphique au dessus... j'édite mon post précédent du coup.
Mais pour y revenir, il se pourrait que le fait que l'on n'obtienne pas de résultats significativement meilleurs à 36 Hz qu'à 18Hz vienne du fait que l'étoile utilisée ne soit pas suffisamment brillante... car détecter moins de photons entraîne une incertitude sur la position de l'étoile qui peut se transformer en effet contre-productif ( point 4.7.3 de ce lien, à partir de la page 78 : https://arxiv.org/pdf/1404.5907.pdf )

Parce que justement d'après mes données, l'amélioration au delà des 18Hz est clairement visible ;)

L'autre explication, comme je l'ai dit au dessus, serait qu'un ciel est stable à 40Hz dans un excellent site, alors qu'un ciel de campagne moyen ne l'est pas.

 

Romain

Edited by Roch

Share this post


Link to post
Share on other sites
il y a 16 minutes, Roch a dit :

tu sous-entend qu'il y a une limite dans l'empilement d'images, or je ne vois rien qui n'aille dans ce sens. Plus d'images feront toujours plus de RSB, qu'on en aie 100 ou 1 million... ( pour des images de qualité similaire bien sûr )

 

Romain,

Ce que tu dis contredit un ou deux principes fondamentaux de la métrologie. B|

Sans utiliser des formulations mathématiques, on va tenter de faire une comparaison.

 

Plutôt que de capter un signal le plus précisément possible et sur un pixel,

on va dire qu'il s'agit de mesurer la longueur d'un objet et ce de façon la plus précise possible aussi !

 

On fait la moyenne de nombreuses mesures pour obtenir la plus grande précision possible ( meilleur RSB ), avec à chaque fois un nouvel opérateur.

 

Supposons que la règle de mesure ait des graduations de 1mm (1ADU),

et bien on pourra faire un millions de mesures moyennées que l'on n'obtiendra pas une précision finale meilleure que 1/5 de mm disons : 1/5 d'ADU pour dire un chiffre.

Il arrivera donc un moment où ça ne sert plus à rien de mesurer et mesurer...

Dans cet exemple quelques centaines de mesures seraient un maximum utile.

( Sans faire de mathématiques, j'ai essayé de faire au plus simple )

 

Lucien

 

Share this post


Link to post
Share on other sites

Lucien,

Je pense qu'on est d'accord en fait. Enfin je crois. Enfin j'espère, sinon ça remettrait pas mal de trucs en question...

Je ne dis pas que c'est utile d'additionner les poses à l'infini, mais que dans l'absolu, la précision augmentera toujours. 

Si je reprends ton exemple, ben pour moi passer de 1 million à 2 millions de mesures permettrait un gain de précision substantiel. Oui, rajouter une mesure après un million aura moins d'impact que d'en rajouter une après 4 mesures, c'est bien pour ça que l'on doit s'arrêter de shooter a un moment donné... faire une heure de pose après 100 heures précédentes est moins utile qu'après 4 heures, c'est pareil.
Mais il n'empèche qu'avec un nombre infini de participants, tu obtiendrais la mesure de ton objet avec une précision parfaite.

Donc pour moi c'est incorrect de dire qu'on atteint la limite... car elle est juste ou on choisit de la mettre, il n'y a pas de valeur charnière. Il y a 10 ans, poser 10h sur un objet paraissait le bout du monde, et aujourd'hui certaines images totalisent plus de 1000h de pose, du coup... ou est-elle la limite ?

Enfin je crois.

Tu me met le doute... :D

Romain

Share this post


Link to post
Share on other sites
il y a 4 minutes, Roch a dit :

Mais il n'empèche qu'avec un nombre infini de participants, tu obtiendrais la mesure de ton objet avec une précision parfaite.

 

Romain,

C'est pour rire ? :D

 

Lucien

Share this post


Link to post
Share on other sites
Posted (edited)

Non pas pour rire... bah j'ai pas bon alors ?
 

Zut je vois pas pourquoi... pourtant ça me paraît tellement évident.

je sais pas, je vois ça comme du pile ou face... si ton objet mesure 14.5mm, ben en moyenne, la moitié va donner 14 et l'autre moitié 15 ( si on suppose qu'ils ne donnent pas plus ou moins ). En augmentant le nombre de lancers de pièce, on augmente la précision  jusqu'à tendre vers 0.5
Si il mesure 14.7, ben la proportion sera différente, mais la proportion donne la mesure...

Edited by Roch

Share this post


Link to post
Share on other sites
Il y a 1 heure, Lucien a dit :

l'on n'obtiendra pas une précision finale meilleure que 1/5 de mm disons : 1/5 d'ADU pour dire un chiffre.

Je confirme, 3 facteurs : la sensibilité, la répétabilité, la graduation (ici l'unité) et au final avec beaucoup de mesure 1/5 est un max (avec obligatoirement une sensibilité 1/10).

 

Le 04/10/2019 à 15:34, brizhell a dit :

De 1% d'image additionnées à 100% l'intensité du pic s'effondre.....

 

Le 04/10/2019 à 13:51, CPI-Z a dit :

Une question peut-être bête : le diamètre du télescope doit aussi avoir une influence. Dans ce cas les courbes restent-elles quelque part proportionnelles ou sont-elles complètement différentes?

 

Il y a 4 heures, Roch a dit :

maximale pour une valeur de D/R0 autour de 7, avec D le diamètre de l'instrument et R0 la taille des cellules de turbulence

 

J'ai voulu regarder cela de plus près et voir si les courbes présentés pouvaient être utilisées directement ...

en re-exploitant une vielle série d'images sur une étoile double au T180 à F32 10000 images de 30.64ms sur un temps total de 2mn 21s

Voici les profils pour la couleur verte (caméra couleur donc 2x plus de pixels verts) sur l'étoile de gauche la plus faible.                           

Profils-vert.png.5fb86422b1e2027b7048b11d7642713c.png

On constate que la FWHM est quasiment la même de 1% à 100% (rayon x10)

Pour le rouge et1-250.PNG.6c79292a4f6de0aaceea6ed628ebcfb8.PNG

 

pour le bleu   et3-250.PNG.7da856b13efaaf392187289d74f1c648.PNG

et aussi quasiment identique de 1% à 100% de 10000 images comme pour le vert. C'est comme un contre exemple :D (le ciel était propre ce jour là)

Image couleur 250i-couleur.zip

 

Donc le diamètre du télescope comme les turbulences jouent un rôle fondamental dans ces courbes. Peut-on donc imaginer un graphe ou abaque diamètre/turbulence pour que ce soit utile ? Sinon on reste juste sur quelques exemples spécifique sans vraie utilité.

 

Share this post


Link to post
Share on other sites
Posted (edited)

@CPI-Z, ca te donne quoi comme échantillonnage ? Tu ne serais pas tout simplement trop proche de l'image de diffraction théorique ? On voit bien le deuxième anneau de diffraction sur tes profils...
ça peut être aussi l'alignement ou la sélection d'image qui n'est pas assez performante.

Le fichier original pèse lourd ?

@Lucien il doit me manquer des connaissances... t'aurais pas un lien qui pourrait m'expliquer ça en détail ? même avec des chiffres et tout hein... :D 

Romain

Edited by Roch

Share this post


Link to post
Share on other sites

 

Romain,

 

il y a 25 minutes, Roch a dit :

 il doit me manquer des connaissances... t'aurais pas un lien qui pourrait m'expliquer ça en détail ? même avec des chiffres et tout h

 

Ces notions sont les bases de la métrologie :

sensibilité, reproductibilité, incertitude de mesure, erreurs aléatoires, erreurs fixes...

Il faudrait chercher avec ses mots clé.

 

En numérique, il faudra ajouter ce dont les amateurs ne parlent pas souvent : bruits fixes, bruit de quantification...

 

J'ai du mal à trouver du simple dans ces domaines et sans mathématiques.:D

 

Lucien

 

Share this post


Link to post
Share on other sites
Posted (edited)
il y a 47 minutes, Roch a dit :

Le fichier original pèse lourd ?

1.6Go

Si tu veux, je peux te le communiquer.

PS caméra QHY5 LIIc : pixels de 3.75micron

Edited by CPI-Z

Share this post


Link to post
Share on other sites
Posted (edited)
il y a une heure, Lucien a dit :

Ces notions sont les bases de la métrologie :

sensibilité, reproductibilité, incertitude de mesure, erreurs aléatoires, erreurs fixes...

Il faudrait chercher avec ses mots clé.


Bon je vais tâcher de trouver réponse avec ça, merci

 

il y a une heure, CPI-Z a dit :

PS caméra QHY5 LIIc : pixels de 3.75micron


Donc échantillonnage de 0.13"/pixel...
La figure théorique de diffraction d'un tube de 180mm sans obstruction a un rayon à mi-hauteur de 0.29" pour une longueur d'onde de 500nm. ( si je me suis pas gouré dans le calcul... )
Ca correspond à environ 2.23 pixels, on est pile dedans... :D

Donc pas de mystère ;)

 

 Et comme attendu, le rayon de l'image "rouge" est légèrement plus large. Celui du bleu n'est pas vraiment plus serré, mais peut être que là la turbu a eu son petit impact...

ça devait être une sacrée nuit :D

Si tu as moyen de comparer les rapports de strehl, là tu aurais peut être une info plus précise sur la qualité de tes brutes et donc moyen de les trier de la meilleure à la moins bonne de manière efficace

Romain

Edited by Roch

Share this post


Link to post
Share on other sites
il y a 11 minutes, Roch a dit :

Celui du bleu n'est pas vraiment plus serré, mais peut être que là la turbu a eu son petit impact...

A mis hauteur le rayon du rouge (500 des profils) est à 3pixel le bleu à 2.5pixel et le vert entre les 2. Ils sont bien dans l'ordre, et si tu regardes les images des 3 couleurs séparées le diamètre des 3 premiers anneaux sombre correspond bien.

Le bleu est moins net cause "mise au point" et aberration chromatique MAK

 

il y a 19 minutes, Roch a dit :

Si tu as moyen de comparer les rapports de strehl

Les images sont classées par best_strehl d'Iris.

Il est fort probable qu'un classement par FWHM donne un autre ordre, mais dans mon exemple sans différence ;)

 

 

Il y a 3 heures, CPI-Z a dit :

un graphe ou abaque diamètre/turbulence pour que ce soit utile

Mais tout cela est sans grande utilité sans graphe ou abaque diamètre/turbulence/nombre d'images pour le meilleur résultat.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By Loup Lunaire
      Bonjour,
       
      Et oui , c'est encore moi...
      J'ai eu le temps de "dialoguer" avec Sélène,  j'ai revissé mon réducteur de focale qui donne des images moyenne toujours avec la même méthode de le monter à l'envers dans la bague T2. Donc une image réduite mais juste assez pour la lune car l’image 'est complètement vigne té.
      Les nuages encore là et laisse un voile, pourtant à l"empilement pas de problème.
       
      Bon ciel lunaire
       

    • By Loup Lunaire
      Bonjour,
       
      Et voilà juste avant que les nuages arrive !
      Tous juste après avoir fini le dessin, c'était encore la course, la quatrième phase de suite.
      Traitements habituel sous ASTROSURFACE et PAINT.NET (pour les textes , logo), je n'utiliserai plus photoshop CS2 qui bug et m'énerve...
       
       


       
       
       
      Bon ciel lunaire

    • By JB
      Bonjour à tous
      Lors de notre dernière mission au T60 avec Laurent Lacote en octobre 2019, j'ai encore pu faire des séries de timelapse...
      J'ai décidé d'en profiter pour faire un timelapse "géant", une sélection de séquences de 2016 à 2019. Avec un peu de zic c'est plus sympa, à regarder sur un écran un peu plus grand qu'un smartphone pour en profiter (c'est du HD en 1080p). Les séquences sont à peu près dans l'ordre chronologique, la dernière partie correspond à la mission d'octobre 2019.
      Matos: Canon 1000D puis 70D, samyang 14mm à F/2.8, poses de 10s à 30S , iso 1600 à 6400...
      Bon voyage à bord du Vaisseau des étoiles  !
       
       
      Des vues d'octobre 2019, au 70D (le gars à la loupiote, c'est Laurent ):
       




    • By Loup Lunaire
      Bonjour,
       
      Nouvelle sorti extra lunaire, hier c'est bien cela continu et autant vous dire que je suis prêt pour ce soir !
      Bien content d'avoir dessiné , mais pas trop satisfait des conditions, carence du ciel en terme de transparence notamment
       
       

       

       
      Bon ciel lunaire
    • By Onhenriquanne
      Bonjour,
      En quête d'un télescope pour de l'observation et un peu d'astrophoto je m'en remet à vous : 
      J'ai un budget serré de 550euros max, je vais droit au but :
      J'ai vu pleins d'endroits où se trouvaient des 150/750 de SW sur EQ3-2 à 400euros sans motorisation, avec une double motorisation on tombe pile sur mon budget. Problème il manque encore le viseur polaire et l'occulaire de collimation (obligatoires pour la photo), donc est-ce que la double motorisation est obligatoire ou une simple est suffisante car elle permet juste de contrôler le 2e axe avec une mannette au lieu d'une télécommande...
      Merci d'avance,
      Onhenriquanne.
  • Images