Roch

La pose courte, quel impact ? Petit test pour un début de réponse...

Messages recommandés

Il y a 7 heures, Roch a dit :

afin de "figer" la turbulence

pas que la turbulence.

Cela rend plus tolérant à des erreurs de suivi, l'accumulation de l'amp glow, la non linéarité des capteurs pour le bruit et la profondeur du puit.

L'amélioration de l'empilement est statistique : proportionnelle à la racine carrée du nombre d'images. Choisir le bon temps de pose est important. Quant à la quantité d'images, je pense qu'on arrive à une limite d'efficacité de l'empilement.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

comme toujours une pertinence absolue

même si je ne suis pas un "imaging man"

une autre remarque que je ferai en voyant les courbes serait qu'on est sur des courbes de type hyperbolique avec une asymptote

soit si on raccourcissait encore le temps de pose, çà n'apporterait pratiquement plus de gain

apparemment à 1/500s il y a encore à gagner

mais d'autres contraintes apparaissent liées au caméra ...

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, astrocg a dit :

soit si on raccourcissait encore le temps de pose, çà n'apporterait pratiquement plus de gain

apparemment à 1/500s il y a encore à gagner

Attention à passer le seuil de capter suffisamment de photons quand même (c'est quantique :p), sinon il va manquer du détail et du contraste.

20ms en CP ça me semble bien peu

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour,

 

c'est top comme expérimentation !

 

Pour l'allongement des étoiles, ce n'est pas forcément régulier avec le temps de pose. Je sais pas si on peut vraiment en tirer quelque chose quand on raisonne en relatif. Tracer le ratio FWHM X/FWHM Y en fonction du temps de pose donnera une meilleure vision de l’évolution de la rotondité en fonction du temps de pose.

 

Pour le deuxième graphe, l'échelle log en abscisse fausse un peu la lecture je trouve. On a l'impression d'une pente plus importante sur entre 80/90/100% mais sur l’abscisse ces valeurs sont rapprochées. Il serait intéressant d'avoir une échelle linéaire.

 

Merci pour le partage !

Partager ce message


Lien à poster
Partager sur d’autres sites

Superbe expérience, instructive pour moi et avec des résultats chiffrés.

Petit détail :

Il y a 13 heures, Roch a dit :

Une autre donnée, le rapport de Strehl, aurait peut être été préférable afin de rendre compte du seeing de manière plus précise, mais à ma connaissance je n'ai pas de logiciel qui permette de faire cette mesure rapidement sur des séries de plusieurs milliers d'images...

Dans Iris il y a bien la cde "best_strehl" qui produit évidemment le fichier select du classement, mais aussi le fichier score lui quantifiant !

 

Une question peut-être bête : le diamètre du télescope doit aussi avoir une influence. Dans ce cas les courbes restent-elles quelque part proportionnelles ou sont-elles complètement différentes? Là c'est un T250, donc que donnerait un T125 et un T500 en comparaison? 

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Très joli boulot en effet, j'avais hâte de voir tes résultats Romain.

 

1 hour ago, lyl said:

20ms en CP ça me semble bien peu

 

1/500ème ca fait 2ms secondes de pose, mais bon, hormis ce détail, en effet en CP ça va limiter ferme la magnitude.

 

Il y a un groupe de pro à Cambridge qui travaille sur le Lucky Imaging, et j'avais d'ailleurs piqué des schémas chez eux pour ma page sur la turbulence.

https://www.ast.cam.ac.uk/research/lucky

 

8 hours ago, lyl said:

L'amélioration de l'empilement est statistique : proportionnelle à la racine carrée du nombre d'images

 

Ça c'est vrai mais seulement à rapport signal sur bruit constant. Or le RSB décroît rapidement avec la turbulence.

 

8 hours ago, lyl said:

Quant à la quantité d'images, je pense qu'on arrive à une limite d'efficacité de l'empilement.

 

Il y a pleine d'info intéressante chez eux, et en particulier ici  :

https://www.ast.cam.ac.uk/research/instrumentation.surveys.and.projects/lucky.imaging/latest.results/very.low.mass.binaries

On trouve en bas de cette page ceci :

 

"Even in poor seeing Lucky image selection strategies deliver an improvement in image resolution of as much as a factor of four."


image.png.c9f437a1215252f5f55f7d656dbd9958.png

 

La droite en pointillé représente une pose théorique sans sélection en lucky imaging, les différents points de mesures correspondent à des fréquences de prise d'images différentes (12Hz en bleu, 18Hz en vert et 36Hz en rouge. La FWHM est en ordonnée et la pose en abscisse. On voit que le facteur d'amélioration de la FWHM dépend de la quantité d'image prise pour la sélection (1% à gauche, 100% à droite), et ça peut aller jusqu’à un facteur 4......

 

Très jolis quantification de l'intérêt des poses courtes en tout cas !

 

Modifié par brizhell
  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 24 minutes, brizhell a dit :

La FWHM est en ordonnée et la pose en ordonnée

en abscisse pour la pose 

 

x4 : oui, avec l'expérience, j'ai évalué ça aussi, la raison pour laquelle, je ne fais pas des tonnes d'images.

(c'est idéal sur la Lune, alors oui pourquoi pas en CP)

 

Autostakkert d'Emil Kramp fonctionne très bien en planétaire, vous utilisez quoi en CP du coup ? 

Modifié par lyl
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
3 minutes ago, lyl said:

en abscisse pour la pose 

 

Merci je corrige :)

Partager ce message


Lien à poster
Partager sur d’autres sites

En % du nombre d'images capitalisées

image.png

 

=> il faut trier, ne prendre que les meilleures.

Je me demande comment est choisie l'image de référence, par globalité (frame complète) ou celle recomposée ?

Le double passe d'AutoStakkert fonctionne plus efficacement mais j'ai pas tout saisi sur la méthode.

 

Celle avec trop de bruit/déchet (ex : à 100% sélection) n'apportent rien, au contraire, ça réduit la qualité de l'empilement.

 

Et pour la fréquence, c'est curieux mais je me demande si ça a un rapport avec ce que j'arrive à prendre sur mon PC quand j'arrive à un bon réglage.

J'ai remarqué en effet que je choppe plus de belles images lunaires quand je capte ~20 images/s 

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

 

16 minutes ago, lyl said:

=> il faut trier, ne prendre que les meilleures.

 

Et poser court !

En stellaire, c'est l'écart de la FWHM mesurée à la FWHM théorique dans le télescope (ce qui revient quelque part à considérer le Strehl). J'aurais aussi dut mettre l'autre graphique de la page précitée d'ailleurs qui montre l'effet des poses cumulées sur ce ratio : 

image.png.790c0a7dd0b4935e52dca58a450d308e.png

De 1% d'image additionnées à 100% l'intensité du pic s'effondre..... L'écart entre le 100% et la courbe "Autoguideur" montre l'impact propre de la turbulence. En dessous c'est les erreurs de guidage qui interviennent dans l'élargissement (et l'effondrement) du pic d'intensité.

 

16 minutes ago, lyl said:

Je me demande comment est choisie l'image de référence, par globalité (frame complète) ou celle recomposée ?

 

En planétaire, je ne sais pas bien (je n'ai pas suivi l'évolution de softs planétaires ces dernières années). L'image est découpée en patch et j'imagine que c'est la détection locale des détails les plus fins (via une FFT) qui permet de sélectionner les patch les plus fin d'une séquence, que l'on recombine ensuite pour faire l'image traitée.

J'ai entendu dire qu'Emil Kreikamp est facilement accessible, il faudrait lui poser la question.

 

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Impec, on sent l'expérience propre aux instruments qu'il est nécessaire d'avoir pour établir ces courbes.

Autrement dit, en grand champ je précise, avec un télescope à strehl autour de .81 (un bon newton photo à f/4) tu as intérêt à prendre plus d'images, enfin de diminuer le % par rapport à une bonne lulu dans la bonne plage de couleur. Là, tu peux taper un peu en dessous de 10% (affirmation à la louche) et rester dans la taille de spot.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci pour vos retours sympathiques et pour tous ces compliments qui font bien plaisir :)

 

Le 04/10/2019 à 07:38, lyl a dit :

pas que la turbulence.

Cela rend plus tolérant à des erreurs de suivi, l'accumulation de l'amp glow, la non linéarité des capteurs pour le bruit et la profondeur du puit.


Certes, et j'en sais quelque chose, ça fait trois ans que je ne fais que de la pose courte. Néanmoins, les problèmes que tu mentionnes sont plutôt de l'ordre pratique, et ces aspects peuvent avoir un impact négligeable sur les images si c'est bien géré ou si le matériel est adéquat. Ce qui n'est pas vraiment le cas concernant la turbulence...

Bon j'aurais pu en parler certes, mais déjà que j'ai essayé de faire court, et tu vois le résultat... :D

 

Le 04/10/2019 à 07:38, lyl a dit :

Quant à la quantité d'images, je pense qu'on arrive à une limite d'efficacité de l'empilement.


là j'avoue que je ne comprends pas vraiment ce que tu veux dire... tu dis juste avant, à raison, que l'amélioration de l'empilement est proportionnelle à la racine carrée du nombre d'images... donc non il n'y a pas de limite, même si c'est de plus en plus lent.

 

Le 04/10/2019 à 11:41, astrocg a dit :

une autre remarque que je ferai en voyant les courbes serait qu'on est sur des courbes de type hyperbolique avec une asymptote

soit si on raccourcissait encore le temps de pose, çà n'apporterait pratiquement plus de gain

apparemment à 1/500s il y a encore à gagner

mais d'autres contraintes apparaissent liées au caméra ...


Oui l'asymptote concernant le temps de pose est facile à prouver, c'est tout simplement qu'à force de réduire le temps de pose unitaire, la différence d'une image à l'autre devient imperceptible puisque l'image est complètement figée.

 

On devrait également pouvoir trouver une asymptote de l'autre côté de la courbe, dans les valeurs de vitesses les plus lentes. A un moment, augmenter le temps de pose ne dégradera plus l'image ( enfin, c'est ce que j'ai toujours entendu dire... à vérifier ;) )

 

Et concernant l'autre courbe, elle admet également une asymptote horizontale vers la gauche, puisqu'il est prouvé que la turbulence a une probabilité de former par "chance" une image parfaite. Même si cette probabilité est d'autant plus faible que la turbulence est forte ( ou que le diamètre utilisé est grand ) , cela signifie donc qu'en sélectionnant des groupes d'images de plus en plus petits, au bout d'un moment, on ne sera plus limité que par la diffraction de la lumière, qui est une valeur fixe.

 

Le 04/10/2019 à 14:39, Flopin a dit :

Pour l'allongement des étoiles, ce n'est pas forcément régulier avec le temps de pose. Je sais pas si on peut vraiment en tirer quelque chose quand on raisonne en relatif. Tracer le ratio FWHM X/FWHM Y en fonction du temps de pose donnera une meilleure vision de l’évolution de la rotondité en fonction du temps de pose.

 

Si on considère que l'allongement vient de la dispersion atmosphérique, celui-ci devrait-être égal à une valeur fixe même avec un empâtement progressif des étoiles. Donc on devrait avoir une proportion qui diminue, alors qu'en échelle linéaire on peut constater que l'allongement fait toujours la même taille...

 

Le 04/10/2019 à 14:39, Flopin a dit :

Pour le deuxième graphe, l'échelle log en abscisse fausse un peu la lecture je trouve. On a l'impression d'une pente plus importante sur entre 80/90/100% mais sur l’abscisse ces valeurs sont rapprochées. Il serait intéressant d'avoir une échelle linéaire.


J'ai préféré l'échelle logarithmique car cela me semble plus logique : passer de 100% à 50% des images revient au même en terme de RSB perdu que de passer de 10% à 5% des images ; il me semble donc normal que la distance traduisant ces deux "sauts" soit la même sur l'axe X.

Néanmoins, toutes les données chiffrées sont dispo dans le PDF ( lien juste au dessus des images ) donc si ça t'amuse, tu peux faire d'autres courbes et les poster ici, sans problème :)

 

Le 04/10/2019 à 14:51, CPI-Z a dit :

Une question peut-être bête : le diamètre du télescope doit aussi avoir une influence. Dans ce cas les courbes restent-elles quelque part proportionnelles ou sont-elles complètement différentes? Là c'est un T250, donc que donnerait un T125 et un T500 en comparaison? 


Evidemment, la taille de la tache de diffraction a une influence, c'est pour ça que mesurer le rapport de Strehl serait plus logique.
A moins de faire la mesure avec d'autres scopes, difficile à dire ce que ça donnerait... mais j'avais lu quelque part que l'amélioration de la fwhm due a une compensation tip-tilt ( comme ici ) était maximale pour une valeur de D/R0 autour de 7, avec D le diamètre de l'instrument et R0 la taille des cellules de turbulence. Il faudrait que je retrouve le papier en question...

 

Le 04/10/2019 à 15:20, brizhell a dit :

La droite en pointillé représente une pose théorique sans sélection en lucky imaging, les différents points de mesures correspondent à des fréquences de prise d'images différentes (12Hz en bleu, 18Hz en vert et 36Hz en rouge. La FWHM est en ordonnée et la pose en abscisse. On voit que le facteur d'amélioration de la FWHM dépend de la quantité d'image prise pour la sélection (1% à gauche, 100% à droite), et ça peut aller jusqu’à un facteur 4......


EDIT : non rien, j'avais mal compris le graphique... :D  mais c'est vrai que c'est étonnant de ne voir aucune amélioration significative avec la baise de temps de pose. Peut être est-ce le cas dans un ciel très stable... ?


Juste je rajoute ici un pdf très complet sur le sujet que j'aime bien, pour les anglophones qui ont du temps à perdre... beaucoup de choses très intéressantes, je ne comprends pas tout mais je crois avoir saisi l'essentiel :

https://arxiv.org/pdf/1404.5907.pdf

Romain

Modifié par Roch
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 22 minutes, Roch a dit :

là j'avoue que je ne comprends pas vraiment ce que tu veux dire... tu dis juste avant, à raison, que l'amélioration de l'empilement est proportionnelle à la racine carrée du nombre d'images... donc non il n'y a pas de limite, même si c'est de plus en plus lent.

Nous sommes allés bien plus loin dans l'explication depuis l'intervention de brizhell

 

2 facteurs incontournables :

a) le minima de pose pour récupérer suffisamment de photons par rapport au bruit caméra.

Les comparatifs annuels de PtGrey en fournisse un tableau.

https://www.google.com/search?client=firefox-b-d&q=MonoCameraSensorPerformanceReview

 

https://www.flir.fr/globalassets/iis/guidebooks/2019-machine-vision-emva1288-sensor-review.pdf

 

b) le passage sous la turbulence qui ne sert plus après un seuil qui tourne autour des 40 images / s.

https://www.ast.cam.ac.uk/research/instrumentation.surveys.and.projects/lucky.imaging/latest.results/very.low.mass.binaries

et que la limite d'amélioration de la qualité d'image approche les 4x de la résolution de base.

 

D'autre part, ne pas oublier que les caméras ont une courbe fréquentielle du Qe

 

C'est sans doute utile de poser court, mais il faut quand même remplir le puit d'électrons pour tirer suffisamment de S/B

J'aime bien les fonds de ciel noir, mais faut quand même qu'il y ait quelque chose à montrer sur l'image.

Modifié par lyl
  • J'aime 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Oui, oui, j'ai bien tout lu évidemment, mais je ne comprends toujours pas ladite phrase... tu sous-entend qu'il y a une limite dans l'empilement d'images, or je ne vois rien qui n'aille dans ce sens. Plus d'images feront toujours plus de RSB, qu'on en aie 100 ou 1 million... ( pour des images de qualité similaire bien sûr )

Alors par contre j'avais mal compris ce graphique au dessus... j'édite mon post précédent du coup.
Mais pour y revenir, il se pourrait que le fait que l'on n'obtienne pas de résultats significativement meilleurs à 36 Hz qu'à 18Hz vienne du fait que l'étoile utilisée ne soit pas suffisamment brillante... car détecter moins de photons entraîne une incertitude sur la position de l'étoile qui peut se transformer en effet contre-productif ( point 4.7.3 de ce lien, à partir de la page 78 : https://arxiv.org/pdf/1404.5907.pdf )

Parce que justement d'après mes données, l'amélioration au delà des 18Hz est clairement visible ;)

L'autre explication, comme je l'ai dit au dessus, serait qu'un ciel est stable à 40Hz dans un excellent site, alors qu'un ciel de campagne moyen ne l'est pas.

 

Romain

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 16 minutes, Roch a dit :

tu sous-entend qu'il y a une limite dans l'empilement d'images, or je ne vois rien qui n'aille dans ce sens. Plus d'images feront toujours plus de RSB, qu'on en aie 100 ou 1 million... ( pour des images de qualité similaire bien sûr )

 

Romain,

Ce que tu dis contredit un ou deux principes fondamentaux de la métrologie. B|

Sans utiliser des formulations mathématiques, on va tenter de faire une comparaison.

 

Plutôt que de capter un signal le plus précisément possible et sur un pixel,

on va dire qu'il s'agit de mesurer la longueur d'un objet et ce de façon la plus précise possible aussi !

 

On fait la moyenne de nombreuses mesures pour obtenir la plus grande précision possible ( meilleur RSB ), avec à chaque fois un nouvel opérateur.

 

Supposons que la règle de mesure ait des graduations de 1mm (1ADU),

et bien on pourra faire un millions de mesures moyennées que l'on n'obtiendra pas une précision finale meilleure que 1/5 de mm disons : 1/5 d'ADU pour dire un chiffre.

Il arrivera donc un moment où ça ne sert plus à rien de mesurer et mesurer...

Dans cet exemple quelques centaines de mesures seraient un maximum utile.

( Sans faire de mathématiques, j'ai essayé de faire au plus simple )

 

Lucien

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Lucien,

Je pense qu'on est d'accord en fait. Enfin je crois. Enfin j'espère, sinon ça remettrait pas mal de trucs en question...

Je ne dis pas que c'est utile d'additionner les poses à l'infini, mais que dans l'absolu, la précision augmentera toujours. 

Si je reprends ton exemple, ben pour moi passer de 1 million à 2 millions de mesures permettrait un gain de précision substantiel. Oui, rajouter une mesure après un million aura moins d'impact que d'en rajouter une après 4 mesures, c'est bien pour ça que l'on doit s'arrêter de shooter a un moment donné... faire une heure de pose après 100 heures précédentes est moins utile qu'après 4 heures, c'est pareil.
Mais il n'empèche qu'avec un nombre infini de participants, tu obtiendrais la mesure de ton objet avec une précision parfaite.

Donc pour moi c'est incorrect de dire qu'on atteint la limite... car elle est juste ou on choisit de la mettre, il n'y a pas de valeur charnière. Il y a 10 ans, poser 10h sur un objet paraissait le bout du monde, et aujourd'hui certaines images totalisent plus de 1000h de pose, du coup... ou est-elle la limite ?

Enfin je crois.

Tu me met le doute... :D

Romain

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 4 minutes, Roch a dit :

Mais il n'empèche qu'avec un nombre infini de participants, tu obtiendrais la mesure de ton objet avec une précision parfaite.

 

Romain,

C'est pour rire ? :D

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

Non pas pour rire... bah j'ai pas bon alors ?
 

Zut je vois pas pourquoi... pourtant ça me paraît tellement évident.

je sais pas, je vois ça comme du pile ou face... si ton objet mesure 14.5mm, ben en moyenne, la moitié va donner 14 et l'autre moitié 15 ( si on suppose qu'ils ne donnent pas plus ou moins ). En augmentant le nombre de lancers de pièce, on augmente la précision  jusqu'à tendre vers 0.5
Si il mesure 14.7, ben la proportion sera différente, mais la proportion donne la mesure...

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, Lucien a dit :

l'on n'obtiendra pas une précision finale meilleure que 1/5 de mm disons : 1/5 d'ADU pour dire un chiffre.

Je confirme, 3 facteurs : la sensibilité, la répétabilité, la graduation (ici l'unité) et au final avec beaucoup de mesure 1/5 est un max (avec obligatoirement une sensibilité 1/10).

 

Le 04/10/2019 à 15:34, brizhell a dit :

De 1% d'image additionnées à 100% l'intensité du pic s'effondre.....

 

Le 04/10/2019 à 13:51, CPI-Z a dit :

Une question peut-être bête : le diamètre du télescope doit aussi avoir une influence. Dans ce cas les courbes restent-elles quelque part proportionnelles ou sont-elles complètement différentes?

 

Il y a 4 heures, Roch a dit :

maximale pour une valeur de D/R0 autour de 7, avec D le diamètre de l'instrument et R0 la taille des cellules de turbulence

 

J'ai voulu regarder cela de plus près et voir si les courbes présentés pouvaient être utilisées directement ...

en re-exploitant une vielle série d'images sur une étoile double au T180 à F32 10000 images de 30.64ms sur un temps total de 2mn 21s

Voici les profils pour la couleur verte (caméra couleur donc 2x plus de pixels verts) sur l'étoile de gauche la plus faible.                           

Profils-vert.png.5fb86422b1e2027b7048b11d7642713c.png

On constate que la FWHM est quasiment la même de 1% à 100% (rayon x10)

Pour le rouge et1-250.PNG.6c79292a4f6de0aaceea6ed628ebcfb8.PNG

 

pour le bleu   et3-250.PNG.7da856b13efaaf392187289d74f1c648.PNG

et aussi quasiment identique de 1% à 100% de 10000 images comme pour le vert. C'est comme un contre exemple :D (le ciel était propre ce jour là)

Image couleur 250i-couleur.zip

 

Donc le diamètre du télescope comme les turbulences jouent un rôle fondamental dans ces courbes. Peut-on donc imaginer un graphe ou abaque diamètre/turbulence pour que ce soit utile ? Sinon on reste juste sur quelques exemples spécifique sans vraie utilité.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

@CPI-Z, ca te donne quoi comme échantillonnage ? Tu ne serais pas tout simplement trop proche de l'image de diffraction théorique ? On voit bien le deuxième anneau de diffraction sur tes profils...
ça peut être aussi l'alignement ou la sélection d'image qui n'est pas assez performante.

Le fichier original pèse lourd ?

@Lucien il doit me manquer des connaissances... t'aurais pas un lien qui pourrait m'expliquer ça en détail ? même avec des chiffres et tout hein... :D 

Romain

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites

 

Romain,

 

il y a 25 minutes, Roch a dit :

 il doit me manquer des connaissances... t'aurais pas un lien qui pourrait m'expliquer ça en détail ? même avec des chiffres et tout h

 

Ces notions sont les bases de la métrologie :

sensibilité, reproductibilité, incertitude de mesure, erreurs aléatoires, erreurs fixes...

Il faudrait chercher avec ses mots clé.

 

En numérique, il faudra ajouter ce dont les amateurs ne parlent pas souvent : bruits fixes, bruit de quantification...

 

J'ai du mal à trouver du simple dans ces domaines et sans mathématiques.:D

 

Lucien

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 47 minutes, Roch a dit :

Le fichier original pèse lourd ?

1.6Go

Si tu veux, je peux te le communiquer.

PS caméra QHY5 LIIc : pixels de 3.75micron

Modifié par CPI-Z

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Lucien a dit :

Ces notions sont les bases de la métrologie :

sensibilité, reproductibilité, incertitude de mesure, erreurs aléatoires, erreurs fixes...

Il faudrait chercher avec ses mots clé.


Bon je vais tâcher de trouver réponse avec ça, merci

 

il y a une heure, CPI-Z a dit :

PS caméra QHY5 LIIc : pixels de 3.75micron


Donc échantillonnage de 0.13"/pixel...
La figure théorique de diffraction d'un tube de 180mm sans obstruction a un rayon à mi-hauteur de 0.29" pour une longueur d'onde de 500nm. ( si je me suis pas gouré dans le calcul... )
Ca correspond à environ 2.23 pixels, on est pile dedans... :D

Donc pas de mystère ;)

 

 Et comme attendu, le rayon de l'image "rouge" est légèrement plus large. Celui du bleu n'est pas vraiment plus serré, mais peut être que là la turbu a eu son petit impact...

ça devait être une sacrée nuit :D

Si tu as moyen de comparer les rapports de strehl, là tu aurais peut être une info plus précise sur la qualité de tes brutes et donc moyen de les trier de la meilleure à la moins bonne de manière efficace

Romain

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 11 minutes, Roch a dit :

Celui du bleu n'est pas vraiment plus serré, mais peut être que là la turbu a eu son petit impact...

A mis hauteur le rayon du rouge (500 des profils) est à 3pixel le bleu à 2.5pixel et le vert entre les 2. Ils sont bien dans l'ordre, et si tu regardes les images des 3 couleurs séparées le diamètre des 3 premiers anneaux sombre correspond bien.

Le bleu est moins net cause "mise au point" et aberration chromatique MAK

 

il y a 19 minutes, Roch a dit :

Si tu as moyen de comparer les rapports de strehl

Les images sont classées par best_strehl d'Iris.

Il est fort probable qu'un classement par FWHM donne un autre ordre, mais dans mon exemple sans différence ;)

 

 

Il y a 3 heures, CPI-Z a dit :

un graphe ou abaque diamètre/turbulence pour que ce soit utile

Mais tout cela est sans grande utilité sans graphe ou abaque diamètre/turbulence/nombre d'images pour le meilleur résultat.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par XavS
      Bonsoir tout le monde,
       
      Enfin, je peux poster quelques images.
       
      Première sortie de l'année sur mon site de l'été à 1 000 M d'altitude. Malgré un voile présent en altitude je ne me suis pas gêné pour photographier le ciel
       
      La cible était la galaxie NGC 4051. C'est une galaxie spirale intermédiaire située dans la constellation de la Grande Ourse. NGC 4051 a été découverte par l'astronome germano-britannique William Herschel en 1788. Elle est située à environ ∼44,5 millions d'A.L.
       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 70 x 300s
      Darks : 7 x 300s
      Offsets : 29 x 1ms
      Flats : 29 x 120ms
      Total : 5 h 50
      Traitement : Sirilic, Siril et Gimp
       
      Et comme à mon habitude, voici un joli quartier de Lune présenté en deux versions.
       

       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 57 sur 231 x 1s
      Traitement : AS4, Astrosurface et Gimp
       
      La galaxie ne me plaît pas trop. Je ne saurais dire pourquoi. Par contre pour mon quartier de Lune, je l'adore
       
      Vos commentaires sont la bienvenue.
       
      Bon ciel à toutes et tous.
       
      XavS
       
    • Par Romain Guillou
      Un ciel laiteux, mais que cela ne tienne, on voit quand même les étoiles, donc s'est repartie pour une cible bien connue :

      M81 et M82, La galaxie de Bode et du Cigare.

      Exifs :
       
      145x120s à 1025iso DOF (20 chacune) + Autoguidage Lunette 60mm Canon 60D Défiltré + CLS SW Quattro 250P et EQ6 r pro Traitement Siril + PS
        Faite à Ronsenac (Charente) depuis mon jardin le 13/04/24


    • Par Andromedae93
      Bonjour à toute la team,

      Dans un soucis d'optimisation du setup et surtout afin de minimiser l'impact du tilt entre autre, j'ai une question à vous poser.
      Actuellement je possède un LACERTA 200/800 (celui-ci : https://lacerta-optics.com/FN2008c-new_200-800-Lacerta-Carbon-Photonewton-zusammengebaut-in) avec un PO Octoplus (celui-ci : https://www.pierro-astro.com/materiel-astronomique/accessoires-astronomie/mise-au-point-focus/porte-oculaires-octoplus-rap-pour-newton-200mm-lacerta_detail).

      Je possède également le correcteur de coma SW GPU à 4 lentilles, plutôt bien indiqué pour les optiques à F4.
      Néanmoins, je pense que ce correcteur installé dans le PO en "glissant" peut générer un peu de tilt et je souhaiterai changer le correcteur pour être sûr du vissant.

      Je pensais à cela :
       
      Correcteur TS GPU : https://www.pierro-astro.com/tsoptics/correcteur-de-coma-ts-optics-gpu-pour-newton-f3-5-a-f6_detail
      Bague adaptatrice : https://www.pierro-astro.com/materiel-astronomique/accessoires-astronomie/bague-adaptatrice-porte-oculaires-filetés-m54x0,75mm-pour-correcteur-de-coma-mpcc-et-tsgpu-ts_detail
       
      Je pense que c'est compatible et que ça permettra de gagne en stabilité ?

      Si vous avez d'autres suggestions, je suis preneur, mais je pense que ça peut être un plus important afin de palier au tilt que j'ai actuellement.

      Merci à vous,

      Valentin
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 28 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

    • Par Phil49
      Bonjour à tous,
       
      Je vais essayer de la faire courte.
       
      Décembre achat d'un Mak 180 d'occase, accompagné d'un P.O Omegon d'occase, d'une nouvelle caméra Player one Mars C-II , une barlow 2x Baader VIP (pas encore montée on verra après).
      Une lunette guide un peu légère je le concède, une SVBony de 200mm avec une ASI 22M montée dessus.
       

       
      Ma monture, une AZ EQ6 qui tourne bien et revenue de chez P.A il y a un an.
       
      Point d'observation : mon observatoire..
       
      Pilotage : mon miniPC Mele Quieter 3Q avec NINA et FireCapture installés et à jour.
       
      J'ai naïvement pensé que mon expérience avec mon RC 8 et ses 1 624mm de focale et F/D10 allaient me donner un point de repère.
       
      Avec lui, P.A, calibration, et tout le toutim en DSO, pas de soucis, que ce soit avec NINA ou un ASIair.
       
      Mais avec le Mak, une vraie cata !
       
      Je sais que pour la phoo lunaire, (usage exclusif auquel je le destine pour le moment), on n'a pas besoin d'un P.A , d'une calibration etc. aux petits onions.
       
      Mais je pensais quand même faire un minimum...
       
      Le P.A, bah impossible, on ne voit qu'une étoile ou deux au mieux, alors je vois bien une ou deux étoiles (je fais tous mes tests sur l'étoile polaire), mais je laisse 5 ou 10 secondes, peut-être pas suffisant !?
       
      Pas de P.A , donc impossible de faire au moins une calibration même si je sais qu'après pour la Lune on s'en fiche je suppose !
       
      Je n'ai pas d'adaptateur dédié pour faire passer ma Player One Mars C-II à la place de la ASI 220MM en 1.75'' sur la lunette guide, il faut que je regarde si cela existe mais je crois que j'avais réussi à trouver un adaptateur, mais je n'arrivais pas à faire la MAP sur la lulu guide, ballot..
       
      Enfin, je me disais, bon eh bien on va essayer de paramétrer la MAP sur NINA (pour affiner), bah que nenni !
       
      J'ai affiné au max avec le bouton de MAP du Mak, puis lancé le module de NINA, mais rien, une courbe à encéphalogramme plat !
       

       
      J'ai essayé plein de valeurs de step size, de 10, 20, 50 , 100, 200, rien !
       
      Laurent d'Explore Astro utilise l'ASIair pour le tracking et fait l'aller et retour avec son PC et FireCapture, n'y a t'il pas d'autre solution ?
       
      Voilà, déjà qu'en 5 mois je n'ai eu que de3 ou 4 nuits max dont celle d'hier, une vraie torture ! :-(
       
      Help !
       
      Philippe
       
       
       
  • Évènements à venir