Messages recommandés

Il y a 12 heures, Nathanael a dit :

Du coup je sors les spots diagramme (c'est bon) et je retrouve des brutes (exceptionnelles) à f4 donc avec le réducteur asa0.73x dont les plus fines étoiles sont à 1.5" (et encore il y a manifestement 0.2" d'allongement en déclinaison) ça veut dire que le correcteur, même s'il est mal réglé(!?!), donne (malheureusement une seule fois en plusieurs années) des images sur 5mn de pose en luminance avec une fwhm de 1.3"!

Bonjour Nathanaël,

Merci pour tes explications et ta patience :)

Je vais reformuler ta question initiale pour voir si j'ai bien compris :

(1) quand les conditions sont "bonnes", le rapport F/D ne joue pas sur la FWHM mesurée, puisque la meilleure valeur obtenue pour chaque rapport F/D tourne de 1.8 arsec.

(2) quand les conditions sont "autres", alors il semble y avoir une tendance à l'amélioration du FWHM quand le rapport F/D augmente.

 

Si c'est bien cela, alors la question me semble de savoir qu'est-ce qui distingue des conditions "bonnes" des conditions "autres". J'ai bien peur que cela risque d'être difficile à trancher car on n'était pas là quand tu as fait les images et on ne connait pas finement ton matériel. Est-qu'il s'agit d'un biais de sélection (= tu as mis la Barlow quand le seeing était bon?), est-ce que tu as fait des améliorations du télescope entre temps ? est-ce que le seeing était de même qualité pour les différentes images ? est-ce que la qualité du suivi était équivalent ? est-ce qu'il y a des problèmes de tenue mécanique ? etc.

Bref, la liste peut-être extrêmement longue. Mais la chose rassurante, c'est que lorsque les conditions sont "bonnes" le rapport F/D n'a pas d'influence sur la FWHM.

 

Cela étant, je n'ai peut être pas bien compris la question.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, Lucien a dit :

Il y a une aberration (tendance triangle) qui semble disparaitre en passant à FD=10 avec la Barlow.

C'est assez étrange.

Oui, c'est pour ça que je veux le refaire avec le télescope parfaitement collimaté.

Les avantages de cette expérience c'est que d'une part elle est très facilement reproductible par tous au cours d'une séance d'imagerie (il suffit de poser un carton sur le tube qui vise au zénith), très rapide (quelques images de 10s à 1minute suffisent) et d'autre part elle met hors de cause les problèmes de mise au point, de train optique etc... En plaçant le trou à différents endroits du tube, on peut même s'affranchir du problème de la qualité globale du miroir (si c'est bon en différents endroits de la surface, ça doit être bon sur toute la surface. On pourra toujours me dire que les surfaces élémentaires ne sont peut-être pas reliées entre elles, mais si nous sommes plusieurs à faire le test avec des résultats convergents, ça réglerait le problème.

Théoriquement, la fwhm devrait être plus grande avec le diaphragme que sans le diaphragme (influence du diamètre) sauf si... le f/d rentre en compte, à cause de la turbulence.

Nathanaël

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Au fait, si tu pouvais me passer (par mail privé) le tableau sous forme EXCEL cela permettrait d'analyser la chose plus facilement.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, christian viladrich a dit :

Je vais reformuler ta question initiale pour voir si j'ai bien compris :

(1) quand les conditions sont "bonnes", le rapport F/D ne joue pas sur la FWHM mesurée, puisque la meilleure valeur obtenue pour chaque rapport F/D tourne de 1.8 arsec.

(2) quand les conditions sont "autres", alors il semble y avoir une tendance à l'amélioration du FWHM quand le rapport F/D augmente.

Voilà, c'est ça. Ce que je pressens, c'est que l'augmentation du f/d diminue (un peu) l'influence de la turbulence. Je voudrais juste comprendre pourquoi.

 

il y a 35 minutes, christian viladrich a dit :

Si c'est bien cela, alors la question me semble de savoir qu'est-ce qui distingue des conditions "bonnes" des conditions "autres"

 

Pour moi c'est juste le seeing plus ou moins bon. Mais entendons nous bien si le seeing est pourri, c'est pourri dans tous les cas. S'il n'y a "pas" de turbulence c'est bon dans tous les cas. D'ailleurs mes meilleures brutes sont surement celles à f/4 sur vdb141 un peu plus haut. Une nuit "sans" turbulence...

Sauf que dans l'immense majorité des cas, le seeing est moyen et ce n'est pas rien de gagner 0.2" voire 0.4" en mettant une barlow. Il y a des gens qui mettent beaucoup plus de moyens que ça pour gagner quelques dixièmes de " aux alentours des 2" ;)

 

il y a 35 minutes, christian viladrich a dit :

 J'ai bien peur que cela risque d'être difficile à trancher car on n'était pas là quand tu as fait les images et on ne connait pas finement ton matériel. Est-qu'il s'agit d'un biais de sélection (= tu as mis la Barlow quand le seeing était bon?), est-ce que tu as fait des améliorations du télescope entre temps ? est-ce que le seeing était de même qualité pour les différentes images ? est-ce que la qualité du suivi était équivalent ? est-ce qu'il y a des problèmes de tenue mécanique ? etc.

 

Je change régulièrement de configuration en fonction des objets de saison, mais rien de tout ça ne varie. Il peut y avoir une incertitude sur la map à f/4 (à faire mieux qu'au 1/100mm?) et sur le seeing en fonction des saisons. C'est pour ça qu'une expérience comme celle en fin de 6ème page est intéressante. Elle élimine ces variables. Et comme c'est reproductible, elle élimine aussi ma partialité ;)

 

Nathanaël

 

PS : ok pour le fichier excell, mais je ne l'ai pas là.

Modifié par Nathanael

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Nathanael a dit :

Voilà, c'est ça. Ce que je pressens, c'est que l'augmentation du f/d diminue (un peu) l'influence de la turbulence. Je voudrais juste comprendre pourquoi.

Cela me parait compatible avec le fait que les rayons lumineux périphériques à l'optique percutent les cellules du capteur CCD sous un angle maximum 5 fois plus faible à F/D20 qu'à F/D4 (1.43° pour 7.1°), mais calcul fait, l'impact est très faible sur la trace laissée par le rayon lumineux sur la cellule du capteur.

Pour un faisceau lumineux de 1" d'arc de diamètre angulaire à F4, sur des cellules CCD donnant un échantillonnage de 1" d'arc/pixel, la trace sur le capteur est augmentée au 8/1000 à F/D4 contre 3/10000 à F/D20. C'est négligeable, sauf qu'à F/D20 l'échantillonnage est 5 fois plus fort qu'à F/D4 pour reconstituer mathématiquement la tache d'Airy due au seeing, ce que doit moins fausser les calculs, du fait de la reconstruction de l'image avec les valeurs de 25 pixels à F/D 20 sur 1 seul pixel à F/D4. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut ici :)

Bon je reviens avec des mesures effectuées sur le ciel samedi dernier... qui montrent en fait que le backfocus indiqué par les constructeurs est le bon :D c'est moi qui étais dans le faux, sur mes images ratées des jours précédents le backfocus était mauvais. Pourtant je m'y étais repris à plusieurs fois pour vérifier la distance, mais je n'avais pas le chiffre correct du tirage de la caméra, ce qui n'aide pas...

Néanmoins je vais partager mon test quand même car ça reste instructif je trouve.

@Nathanael j'espère que ça ne te dérange pas que je poste ici, mais comme tous les intervenants sont là et que ça rejoint quand même pas mal ton sujet, je me dis que c'est le plus simple.
Si ça t'ennuie, dis le moi, je supprime et je fais un post dédié.

Résumé : je cherche à mesurer si une variation du backfocus de mes correcteurs de champ empâte ou améliore l'image. Je m'intéresse ici uniquement piqué au centre du champ, donc pas aux aberrations que l'on cherche à corriger en général avec un correcteur de champ. ( coma et courbure ) mais plutôt à l'aberration de sphéricité qu'une telle épaisseur de verre supplémentaire dans la chaine optique est susceptible d'ajouter. 

Protocole : je réalise des films de l'étoile polaire en pose très courte ( moins de 1ms ) avec un filtre R610, puis je sélectionne les 10% meilleures images, les aligne et les empile afin d'obtenir une image aussi dénuée de turbulence atmosphérique que possible. L'avantage de l'étoile polaire étant qu'elle reste à la même hauteur, donc la turbulence ne variera pas dans le temps à cause de ça. Evidemment, d'autres facteurs peuvent faire varier la turbulence dans le temps, mais je n'ai pas trouvé mieux pour comparer;)

Je fais des films d'environ 1000 images en décalant le backfocus du correcteur de champ de 5mm entre chaque film et en refaisant la mise au point du mieux possible évidemment. Je fais ça avec le correcteur GPU x1 et avec le correcteur ASA x0.73

Voilà le résultat de la mesure de la FWHM réalisée avec SIRIL, par un processus automatique ( pas de sélection manuelle avant le calcul de la fwhm car j'ai remarqué d'expérience que cela influe sur le résultat )
La FWHM est exprimée en pixels, mesurée après un alignement en drizzle x2 puis empilement par somme ( il faut donc diviser le nombre par 2 pour obtenir la valeur réelle en pixels "d'origine" ) ; le premier chiffre est la fwhm mesurée sur la plus grand diamètre de l'ellipse formée par l'image de l'étoile, et le second chiffre sur le plus petit diamètre.

Donc pour le correcteur GPU, j'ai :
 

49mm : 6.82 / 6.25 ( valeur peu sûre car en passant à 54mm, j'ai constaté une amélioration du piqué mais également que ma collim n'était pas parfaite et j'ai donc recollimaté légèrement après cette prise )
54mm : 4.12 / 4.07
59mm : 4.36 / 4.34
64mm : 5.69 / 5.45

et pour le ASA, j'ai :

49mm : 6.55 / 6.39
54mm : 4.45 / 4.38
59mm : 3.59 / 3.36
64mm : 4.44 / 4.42

Les backfocus "constructeur" recommandés pour mon setup sont environ de 54.5mm pour le GPU et de 66mm pour le ASA ; cependant la lentille de ce dernier étant enfoncée de 7mm environ dans le filetage, je dirais qu'il me faut une longueur de tube "réelle" d'environ 59mm.
En observant les chiffres, on voit donc bien que le piqué au centre de l'image est maximal pour les valeurs de backfocus annoncées ; le piqué semble admettre un minimum quelque part entre 54 et 59mm pour le GPU ( plus proche de 54mm ), et quelque part autour de 59mm pour le ASA
Il serait intéressant que je retente la chose en déplaçant de 1mm à chaque fois plutôt que 5mm ; j'avoue que je ne m'attendais pas à obtenir un résultat aussi facilement lisible. Cependant ce sont des mesures qui prennent du temps :D donc je crois que je vais m'abstenir puisque finalement les chiffres annoncés et mesurés semblent correspondre.

On remarque aussi que j'obtiens une fwhm de 1.75 au minimum avec le correcteur ASA... pas mal ;)


Mais donc conclusion principale : respectez les chiffres donnés par les constructeurs, ça semble bien fonctionner :D
 

Romain

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 6 heures, Roch a dit :

Il serait intéressant que je retente la chose en déplaçant de 1mm à chaque fois plutôt que 5mm

 

Je te conseille vivement de le faire, sur certain correcteur ça se joue effectivement au mm près :-)

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 12 heures, Roch a dit :


@Nathanael j'espère que ça ne te dérange pas que je poste ici, mais comme tous les intervenants sont là et que ça rejoint quand même pas mal ton sujet, je me dis que c'est le plus simple.
Si ça t'ennuie, dis le moi, je supprime et je fais un post dédié.

Laisse, il y a eu pas mal de digressions déjà ;)

En échange, je compte sur toi pour mettre un carton percé d’un trou excentré de 200mm sur ton scope, de faire deux ser à la suite avec et sans carton  sans retoucher la map. :)
Nathanaël 

Modifié par Nathanael
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Sur le calcul de la FWMH

Ici trois captures d'écran HIP 50433A, étoile étalon, vue sur la forme de tache d'Airy (lunette Apo LZOS 152mm 1200 avec ASI 224MC), image agrandie à 800%

 

E=0.645"/p

152/1200 F/D=7.9.

image.png.bcbd358d19ca762b91e51e9cacbb63b8.png

 

E=0.277"/p

152/2789 soit F/D:18.3

image.png.c5a04a3ce6d8cedf85ed128d858f801b.png

 

E=0.185"/p

152/4176 soit F/D:27.5

image.png.62c731557cda2e8bf8047699e3a96e57.png

 

Le logiciel qui serait en mesure de me donner une valeur de FWMH identique dans ces trois configurations doit-être sacrement performant.

ClaudeS

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, Anton et Mila a dit :

Le logiciel qui serait en mesure de me donner une valeur de FWMH identique dans ces trois configurations doit-être sacrement performant.

Tu peux m'envoyer les .fit (ou au moins un petit morceau avec les étoiles, fenêtrées avec iris par exemple) en mp que je regarde avec les différentes solutions?

Nathanaël

Partager ce message


Lien à poster
Partager sur d’autres sites

Remis à la même taille, c'est intéressant déjà (et ce n'est pas du binning, c'est juste redimensionné...) :

 

Capture.JPG

Modifié par Nathanael

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour,

 

Le plus gros biais expérimental que je vois à cette manip est celui de l'effet que produit l'interposition d'une Barlow.

Il ne me semble pas impossible que le fait d'interposer une Barlow puisse améliorer la finesse (dans l'absolu) des images.

Autrement dit une Barlow pourrait corriger un peu l'instrument principal qui ne serait pas optiquement parfait.

( Il existe des correcteurs pour ça et donc c'est un effet possible. )

Dit autrement, les caractéristiques de l'un pourraient en partie compenser les défauts de l'autre : par hasard !

Si des spécialistes de l’optique passent par ici, ils pourraient me corriger ou compléter ce que j’écris. B|

 

Ou alors reproduite la procédure avec d'autres instruments, autres formules optiques et autres Barlow.

 

Ceci dit c'est intéressant tout ça !

 

Lucien

Modifié par Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 10 heures, zeubeu a dit :

 

Je te conseille vivement de le faire, sur certain correcteur ça se joue effectivement au mm près :-)

 

Je ferai, pendant la prochaine pl si j'ai du ciel ;)

 

Il y a 10 heures, Nathanael a dit :

En échange, je compte sur toi pour mettre un carton percé d’un trou excentré de 200mm sur ton scope, de faire deux ser à la suite avec et sans carton  sans retoucher la map.

 

je ferai aussi.

En revanche, je suppose que l'idéal est en pose longue et sans sélection ?

Parce que avec mon protocole décrit plus haut je descend sous 0.6" de fwhm donc impossible qu'un T200 fasse mieux :D

 

 

Ça rejoint peut-être ce que tu veux dire, mais j'avais lu des études pour déterminer le diamètre idéal pour du lucky imaging en fonction du seeing ( ou du paramètre r0 ce qui revient au même )

rappel : le r0 est la dimension correspondant à l'instrument qui donnerait une image de diffraction de la taille du seeing. Donc par exemple, avec un seeing de 2" dans le vert, le r0 est de 60mm car le pouvoir séparateur d'un instrument de 60mm est 2".

 

Et le résultat était que le rapport ( diamètre instrumental ) / r0 idéal pour faire du lucky imaging était autour de 7. Donc, par un seeing de 2" encore une fois, en faisant du lucky imaging un instrument de 420mm de diamètre est idéal.

Après là on parle de "lucky imaging" comme l'entendent les pros, c'est à dire à 200 fps. Pas à 2 fps :D

 

Si vous voulez en savoir plus, pour les anglophones je conseille l'excellent papier "Lucky imaging : beyond binary stars" par Tim Staley ; ce dont je parle est mentionné page 27 et renvoie vers un autre papier antérieur ( que j'ai lu aussi :D )

 

Bon, 160 pages d'expériences et de protocoles pour du lucky imaging... faut s'accrocher ;) mais c'est hyper intéressant ; je l'ai lu plusieurs fois et à chaque fois j'en comprends davantage.

 

Romain

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, Lucien a dit :

Le plus gros biais expérimental que je vois à cette manip est celui de l'effet que produit l'interposition d'une Barlow.

Dans l'expérience du diaphragme, pas besoin de barlow. Un instrument ouvert à f4, un diaphragme D/2.5 (excentré si secondaire...) pour le mettre à f/10 et le tour est joué. Je suis d'accord que plus on met de lentilles dans le train optique, plus on risque de tomber sur un biais.

 

il y a une heure, Roch a dit :

En revanche, je suppose que l'idéal est en pose longue et sans sélection ?

Oui pour intégrer la turbu pour se retrouver dans mon cas (10s doivent suffire) et on peut faire plusieurs poses pour voir si c'est cohérent.

 

Il y a 1 heure, Roch a dit :

Parce que avec mon protocole décrit plus haut je descend sous 0.6" de fwhm donc impossible qu'un T200 fasse mieux

Et ben essaye quand même, tu risques d'être surpris, et à défaut ce sera instructif, si en pose courte ça ne change rien alors qu'en pose longue oui.

 

Nathanaël

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, Roch a dit :

Et le résultat était que le rapport ( diamètre instrumental ) / r0 idéal pour faire du lucky imaging était autour de 7

Si c'est ce genre de courbe que tu cherches, je ne suis pas sûr que l'on puisse parler d'un diamètre idéal :

image.png.cfea2ed413a2aabbc0ccb377200c8a8a.png

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, Nathanael a dit :

Et ben essaye quand même, tu risques d'être surpris, et à défaut ce sera instructif

 

La fwhm de l'image de diffraction idéale d'un 200mm est de 0.6" dans le vert, un peu plus dans le rouge. Donc à moins de changer les lois de l'optique, aucun moyen de faire mieux que ça avec mon filtre r610 et un 200mm ;)

mais j'essayerai quand même comme tu dis, ce sera toujours instructif.

 

Il y a 1 heure, christian viladrich a dit :

Si c'est ce genre de courbe que tu cherches, je ne suis pas sûr que l'on puisse parler d'un diamètre idéal :

 

Oui mais ce que ta courbe ne montre pas, c'est que bien que le rapport de strehl diminue avec le diamètre, la résolution augmente ( au moins au début ) si on suppose le seeing constant.

Un télescope de 400mm avec un rapport de strehl de 0.2 aura une meilleure résolution angulaire qu'une lunette de 60 à 0.5.

 

Si je cite une thèse de 2003 ( Tubbs ) voilà ce que ça dit :

 

"If the best 1% of exposures are selected, Hecquet & Coupinot (1985) showed that the

Strehl resolution achieved is greatest for apertures with diameters between 4r0 and 7r0.

The Strehl resolution decreases relatively quickly for apertures larger than 7r0"

 

Bon malheureusement je n'ai pas trouvé accès pour la thèse originale ( en français en plus, dommage ;) )

Mais j'avais une autre référence aussi qui tendait vers ce chiffre "optimal" à 7r0, mesures à l'appui. Je ne retrouve plus.

 

Donc pour résumer, ça signifie qu'avec un seeing de 2" dans le vert, on obtiendra la meilleure résolution possible en lucky imaging avec un scope de 420mm. ( 60mm x 7 )

Si on met plus ou moins, ce sera moins bon.

 

Après en pratique, en cp on manque toujours de lumière donc le diamètre plus gros gardera son avantage quand même.

ça rejoint un peu le point de @Nathanael et son diaphragme... peut être qu'en pose longue ce rapport d/r0 optimal n'est pas le même ?

 

Edit : à la réflexion je ne suis pas sûr que le passage cité corresponde exactement à ce que j'avance... ?

Bref je continue à chercher.

 

Romain

Modifié par Roch

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, Roch a dit :

Parce que avec mon protocole décrit plus haut je descend sous 0.6" de fwhm donc impossible qu'un T200 fasse mieux

 

il y a 22 minutes, Roch a dit :

La taille de l'image de diffraction idéale d'un 200mm est de 0.6" dans le vert, un peu plus dans le rouge. Donc à moins de changer les lois de l'optique, aucun moyen de faire mieux que ça avec mon filtre r610 et un 200mm

 

Je vois ce que tu veux dire. Mais l'idée, c'est quand même de faire du ciel profond, donc quelque soit la technique, il faudrait quand même viser la minute de poses cumulées. C'est sûr que si tu élimines complètement la turbulence en sélectionnant une image de 2ms exempte de remous ( ;)), l'expérience que je propose n'a plus de sens car mon propos est bien de dire que l'allongement du f/d rend moins sensible l'instrument à la turbulence justement.

 

il peut y avoir une vraie différence de ce point de vue entre poses courtes et poses longues.

 

Quand tu auras trouvé un carton assez grand :D et fait la map, je te propose donc de faire d'une part des poses de 1mn si possible sinon une dizaine de seconde, et d'autre part 1mn cumulée avec un temps de pose compatible cp comme sur le héron par exemple et sélection pour cumuler 1 mn ou 10s et comparer tout ça. Et il faut que ça turbule un peu quand même mais ça je ne suis pas trop inquiet ;)

 

Nathanaël

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, Nathanael a dit :

 

Quand tu auras trouvé un carton assez grand

oui c'est ça qui m'inquiète :D

 

Je ferai ça pendant la prochaine pl ! là je préfère tenter m64 ;)

 

Romain

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Je ne sais pas cela peut faire avancer le débat mais on peut déterminer la probabilité d'avoir une image à Lambda/6.28 (erreur de front d'onde inférieur à 1 radian ) en fonction du diamètre et du seeing, comme ça on a une valeur de r0 à partir de laquelle la probabilité est 100% (P=1/1) et ce pour chaque diamètre d'instrument considéré.

 

C'est ici à la page 200 : http://www.astropriorat.com/descargas/observatory_handbook_I.pdf

A lire aussi : http://www.astrosurf.com/cavadore/optique/turbulence

Partager ce message


Lien à poster
Partager sur d’autres sites

Cela vaut ce que cela vaut.....désolé, pas très scientifique....

 

dans le cas que j'ai mentionné plus haut, il y aurait une dégradation  de la fwmh avec les barlows 2X et 3X mais c'est faible. La turbulence était très moyenne. j'ai eu bien mieux en seeing avec des r0 de 15cm ici. Par contre, comment se fait le calcul par logiciel? En ayant beaucoup plus de points, il pourrait moins se tromper avec la turbulence, si elle semble se "figer" avec la focale. Est-ce une vrai donnée observable? C'est quelque chose que je pourrai faire un jour avec une vidéo.....en visuel, j'ai quand même ce sentiment au-delà de 2D avec l'étalement de la figure d'Airy.

PS théorique: 0.9" Rayleigh

 

E=0.185"/p

152/4176 soit F/D:27.5

16p, et FWMH:8p soit 1.48"

image.png.c784aa54355bd7316c44dc783123f1f4.png

 

E=0.277"/p

152/2789 soit F/D:18.3

11p soit fwmh 5p soit 1.38"

image.png.d53b62b299b993a5629fcdd33f6d32dc.png

 

E=0.645"/p

152/1200 F/D=7.9.

4p, fwmh 2p soit 1.29"

image.png.8680cd2f4938dcbfd869e8886d61e1da.png

 

 

 

Modifié par Anton et Mila

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour,

Je reviens vous faire part d'une expérience toute simple. Comme je suis repassé à f/4 pour les nébuleuses de l'été (avec une belle semaine de beau temps sans lune!), j'ai pris le temps de faire 8 images de 1mn à la suite au zénith avec le newton 245/962 (asa0.73) et la 183mm + filtre L.

J'ai fait (dans l'ordre) deux images avec un diaphragme à 100mm (f/d10) hors de l'axe ( ici)  puis deux images pleine ouverture, puis deux à 100mm puis deux pleine ouverture.

La fwhm moyenne de 4 étoiles sur les 4 images avec le diaphragme de 100mm d'ouverture est de 3.36 pixels soit 1.73" et elle est de 4.61 pixels soit 2.37" sur les mêmes étoiles des 4 images pleine ouverture. Remarque : le setup pleine ouverture n'est pas à remettre en cause optiquement (voir ).

Ci-dessous les mesures sur astroart. J'ai mis les brutes.fit ici pour pouvoir comparer avec d'autres logiciels, astroart semble maximiser la différence.

Pour moi, il y a bien diminution de la fwhm avec l'augmentation du f/d (s'il y a turbulence sensible donc la plupart du temps), d'autant plus qu'on aurait plutôt pensé perdre avec le diamètre plus faible.

Expérience vraiment facile et rapide à reproduire avec un simple trou dans un carton (pour ceux qui sont un peu ouvert car passer de 12 à 30 ne change rien, j'avais essayé avant de revenir à f4).

Nathanaël

 

 

 

 

 

250-1.JPG

250-2.JPG

250-3.JPG

250-4.JPG

250-5.JPG

250-6.JPG

250-7.JPG

250-8.JPG

Modifié par Nathanael

Partager ce message


Lien à poster
Partager sur d’autres sites

Tu ne crois pas tout simplement que c'est le strehl de l'image qui est en cause? Hors axe, ton strehl est bien meilleur qu'à pleine ouverture, du fait de l'obstruction. Je vois sur les images pleine ouverture le premier anneau bien plus brillant que sur les images hors axe. Le logiciel doit prendre en compte le premier anneau quand il est très brillant et mettre la FWMH hors des clous. L'augmentation du F/D entre 250mm (4) et 100mm (10) et l'augmentation de la taille de la tache Airy (5µm à 12µm) dans le vert n'est pas suffisant pour compenser l'erreur de lecture du logiciel du fait du premier anneau pris en compte dans un cas et non dans l'autre..

Modifié par Anton et Mila

Partager ce message


Lien à poster
Partager sur d’autres sites

Possible, j’essayerais en posant plus longtemps avec le diaphragme pour compenser ce biais.

Nathanaël

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Astramazonie
      Bonjour les Astros, 
       
      Petite prise du "CASQUE DE THOR" qui date d'une semaine, que je pensais perdu dans les abysses des clichés mais qui a pu être récupérée, toujours au Seestar 20 minutes de pose.
       
      Merci à @Bob Saint-Clar pour son aide pour le traitement ... et le sauvetage de cette photo.
       

       

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 65,8 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

    • Par XavS
      Bonsoir tout le monde,
       
      Enfin, je peux poster quelques images.
       
      Première sortie de l'année sur mon site de l'été à 1 000 M d'altitude. Malgré un voile présent en altitude je ne me suis pas gêné pour photographier le ciel
       
      La cible était la galaxie NGC 4051. C'est une galaxie spirale intermédiaire située dans la constellation de la Grande Ourse. NGC 4051 a été découverte par l'astronome germano-britannique William Herschel en 1788. Elle est située à environ ∼44,5 millions d'A.L.
       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 70 x 300s
      Darks : 7 x 300s
      Offsets : 29 x 1ms
      Flats : 29 x 120ms
      Total : 5 h 50
      Traitement : Sirilic, Siril et Gimp
       
      Et comme à mon habitude, voici un joli quartier de Lune présenté en deux versions.
       

       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 57 sur 231 x 1s
      Traitement : AS4, Astrosurface et Gimp
       
      La galaxie ne me plaît pas trop. Je ne saurais dire pourquoi. Par contre pour mon quartier de Lune, je l'adore
       
      Vos commentaires sont la bienvenue.
       
      Bon ciel à toutes et tous.
       
      XavS
       
    • Par Romain Guillou
      Un ciel laiteux, mais que cela ne tienne, on voit quand même les étoiles, donc s'est repartie pour une cible bien connue :

      M81 et M82, La galaxie de Bode et du Cigare.

      Exifs :
       
      145x120s à 1025iso DOF (20 chacune) + Autoguidage Lunette 60mm Canon 60D Défiltré + CLS SW Quattro 250P et EQ6 r pro Traitement Siril + PS
        Faite à Ronsenac (Charente) depuis mon jardin le 13/04/24


  • Évènements à venir