jldauvergne

Correction de la turbu par PSF.

Messages recommandés

Non c'est le contraire, AIDA permet de sortir des détails très ténus (voir le lien donné par brizhell) mais sa configuration n'est pas évidente. S'il y a un algorithme à étudier c'est bien celui-là.

Pourrais-tu créer un accès internet avec différents répertoires correspondant chacun à un projet ?

L'autre problème que tu soulèves concerne la réalisation d'images très réalistes pour sortir par exemple des jujus comme avec le télescope spatial.
Il faut bien différentier la mise en évidence des détails (AIDA) de leur mise en relief (algorithme à définir).

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut a tous,

je confirme ce que dit ms, il faut séparer les problèmes : l'algo AIDA est spécifiquement fait pour sortir les détails les plus ténus, non pour travailler à leur mise en évidence (ce que fait spécifiquement les travail avec la ondellettes).
Je suis actuellement dessus, et la paramétrisation de la PSF en traitement myope est loin d'être triviale.
Tout dépend de la manière dont on s'y prend au départ, l'hypothèse de base est que la forme approximée de la PSF de départ doit être la plus vraissemblable pour "trier" l'information déjà présente jusqu'a la limite de résolution réelle (et non dépendante du critère de la tache d'Airy). En clair, cela veut dire que tout repose sur la vraissemblance de la PSF utilisée, qu'elle soit générée de manière hypothétique, ou mesurée réellement sur un lot d'images. Si on ne part pas de cette hypothèse, l'algo peut converger vers une "fausse solution"
Sur des images compositées, le problème est que la PSF résultante sera spatialement "diluée", donc de plus en plus éloignée de la PSF théorique. Son approximation sera la plus vraissemblable sera une PSF dont la taille correspondra à celui donné par un télescope de diamètre égal a la taille de la tache de Fried (soit un max de 6 à 10cm pour laplupart des sites en france).
Donc travailler avec des lots d'images composités oblige a priori a utiliser des PSF beaucoup plus large que les PSF théoriques données par le diamètre de l'instrument.

Une fois maitrisée le paramétrage de la PSF (ou sa mesure directe, ce qui peut être accessible sur chaques images d'une video), il devrait être possible de mettre en evidence des détails proches, voir sous le critère de Raleigh (c'est a dire le rayon de la tache d'Airy : 1,22 lambda sur D)

>Il faut bien différentier la mise en évidence des détails (AIDA) de leur mise en relief (algorithme à définir).

C'est exactement la bonne problématique : Aida permet de mettre en évidence des détails dépendant principalement de facteurs de contrastes plus faibles, a des fréquences plus élevées que celle présente dans les images compositées. Alors que les algo de mise en relief (Ondellettes entre autres) ne font que renforcer la lecture des fréquences spatiales dépendantes d ela taille de la tache d'Airy.

Amicalement

Bernard

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour à tous

ms, je pense que le lien dont tu parles est celui-ci;
Je suis totalement largué pour la partie théorique, j'ai simplement trouvé que la fig 9 de la (page 14/21, orig 1593) correspondait au fichier de test Titan que j'ai pu éxécuter grâce à tes conseils pour obtenir l'image 2/7 ci dessus, correspondant à l'image B de la fig. 9 du document pdf.

Contrairement à Bernard, je n'ai pas bien compris la subtilité :
"Il faut bien différentier la mise en évidence des détails (AIDA) de leur mise en relief "
Est-ce que la mise en relief correspond à une suraccentuation, comme sur un certain nombre d'images de ce lien que tu as donné plus haut et que finalement, pour obtenir des photos piquées et naturelles, il faudrait cascader les deux ?
Il me semble que JLD saurait obtenir ce gennre de résultat sans passer par les déconvolutions, du moins en partant d'images déjà compositées.

Bernard, sûr qu'il faudrait déterminer une PSF pour chaque prise.
Pourrait-on tirer quelque chose de la fonction "Autocorr" de la suite BiaRam?

quote:
Pourrais-tu créer un accès internet avec différents répertoires correspondant chacun à un projet ?

J'ai la comprenure difficile, en ce moment

Veux-tu dire qu'il faudrait pouvoir échanger facilement ici des fichiers d'images et d'éxécutables ou bien monter sur des pagespersos un serveur accessible aux seules personnes autorisées ?

Partager ce message


Lien à poster
Partager sur d’autres sites
J'ai commencé à m'intéresser à ce problème suite au post d'Emmanuel sur l'optique adaptative. A l'époque, j'étais parti de l'idée d'une PSF obtenue par apprentissage. De mémoire, Emmanuel avait émis l'idée d'utiliser un réseau de neurones pour traiter rapidement les images. Je reprend son idée mais uniquement pour extraire la PSF.

Concrètement (nébuleuses type M57, NGC40), j'enregistre avec 2 cameras :
a) la PSF tous les secondes (lunette de 80mm à f/15),
b) l'image toutes les 10 secondes (SC de 280mm à f/10).
J'utilise AIDA pour traiter l'image quand celle-ci entre dans la bonne plage de seeing (inférieur à 3" par exemple).
A la fin, je composite toutes les images et j'applique un algorithme de mise en relief (ondelettes ou autre à définir).

Pour des planètes comme Mars, Jupiter ou Saturne, les temps précédents sont à diviser par 10.

L'avantage d'AIDA c'est de faire ressortir des contrastes et des détails très ténus avec des temps de pose 100 fois plus importants. Cela permet par exemple d'utiliser une camera CCD classique pour faire du planétaire et de se passer d'une couteuse EMCCD.

Partager ce message


Lien à poster
Partager sur d’autres sites
Pas bête MS...
Pour ma part, j'aimerais bien avoir une trace du seing - un indice quelconque représentatif de la turbu - pour savoir quand imager plutôt que de scruter l'écran... Mais je pensais plus le faire avec un composant qui m'aurait donné un signal électrique analogique pour le rentrer sur un scope PC.

"Concrètement (nébuleuses type M57, NGC40), j'enregistre avec 2 cameras :
a) la PSF tous les secondes (lunette de 80mm à f/15),

Ok, compris.

b) l'image toutes les 10 secondes (SC de 280mm à f/10)."

Vous imagez pendant 10 s? Je comprends pas bien votre logique d'acquisition sur la ccd dédiée image...

(Aida; pour moi c'est avant tout un opéra!)

Partager ce message


Lien à poster
Partager sur d’autres sites
Dans les 2 cas, il s'agit de caméras vidéo qui accumulent des trames tous les 1/50s (ça passe dans les trous de turbulence) :
a) 64 / 50 = 1,28s (source ponctuelle à l'infini = étoile)
b) 512 / 50 = 10,24s (l'objet à imager)

Au bout de 10s, un réseau de neurones analyse les 8 trames obtenues en a) et permet de construire la PSF qui sera appliquée à l'objet à imager obtenu en b)
Si les conditions de seeing sont hors limite ... on passe à la capture suivante qui va durer 10s.

AIDA c'est un algorithme de déconvolution particulier qui se prête bien à ce type de traitement. Il doit certainement en exister plein d'autres mais celui-ci permet de faire sortir de faibles détails que l'on pourra accentuer par la suite (sommation des images corrigées + accentuation par les ondelettes).

Le principe est simple, il peut s'appliquer aussi bien au planétaire qu'au ciel profond et ne demande pas des cameras ou des montures coûtant la peau des fesses.

Je mettrais tout cela en ligne courant 2012.

Partager ce message


Lien à poster
Partager sur d’autres sites
Pascal, un truc tout bête :

Tu pointes une paire de jumelles vers des étoiles m 2-3, mise au point, tu fais des ronds à 1-2 t/s...
Si les traces sont lisses, il y a de l'espoir. Si elles ne le sont pas, inutile de vouloir shooter

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonsoir

Question béotienne :
En toute rigueur, ne faudrait-il pas shooter la PSF avec les mêmes instrument et set up que l'objet ?

[Ce message a été modifié par Nebulium (Édité le 02-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Ok, j'ai compris la logique d'acquisition...
pointu!
J'avais aussi compris qu'Aida était un soft de traitement d'images!

Neb, mais si je fais ce test, je risque de ne JAMAIS tenter une acquisition!

De plus ça m'intéresserait bien d'avoir une trace d'étoile en continu via cellule et ampli; histoire d'appliquer une FFT et voir un peu l'évolution. Cela peut faire toucher du doigt le phénomène de turbu (Style TP de traitement du signal, j'aime bien maniper...)

Partager ce message


Lien à poster
Partager sur d’autres sites

Pascal tu es trop pessimiste !

quote:
un réseau de neurones analyse les 8 trames obtenues en a) et permet de construire la PSF

Stp, ms, pourrais tu nous expliquer ou nous dire où trouver comment pratiquer cette manip concrètement ?
Est-ce que ça peut se faire avec la fonction existante dans Fitswork? Sans doc, c'est difficile à intuiter

PS Et encore un petit coup de main, stp :

J'ai dans un fichier .bat une ligne de commande de cette forme :

Traitement.exe ImgE000.fit ImgS000.fit

Dans le même dossier (ou mieux un sous-dossier local \E) j'ai N images d'entrée (N <1000) numérotées ImgE001, etc. et je veux fabriquer N images de sortie numérotées ImgS001, etc. dans le même dossier (ou mieux dans un sous-dossier local \S)

Y a-t'il une méthode plus astucieuse que d'écrire :

Traitement.exe ImgE001.fit ImgS001.fit
Traitement.exe ImgE002.fit ImgS002.fit
Traitement.exe ImgE003.fit ImgS003.fit
...
Traitement.exe ImgEnnn.fit ImgSnnn.fit


Merci encore


[Ce message a été modifié par Nebulium (Édité le 03-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut a tous,

Neb :
>Pourrait-on tirer quelque chose de la fonction "Autocorr" de la suite BiaRam?

Je ne connais pas BiaRam, mais a priori, et sauf erreur de ma part, non. L'autocorrélation d'une image planétaire par exemple n'a pas grand chose a voir avec l'autocorrélation d'une onde plane dans la pupille (qui permet d'obtenir la psf). Je m'explique.
Cette propriété d'autocorrélation que tu cite plus haut dans ton post (p2) est valable uniquement quand tu fait l'image d'une source ponctuelle, a savoir une étoile.

=> La mesure du rayon de la PSF gaussienne découle du spectre ou de la fonction d'autocorrélation de l'image de départ.

Le spectre, c'est la FFT de l'image (eh oui, faire des FFT c'est faire de la spectro des fréquences spatiales de l'image :-). La PSF est la FFT de l'onde dans la pupille, et aussi l'autocorrélation de l'amplitude de cette onde dans cette pupille, mais pour une onde issue d'une seul et même point non résolu !!! Pour une image planétaire par exemple, chaque point de la surface va générer une onde qui va interagir avec celle du point voisin, etc, le tout intégré sur toute la surface de l'objet.
Donc à mon avis, sauf a trouver une solution pour séparer la contribution de l'onde issue de chaque point de la surface de l'objet, ca ne marche pas.

ms :
>J'ai commencé à m'intéresser à ce problème suite au post d'Emmanuel sur l'optique adaptative. A l'époque, j'étais parti de l'idée d'une PSF obtenue par apprentissage. De mémoire, Emmanuel avait émis l'idée d'utiliser un réseau de neurones pour traiter rapidement les images. Je reprend son idée mais uniquement pour extraire la PSF.

J'avais suivi ce post de près, mais certains point me dérangaient dans le traitement. En effet, pourquoi chercher un apprentissage sur une fonction qui est par définition aléatoire (donc à comportement fortemement chaotique?) Ne vaut-il mieux pas essayer de mesurer simultanément et simplement la vraie PSF ?
La PSF se décompose en 2 contributions : une statique, et une evoluant dans le temps. La contribution statique, on peut l'obtenir en moyennant le résultat d'une image d'étoile dans le temps (voir ma page http://brizhell.org/Voir_La_Turbulence.htm, sans aller jusqu'au calcul, on peut voir la PSF sur les images rencentrées et compositées). On utilise pour cela le fait que la moyenne d'un bruit est toujours nulle.
La contribution dynamique, c'est à dire celle qui évolue dans le temps, ben c'est la que ca coince....
A priori, si le télescope est petit, la seule chose qui se passe c'est que la tache d'airy se déplace, et la turbu se résume principalement à du tip/tilt. Donc un recentrage entre les images suffit. Avec un tube plus gros, on fait appraître des tavelures. La, le traitement et l'acquisition sont plus costaud (mais pas impossibles).
Je suis en train de fouiller les solutions de calcul d'intercorrélation entre une image et l'image suivante, le long d'une séquence pour voir si l'on peut jouer sur le facteur évolutif de la turbulence mesurée.

>Concrètement (nébuleuses type M57, NGC40), j'enregistre avec 2 cameras :
a) la PSF tous les secondes (lunette de 80mm à f/15),
b) l'image toutes les 10 secondes (SC de 280mm à f/10).
J'utilise AIDA pour traiter l'image quand celle-ci entre dans la bonne plage de seeing (inférieur à 3" par exemple).
A la fin, je composite toutes les images et j'applique un algorithme de mise en relief (ondelettes ou autre à définir).

Super démarche en effet ! Apparament, le profil de la turbulence sur 2 instruments en parallèles, devrait être assez cohérent (je viens de remonter mon installation, et je compte faire un test en imagerie rapide avec mon vieux LX200 8 pouces, et un etx90 placé juste au dessus).
Après, en utilisant le même trig de les 2 cameras, je verrai si je peut voir si les 2 psf sont semblables (et non identique vu les différences optiques).
Aida doit en effet s'utiliser sur les images individuelles. Mais j'ai un peu peur que la partie non statique de la turbu, celle qui provoque la dilution de l'image, soit difficile à contourner.

Dans tout les cas, je suis curieux et impatient que tu nous fasse part de ces résultats.

Après, il y a la limite de l'isoplanétisme qui va être limitant. On avait travaillé, mais pas encore publié avec JLD sur une démarche approchante, purement numérique en CP au 1M, mais faut que je rédige ca sérieusement on en recausera quand ce sera prêt.

>Cela permet par exemple d'utiliser une camera CCD classique pour faire du planétaire et de se passer d'une couteuse EMCCD.

Heu, si j'avais pas eu la chance de me la faire prêter via mon labo, je ne pense pas que j'aurais pu m'offrir un tel jouet....
Mais j'ai encore des manips amusantes a tester avec...

Bernard

[Ce message a été modifié par brizhell (Édité le 03-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Au départ, il faut faire un choix entre la fonction de transfert de modulation (FTM) ou la fonction d'étalement de point (PSF). Voir par exemple le lien suivant à ce sujet ainsi que le traitement de la netteté d'une image que tu peux réaliser avec AIDA :
http://www.esgt.cnam.fr/documents/tfe/memoires/2009/09_regnier.pdf

Dans le cadre de l'algorithme AIDA, c'est la PSF qui est utilisée.

Oublions les réseaux à neurones dans un premier temps car la boite à outils AIDA permet de récupérer la PSF à partir des images ponctuelles déformées par la turbulence.
Dans un deuxième temps, je pensais utiliser ces données pour modéliser la turbulence relative au site donné en utilisant un réseau de neurones (apprentissage).

Pour les traitements répétitifs, tu peux les faire de plusieurs façon sous Windows :
a) un fichier de script .bat auquel tu passes les paramètres,
b) un petit script Python ou Ruby ou Perl.

Le plus simple dans cette affaire AIDA serait de rester en Python. Il semble d'ailleurs que Python soit de plus en plus utilisé par les astronomes.

Je t'ai donné un lien pour l'apprentissage de Python2 (ne pas étudier Python3).

Bon perso, j'utilise plus souvent Ruby mais je crois que je vais utiliser Python2 pour l'astronomie. Je trouve aussi l'environnement Priithon très bien fait, c'est une raison de plus pour rester avec Python2.

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
En effet, pourquoi chercher un apprentissage sur une fonction qui est par définition aléatoire (donc à comportement fortemement chaotique?) Ne vaut-il mieux pas essayer de mesurer simultanément et simplement la vraie PSF ?

Je ne vais faire cela que dans un deuxième temps.
L'idée c'est de détecter des trames remarquables répétitives dans certains sites (pas trop turbulents mais pas laminaires pour autant).
Le réseau de neurones est capable d'identifier la trame remarquable et sous certaines conditions un système aléatoire peut être modélisé par un système pseudo-aléatoire correspondant à des séquences de trames remarquables (il faut bien sûr purger les séquences trop turbulentes voir chaotiques).

En gros, mon objectif (M57 et NGC40) c'est de sortir en vidéo N/B avec un SC AltAz de 280mm à f/10 (puis f/20 pourquoi pas) des images bien meilleures que les premiers essais suivants (effectués en ville avec des poses de 10s) :

Les premiers essais montrent qu'avec des poses de 10s, il y a beaucoup trop de déchets, il faut donc diviser les temps de pose par 5 ou par 10 suivant la focale (2,80m à 5,60m).

Pour les nébuleuses planétaires type M57 ou NGC40, avec 2,80m de focale, il faudrait faire des poses de 128/50=2,56s maxi avec un calcul de la PSF basé sur 8 trames de 16/50=0,32s. Cette manip est à faire dans un bon ciel de campagne ou mieux de montagne (et non en ville).

L'intérêt de l'"apprentissage" serait de supprimer le deuxième instrument embarqué sur le télescope en calculant toutes les 2,56s une PSF directement à partir de l'image enregistrée (PFS résultant d'une séquence déjà rencontrée, c'est du pseudo-aléatoire).

[Ce message a été modifié par ms (Édité le 04-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci Bernard

J'ai posé cette question parce qu'à propos de la déconvolution myope l'auteur de BiaRam écrit :
" The deconvolved-image-finding step additionally requires an estimate of the PSF (if you do not have a good
initial estimate of the PSF then you may use the autocorrelation function of the input blurred image
initially)."
Mais en effet, un essai de la fonction "Autocorr" sur mon morceau de Jupiter m'a donné un résultat qui n'avait pas grand chose à voir avec une PSF...

Partager ce message


Lien à poster
Partager sur d’autres sites
Intéressant ce lien...
Ca me donne des idées pour tester le couple C11 PLA MX en ambiance "calme"...

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonsoir

Histoire de fixer les idées, voici quelques relevés de spectres de fréquences sur l'échantillon 256x256 autour de la GTR de Jupiter au T1m .

Remarques préliminaires (à corriger par les spécialistes, merci ):

1. L’abscisse est graduée en fréquence, par exemple 0.5 correspond à une période de 1/0.5 = 2 pixels, soit un blanc, un noir sur une mire de barres théorique...

2. Pour avoir une image sans bruit apparent, il faut arriver à F=1 en dessous de -90 db, avec encore un peu de pente sinon l'image paraît molle.
.


- Courbe 1 : La meilleure prise unitaire avec le filtre G du T1M. Pour F > 0.2, il n'y a que du bruit.
- Courbe 2 : Empilement Registax 6 en réglages par défaut des 256 meilleures G. Plus rien au-dessus de 0.3 à 0.4, le bas niveau du bruit laisse espérer des résultats avec une accentuation convenable (ce que tout le monde fait généralement, avec les ondelettes par exemple) mais on ne sortira pas des détails plus fins que 0.3 à 0.4.
- Courbe 3 : Déconvolution non aveugle de l'empilement ci-dessus avec une PSF peaufinée à la main. On peut espérer des détails jusqu'à 0.5 à 0.6 avec un bruit acceptable (piqûre de bonheur ? )
- Courbe 4 : La 3 après ondelettes, c'est ce que j'ai pu faire de mieux (pour l'instant)...
- Courbe 5 : pour info, l'image HST.

[Ce message a été modifié par Nebulium (Édité le 04-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
=> JL

Je viens de commencer à tester un soft de démo.

Est-ce que les détails apparus te paraissent crédibles ?
.

[Ce message a été modifié par Nebulium (Édité le 07-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Sur la vue de gauche oui sur celle de droite non, sur celle du milieu je ne sais pas mais je ne pense pas.

Partager ce message


Lien à poster
Partager sur d’autres sites
Tu devrais lâcher l'affaire avec cette vielle Jupiter tu n'en tireras rien.
Philippe a fait une PSF sur le C14 et là il y a du potentiel en traitement surtout avec le petit trefoile qu'il a et le ciel d'ici. Essaye de lui écrir pour voir comment tu peux récupérer les fichiers pour jouer

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut Jean Luc,

suis preneur des PSF réelles de Philippe, ainsi que d'une video faite avec le même instrument,surtout pour voir si le tréfoil peut être compensé.
Les videos que tu m'a fait passer fonctionnent bien avec une PSF "quasi parfaite".
Le traitement des séquences video avec AIDA fonctionne trés bien, mais c'est lent. Environ 24 images traitées par heure ....

A+

Bernard

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour

JL, la vue de gauche est une de mes meilleures (?) luminances d'un extrait de cette vieille juju, celle du milieu puis de droite résulte de l'application d'un filtre d'accentuation dit "Caron" par son inventeur.
j'ai été étonné par l'augmentation du contraste des fins détails (par ex craquelures dans le coin inférieur gauche sans apparition d'un vilain bruit.

Je suis preneur des films de Philippe, vous pouvez utiliser mon ftp.
Ce serait super si vous aviez shooté en même temps au T1m et au C14

Bernard, je serais preneur de tes settings d'AIDA, mon mail c'est mon pseudo chez free en France tout minuscules, merci

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut Neb,

les settings sont ceux d'origine (convolution type 'myopic'), avec les noms de mes fichiers, pas de modif supplémentaires.
Les settings de Formats et autres joyeusetés, ne pas y toucher. Après quelques essais, on voit que l'on diverge facilement sur certains critères (convergence PCG par exemple). La subtilité reste dans le travail d'une PSF cohérente aux conditions d'observation.

Le seul apport est celui d'un fichier bash qui permet de traiter les images par lots. Mais le bash linux n'est pas le dos... Donc ca risque de ne pas t'être utile.

Bernard

[Ce message a été modifié par brizhell (Édité le 18-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci Bernard

Il existe :
AIDA_Default_Settings.py avec image_filenames = '' # (default = '')
AIDA_Settings.py avec image_filenames = ['pluto_ortho_crop.fits']
AIDA_Settings.py avec image_filenames = ['titanhe_153_IF_scaled']

Lequel utilises-tu (avec tes noms)?

J'ai essayé avec les settings 'titanhe', plusieurs images et psf, le batch se fait automatiquement pour chaque image et probablement avec la même psf calculée et donnée en "results".

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
Le traitement des séquences video avec AIDA fonctionne trés bien, mais c'est lent. Environ 24 images traitées par heure ....

Effectivement c'est très lent parce que Python c'est pas du code compilé comme le C ou le Fortran.
J'en suis arrivé au même point en voulant traiter un AVI contenant à la fois l'image et les PSF (une trame toutes les 0,32s pour les PSF et une image toutes les 2,56s soit 8 PSF).
Il faudrait utiliser Cython dans les parties critiques pour aller au moins 36 fois plus vite.

Si j'arrive à traiter 1 AVI toutes les 40s environ (128 trames, 16 images et 16x8 PSF) pour moi c'est gagné et en plus je peux rester en AltAz (rotation de champ négligeable).
Acquisitions = 5 x 40s
Traitement = 200s
Affichage
Acquisitions = 5 x 40s
Traitement = 200s
Affichage
...
Toutes les 4 minutes (au mieux) je peux afficher un image corrigée de la turbulence correspondant à l'addition de 16 images maximum (suivant le seeing).
Avec 5 processeurs, je peux traiter l'ensemble des acquisitions toutes les 4 minutes.

[Ce message a été modifié par ms (Édité le 20-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut ms.

En effet, la language est puissant mais pour du traitement à postériori....

Je ne connais pas Cython, mais si il s'agit des bibliothèques pythons compilées en C, ca doit valoir le coup.
En tout cas l'idée sur le CP semble vraiment intéressante.

Pour revenir au planétaire, je vais essayer de poster ci-dessous les premiers résultats sur une vidéo adaptée au problème (c'est la première fois que je poste une image...).
Il s'agit d'une jupiter acquise en 2008 par Jean Luc, avec un Newton 150/750 et une barlow x5.
La démarche est Registration => Deconvolution => Demorphing => Additions.
Donc voici les brutes :

Explications :
Colonne de gauche, le shift and add classique à 200 images (ligne du haut) et 500 images (ligne du bas).
Colonne de droite, la séquence de traitement citée précédemment, à 200 images (en haut) et 500 images en bas.

Sur cette base, n'étant pas expert en manipulation des ondellettes, j'ai demandé a Jean Luc de passer un coup d'ondelettes identiques sur les 2 séries (brutes et déconvoluées/demorphées).

Résultat sur 500 images :

Il me semble que ca laisse appaître pas mal de chose pour un télescope de 150mm...

Jean Luc à rajouté une couche en tentant un FocusMagic en plus :

Ca semble prometteur. De plus, sur les détails présents dans l'image traité, il y a une comparaison possible avec une image de Wesley prise à la même date.
Je pense ouvrir une autre post pour décrire les choix qui amènent à ce type de traitement.

Bernard

[Ce message a été modifié par brizhell (Édité le 20-10-2011).]

[Ce message a été modifié par brizhell (Édité le 20-10-2011).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant