frédogoto 2235 Posted September 10 Salut j'ai plus de 1400 images issu d'un a7s a empiler j'ai utilisé le WBPP. mais j'ai l'impression qu'il a choisi un algo empilement extrêmement lent (G.E.S) ça vaut le coup d'attendre une grosse semaine d'empilement où j'arrête tout et je reviens à des tucs plus traditionnels ? Share this post Link to post Share on other sites
frédogoto 2235 Posted September 10 trop fort j'ai demandé à chat GPT un conseil Question : Citation pour empiler mes images d'astronomie afin d'avoir un bon rapport signal sur bruit, j'utilise le logiciel pixinsight (dernière version). Dans les algorithmes d'empilement, il existe l'algorithme de réjection nommé "GENERALIZED EXTREME STUDENTIZED" . hors après 40 heures de calcul, j'ai estimé que l'empilement des images était accompli à un peu plus de 15%. Cet algorithme me semble extrêmement lent comparativement aux autres algorithmes et je voudrais avoir ton avis si ça valait le coup de le laisser continuer ou s'il valait mieux interrompre le calcul et le relancer avec un algorithme plus rapide (je pense utiliser winsorized sigma clipping) Response de "chat j'ai péter" Citation L'algorithme **Generalized Extreme Studentized Deviate (ESD)** est effectivement connu pour être plus lent que d'autres méthodes de rejet des pixels extrêmes, surtout sur de grands ensembles de données comme les images d'astronomie. Son objectif est de détecter les outliers (pixels aberrants) de manière très robuste, en particulier lorsque le bruit est difficile à modéliser ou lorsque des structures complexes doivent être préservées. Il fonctionne bien dans des situations où les données contiennent des variations importantes qui ne sont pas nécessairement liées au bruit, mais il est effectivement beaucoup plus coûteux en temps de calcul. ### Pourquoi ESD est lent ? L'algorithme ESD est basé sur une approche itérative qui détecte et élimine les outliers de manière progressive, en comparant les écarts extrêmes à une distribution. Cela implique plusieurs étapes de calcul pour chaque pixel, avec de nombreux tests statistiques, ce qui peut expliquer les longues durées de calcul. ### Est-ce que cela en vaut la peine ? Cela dépend de plusieurs facteurs : 1. **Complexité et qualité des données** : Si vos images contiennent beaucoup de bruit complexe, ou si elles sont très variables (par exemple, avec des nuages ou des artefacts), l'algorithme ESD pourrait offrir de meilleurs résultats en termes de précision. Cependant, si vos données sont relativement homogènes et que vous avez juste besoin de rejeter les points aberrants les plus évidents, un algorithme plus simple pourrait suffire. 2. **Taille des données** : Pour de très grandes séries d'images, l'ESD devient de plus en plus coûteux. Si vous empilez un grand nombre d'images, des algorithmes comme **Winsorized Sigma Clipping** ou **Linear Fit Clipping** seront beaucoup plus rapides tout en offrant des résultats satisfaisants dans la majorité des cas. ### Comparaison avec Winsorized Sigma Clipping Le **Winsorized Sigma Clipping** est un compromis efficace pour la majorité des cas d'empilement d'images astronomiques : - **Avantages** : Plus rapide, adapté pour traiter le bruit gaussien typique des images astronomiques. Il fonctionne bien pour rejeter les pixels aberrants tout en préservant les détails importants. - **Inconvénients** : Moins robuste pour les ensembles de données très complexes ou très bruitées que l'algorithme ESD. ### Mon avis - **Si vos images sont relativement homogènes** (c'est-à-dire avec un rapport signal/bruit raisonnable et peu de variations aléatoires autres que le bruit), je vous recommande de **stopper l'algorithme ESD** et de passer à un algorithme plus rapide comme **Winsorized Sigma Clipping** ou **Linear Fit Clipping**. Ces algorithmes offriront un bon compromis entre précision et vitesse. - **Si vous travaillez avec des données très bruitées ou variables** et que vous avez vraiment besoin d'une réjection ultra-précise des pixels aberrants, l'ESD peut justifier son temps de calcul. Cependant, 40 heures pour 15 % d'avancement semble disproportionné, et il serait probablement préférable d'opter pour une autre méthode plus rapide, quitte à tester ensuite les résultats pour évaluer la perte éventuelle de qualité. En résumé, sauf si vous êtes confronté à un bruit très complexe, il vaut probablement mieux opter pour **Winsorized Sigma Clipping**, surtout pour économiser du temps sans sacrifier la qualité de l'empilement. je comprends pourquoi les gosses fond leur devoir dessus, c'est super précis et structuré, voire pertinent !!! Vous validez la réponse du gros miaou péteur ? Share this post Link to post Share on other sites
apricot 1648 Posted September 10 Il y a un maintenant un script rapide pour prétraiter et empiler des grands lots d'images: FastBatchPreprocessing 1 Share this post Link to post Share on other sites
Bigcrunch 3081 Posted September 11 Salut Fred Tu peux utiliser FWPP ( FASTBATCHPreprocessing) , nouveau script de la dernière version PI.. Plus rapide mais moins complet Olivier Share this post Link to post Share on other sites
nico1038 63 Posted September 11 (edited) La réponse de ChatGPT est incroyable de précision! Sinon en effet, avec un jeu de 1400 images le script FBPP est tout indiqué. L' idée derrière ce script est d'évite certaines étapes lourdes (comme la normalisation locale) avec l'espoir que cela sera compensé de façon statistique par le grand nombre d'images. Par ailleurs le script utilise le process fastintegration qui traite en même temps l'alignement et l'empilement des images (par lot). Le gain en vitesse est sidérant! Si tu l'essayes, je te conseille quand même d'activer le "weighting" dans l'onglet Post-Calibration. Edited September 11 by nico1038 1 Share this post Link to post Share on other sites
frédogoto 2235 Posted September 11 je n'ai pas pu faire l'économie de LN (j'ai essayé avec et sans) la différence est importante Finalement j'ai suivit les conseils de chatgpt j'ai interrompu le processus empilement et utilisé l'algo Winsorised sigma clipping Résultat 6 heure empilement au lieu d'une grosse semaine 2 Share this post Link to post Share on other sites