easybob95 157 Posted September 12 Pour le gain excessif, j'aurais du préciser que c'est uniquement pour le CP, pas pour le planétaire. Tu as raison pour le bruit à gain élevé et c'est pourquoi j'ai développé des algos de gestion du bruit très efficaces. Un exemple sur la Lune de la stabilisation et de la gestion de la turbulence. L'amélioration est flagrante et avoir un résultat comme ça en EAA, c'est sympa : Cela dit, injecter dans AS6 puis R6 une vidéo retravaillée ne donnera pas d'amélioration significative de la photo finale dans la plupart des cas. Stacker plusieurs centaines d'images est une solution qui fonctionne bien et JetsonSky n'aura pas une grande plus value dans cetta rpproche classique. JetsonSky n'ai fait que pour une vidéo en produit final. Un PC un peu costaud, c'est cher quand même mais ça se démocratise. Le frein pour beaucoup, ça sera l'environnement Python un peu plus complexe que l'installation traditionnelle d'un exe sous Windows. Mais certains s'y sont mis et ça a fonctionné au final (avec un peu de galère quand même). Pour Jupiter, le gain n'est pas minime, toujours dans l'optique vidéo et pas photo. Je gère le bruit, la turbulence, l'accentuation de la netteté et du contraste. Au final et toujours en vidéo, on un truc qui ressemble un peu plus à Jupiter et c'est bien ça l'objectif, avoir un résultat plus propre sur la vidéo. 2 Share this post Link to post Share on other sites
easybob95 157 Posted September 12 un autre exemple de taitement sur une vidéo de la Lune : Idem : 2 Share this post Link to post Share on other sites
easybob95 157 Posted September 12 Sinon et pour finir, JetsonSky sait aussi faire du traitement de photo. En fait, je l'utilise principalement pour gérer les couleurs des sols luniares avec mon filtre perso. Un exemple : 2 2 1 Share this post Link to post Share on other sites
alx 125 Posted September 12 Il y a 20 heures, easybob95 a dit : il y a des trucs pas mal qui circulent mais surtout sur du live stacking. Après avoir visionné vos vidéos, je trouve votre travail vraiment impressionnant par la qualité de ses résultats, mais surtout par l' originalité de sa démarche. L'utilisation de réseaux neuronaux convolutionnels (YOLOv8) est spectaculaire. Votre logiciel me semble exploiter beaucoup mieux que la plupart des développements logiciels actuels la révolution permise par les CMOS de dernière génération: l'homogénéité de ce type de capteur, sa sensibilité et son bruit de lecture quasi négligeable permettent en effet de remplacer le concept de (longue) pose par celui d'enregistrement vidéo, ce qui ouvre ainsi la porte au traitement d'image en temps réel et élimine beaucoup des exigences instrumentales usuelles (stabilité de la monture ou auto-guidage, qualité constante du ciel dans la direction visée, etc...). Les tentatives actuelles (empilement en temps réel (live stacking) qui tolère un suivi médiocre ou résolution astrométrique (plate solving) qui élimine la nécessité d'un chercheur, etc...) vont dans ce sens. Mais restent des gadgets, toutefois assez utiles en particulier pour les non initiés (démonstrations au grand public). Ce qui serait un plus pour l'astronomie d'amateur serait de pouvoir aussi corriger tout ou partie des effets de la turbulence sur des ouvertures de 200 mm ou plus, ce qui semblait jusqu'à présent réservé à l'astronomie professionnelle (et implémenté sur les télescopes modernes de 8 ou 10 m d'ouverture, et même 39 m avec le futur ELT de l'ESO). Comme cela a été montré dans les années 1970s après compréhension et modélisation de la turbulence atmosphérique, ces effets peuvent être assez bien modélisés par un écran de phase au niveau de la pupille d'entrée qui, au lieu d'être idéalement plat (phase=0 partout) est irrégulier (tavelures), avec un temps de cohérence de l'ordre de quelques millisecondes et une corrélation spatiale de l'ordre de 10 cm (le fameux r0 de Fried). Il y a donc deux démarches possibles pour contrer les effets de l'atmosphère sur la qualité d'image et leur reprise par l'optique du télescope (cf. les papiers de l'époque): l'une, matérielle, consistant à compenser a priori la phase par déformation d'une optique asservie additionnelle sur le trajet optique (optique adaptative); l'autre, logicielle, en calculant a posteriori la distribution des phases initiales à partir de l'image enregistrée (par technique de triple corrélation, par exemple). C'est la première solution qui a été finalement choisie par les professionnels, essentiellement pour des raisons de complexité et surtout de faisabilité dans le cas des grandes ouvertures. Dans le cadre amateur, maintenant bien outillé informatiquement parlant, la seconde solution me paraît envisageable ou, au moins, tentante d'être essayée. 1 1 Share this post Link to post Share on other sites
easybob95 157 Posted September 12 Bonjour alx, merci pour tes commentaires, c'est sympa. La gestion de la turbulence, c'est assez compliqué. J'ai travaillé sur ma voie personnelle en me rendant compte que mes algorithmes de gestion du bruit étaient efficaces sur la turbulence. Je parle ici de turbulence moyenne. En restreignant le degré de liberté de chaque pixel (je regarde comment évolue le signal entre l'image N et l'image N-1 pour le filtre AADF et entre l'image N et les images N-1 et N-2 pour le filtre 3FNR, je restreint par une fonction de transfert les variations de luminance pour chaque pixel de l'image), je peux gérer la turbulence sans perte réelle de signal ce qui améliore beaucoup la netteté et la stabilité de l'image. Ca fonctionne en planétaire, lunaire mais aussi en CP et c'est indépendant de la focale et du capteur. C'est la solution du pauvre et du mauvais en math. C'est un artifice informatique et pas une gestion de la turbulence digne de ce nom. Je pense cependant que cette méthode peux être utilisable en lucky imaging avec des temps de pose relativement long (de l'ordre de la seconde). Il y aura au final pas de perte de frames (ou pas trop) et je pense que le gain de netteté au final sera appréciable. Je n'ai cependant jamais réellement fait de test (j'espère toujours avoir un ciel moins mauvais pour faire plus de tests cet hiver). En stock sur le CP, j'ai pas grand chose. Je parlais un peu avant d'un test sur M42 avec du HDR et de la gestion du bruit (je peux aussi retirer du gradient, sachant que je ne voulais pas m'embêter avec des FLAT pour mon soft). Voilà un test rapide dont je suis assez fier, même si tout cela reste perfectible : Je pense que vous n'avez pas souvent vu de vidéo de M42 comme celle-là (je parle bien de vidéo), même si ce test avait été fait dans de très mauvaises conditions. 1 Share this post Link to post Share on other sites
Astrowl 911 Posted September 12 Alain, il ne faut pas sous estimer ton travail et tes trouvailles en termes de réduction du bruit ou de la turbulence. Je me rappelle qu'un astro amateur avait publié un algorithme de stretch "révolutionnaire" (Generalised Hyperbolic Stretch) qu'il avait testé sur Matlab et qui avait après été codé et intégré dans un logiciel (PixInsight). Mais si ça marche sur le terrain, ça marche tout court. Si les détails révélées ne sont pas des artefacts, ça accélérera l'apparition de détails en stacking, ça pourrait potentiellement réduire le frames à rejeter, ... 1 Share this post Link to post Share on other sites
alx 125 Posted September 12 Il y a 1 heure, easybob95 a dit : merci pour tes commentaires, c'est sympa you're welcome Il y a 2 heures, easybob95 a dit : La gestion de la turbulence, c'est assez compliqué. Je ne te le fais pas dire. Ce qu'il faut avoir compris, c'est que la turbulence n'est pas un phénomène linéaire, qu'on pourrait donc filtrer ou même déconvoluer. C'est essentiellement un phénomène d'interférences (diffraction) d'ordre supérieur. Les autres outils qui fleurissent maintenant dans la plupart des logiciels de traitement (masque flou ("sharpen"), ondelettes ("wavelet transform"), etc...) ne sont pas fondés, même s'ils produisent des résultats esthétiquement satisfaisants grâce à l'habileté de leurs utilisateurs (il suffit de voir les superbes clichés planétaires obtenus, par exemple, au "balcon" ). Sur une/des image/s posée/intégrées pendant plus que le temps de cohérence (< 20 ms), on ne peut plus rien faire. Les outils standards de dé-floutage ("deblurring'') ne sont pas adaptés et fonctionnent mal. Sur les images d'une séquence vidéo rapide, - le protocole général utilisé par les "planétaires" - , l'illusion d'efficacité est donnée par le fait qu'à l'ordre zéro ("tip tilt") la turbulence est réfractive, donc correspond à un décalage dans la pupille, qui est plus ou moins compensé par le recentrage préalable de l'image ("shift and stack"). Mais pour que ça marche, il faut trier les images avant ("lucky imaging"), en ne gardant que celles qui sont homogènes (un seul décalage). C'est améliorable par diverses techniques (ex: "active appearance") utilisées dans des logiciels comme Autostakkert. Mais au delà d'une ouverture de 200-300 mm, c'est presque toujours la partie diffractive de la turbulence qui domine, et ça ne marche plus vraiment bien. Dans les années 1970-80s, des résultats intéressants ont été obtenus (à ma connaissance) sur des étoiles multiples et même la granulation solaire (source étendue) Les principes et techniques de la reconstruction de l'écran de phase initial à partir de l'image unitaire ont été décrits. Mais ça a été vite abandonné, chez les astronomes professionnels, au profit de l'optique adaptative matérielle immédiatement disponible. Ré-adapter cela au monde amateur, c'est encore juste une idée. J'ai déjà fais moi-même quelques essais, pas encore très probants. Mais je ne suis pas convaincu que cela soit impossible ! 1 Share this post Link to post Share on other sites
jldauvergne 16254 Posted September 12 il y a 52 minutes, alx a dit : Les autres outils qui fleurissent maintenant dans la plupart des logiciels de traitement (masque flou ("sharpen"), ondelettes ("wavelet transform"), etc...) ne sont pas fondés, Je n'ai pas compris ce point. Si c'est pour dire que ces traitements ne peuvent rien contre la turbu, c'est certain. La déconvolution par PSF en revanche le pourrait. Je ne sais pas codé, mais si je le savais je ferai une bibliothèque de PSF avec différents degrés de coma, de Dfocus, et d'astig à tester sur les images brutes à l'aveugle pour voir quelle PSF sort le meilleur rapport S/B. On aurait ainsi une correction des images en temps réel (sans doute imparfaite). Je ne sais pas coder et encore moins évaluer quelle serait l'impact de cette déconvolution aveugle avec une base de mettons 100 psf à tester. Je suppose qu'il y aurait un avantage à jouer à ça en utilisant l'architecture CUDA. Une version plus élaborée de ça, serait un algo capable de générer aussi des PSF et qui irait par itération. Genre un peu de coma en testant tous les angles, une fois le bon angle trouvé on teste toutes les forces de coma pour voir celle qui correspond le mieux, puis on teste le Dfocus par dessus la coma, une fois qu'on a trouvé, on teste l'astig, etc, etc. A voir combien d'ordre il faudrait corriger. Je suppose que si la PSF est éclatée façon speeckles, la lourdeur et la complexité de la déconvolution rendent l'opération impossible. C'est un peu comme n'importe quelle optique adaptative, pour que ça fonctionne, il faut déjà partir de bonnes conditions atmosphériques. Si la PSF fait des speeckles perso je vais me coucher. L'avantage de cette approche c'est qu'elle serait compatible avec des télescopes de 400 à 500 mm que l'on peine la exploiter ici. Et dans l'approche je pense que ça n'exclue pas un rejet que x% d'image pour conserver celle qui gardent un certain niveau de cohérence. L'autre limite de cette approche bien entendu c'est que la correction n'est pas la même selon les zones de l'image, mais on sait que si on corrige au centre, au bord ça s'améliore aussi, et ça devient mieux qu'en ne corrigeant rien. Je suppose que ce genre d'outil existera un jour. Même pour de la photo de tous les jours. Ca existe déjà un peu pour les Dfocus et les flous de bougé. Share this post Link to post Share on other sites
alx 125 Posted September 12 (edited) Je ne crois pas que ce que tu proposes soit efficace. Ce que j'ai compris du mécanisme de dégradation par la turbulence, c'est qu'il est équivalent (au moins en première approximation) à la superposition cohérente de plusieurs pupilles de la même ouverture que ton télescope, mais déphasées l'une par rapport à l'autre de manière aléatoire. Il y a autant de pupilles fictives que de régions isoplanétiques dans la pupille réelle. Par exemple, pour une ouverture de 300mm et une turbulence à r0=10 cm, il y en a environ une dizaine. Pour une grande ouverture, ce sont des milliers. Dans le cas simple d'une étoile que tu verrais, hors atmoshère, sous la forme de la tache d'Airy de ton télescope, la pupille résultante devient un mélange de franges d'interférences. L'image observée après focalisation par ton télescope s'en déduit par transformée de Fourier, si bien que les franges deviennent autant de points brillants de dimensions similaires à celle de la figure d'Airy: c'est la fameuse figure de tavelures (ou speckle en bon français). Dans le cas d'une source étendue, c'est le même mécanisme d'interférences, mais en moins évident. Il n'y a pas de PSF la-dedans. Mais ce qui est vrai, c'est que si tu dépasses le temps de cohérence de la turbulence (pendant lequel en principe, la pupille résultante est figée), tu vas superposer dans l'image (de manière incohérente cette fois) toute une série de tavelures différentes. La loi des grands nombres aidant, ce fouillis va prendre l'allure d'une tache floue, de forme gaussienne, dont tu peux évidemment définir et mesurer la largeur à mi-hauteur. Mais je pense que tu ne peux rien en faire de plus, car ça n'est pas le résultat d'une convolution. Cela n'a rien à voir avec un flou de bougé. J'espère ne pas me tromper. Edited September 12 by alx Share this post Link to post Share on other sites
easybob95 157 Posted September 12 Là, vous m'avez perdu en cours de route. Share this post Link to post Share on other sites
easybob95 157 Posted September 12 Il y a pas mal de littérature sur la deconvolution par pdf. Je ferai un essai pour voir par contre, adieu le traitement en live car les temps de calcul sont incompatibles. A tester. Share this post Link to post Share on other sites
easybob95 157 Posted September 12 Astrowl : j'ai conçu mes traitements pour ne pas ajouter d'information qui n'existe pas. C'est ce que je n'aime pas dans l'approche magique IA : le risque d'inventer de la donnée est trop grand. J'ai passé pas mal de temps à coder mais maintenant, il faut que je fasse des tests en réel pour valider un peu plus les traitements. Share this post Link to post Share on other sites
jldauvergne 16254 Posted September 12 A mon avis tout dépend le degré de liberté qu'on lui donne. Au final elle ne fait jamais que ce qu'on lui demande. Si tu lui demandes d'aller se baser sur les images de la Lune qui existent là il y a un problème. Si par contre en observant Mars par exemple tu lui dis quel forme le contour de la planète doit avoir pour le corriger si la planète est biscornue à cause de la turbulence, ce n'est peut être pas très choquant. J'imagine qu'un algo de déconvolution aveugle basé sur des PSF pourrait recourir au deep learning et à l'IA. Share this post Link to post Share on other sites
easybob95 157 Posted September 13 j'ai fait des petits tests avec une déconvolution PSF. Les résultats sont très moyens (ça va de inutile à mauvais) et les temps de calcul sont bien trop longs pour être exploitables dans mon cas. Share this post Link to post Share on other sites
jldauvergne 16254 Posted September 13 Le 12/09/2024 à 17:30, alx a dit : Ce que j'ai compris du mécanisme de dégradation par la turbulence, c'est qu'il est équivalent (au moins en première approximation) à la superposition cohérente de plusieurs pupilles de la même ouverture que ton télescope, mais déphasées l'une par rapport à l'autre de manière aléatoire. Il y a autant de pupilles fictives que de régions isoplanétiques dans la pupille réelle. Par exemple, pour une ouverture de 300mm et une turbulence à r0=10 cm, il y en a environ une dizaine. Pour une grande ouverture, ce sont des milliers. Oui et non. Déjà on fait du Lucky imaging, donc si une image est trop pétée, on la rejette. Ensuite, si tu t'éloignes de l'axe, oui la PSF évolue mais pas forcément en rupture. En optique adaptative, c'est quelque chose de vérifié expérimentalement qu'une correction sur l'axe bénéficie aux bords, mais bien entendu dans une moindre mesure et bien entendu pas si les conditions sont dégradées au point d'avoir des speckles. Et puis soyons fous, à supposer que ce soit codable et viable sur des temps de calcul humain, rien n'interdit d'appliquer ce principe par zones quand la sources mesure plus de 10". Néglige pas que avec nos diamètres, dans de bonnes conditions, on est dominé par le tip tilt, et c'est pour ça que AS3 fonctionne. D'ailleurs ça illustre bien ce que je dis plus haut. On avait un gain à corriger le tilt global même sur les bords de la planète, mais on a amélioré ça en découpant par zones. Ce qu'on fait dans AS3, est sans doute d'ailleurs un indicateur intéressant de la taille des zones souhaitable. Share this post Link to post Share on other sites
easybob95 157 Posted September 14 je suis septique sur toutes ces reconstructions logicielles. Je n'ai pas d'expérience sur ce domaine mais le peu que j'ai vu de la déconvolution PSF ne me paraît pas adapté (je trouve les résultats peu intéressants et les temps de calcul sont franchement à l'ouest) et je ne pense pas que cette technique répond au besoin. Mais je peux me tromper. Même si mes filtres de gestion du bruit n'étaient pas destinés à ça, ils gèrent très bien la turbulence (modérée et plutôt à haute fréquence) sans induire de biais ou de faux signal (ils n'inventent pas d'information qui n'existe pas). J'ai aussi implémenté un filtre qui limite les degrés de liberté de l'image par rapport à une image de référence (soit l'image précédente, soit la meilleure image de la série) avec comme condition préalable d'avoir une vidéo stabilisée (ce que je fait en software et en live). Ça fonctionne très bien et ça éteint la turbulence et on peut retrouver les détails qui étaient gommés par la turbulence. Et je prouve ce que j'avance : J'ai un peu perdu du temps à essayer de convaincre que cette méthode fonctionne bien et qu'elle donne de bien meilleurs résultats que tout un tas de techniques théoriques qui se heurtent au coût et/ou moyens informatiques trop importants. J'ai pas convaincu et je n'essaierai pas plus longtemps de convaincre mais les faits sont là : ça marche plutôt bien. Fin de la parenthèse. Alain Share this post Link to post Share on other sites
alx 125 Posted September 14 (edited) Je continue de m'interroger sur l'adéquation d'une déconvolution par PSF pour réduire la turbulence. D'abord, si l'on parle de déconvolution, c'est qu'il y a eu convolution d'une image initiale par un filtre linéaire. Quelle est donc cette image initiale ? L' image qu'on aurait eu si la turbulence n'avait pas déformé la pupille d'entrée ? Quelle pourrait alors être la forme du filtre (PSF) à mettre en oeuvre ? Dans les cas usuels où la PSF est bien définie (bougé ou défaut de mise au point (télescope de Hubble !) cela marche évidemment très bien. Mais ici ? Une image planétaire, c'est compliqué. Prenons plutôt une étoile, parce que si une déconvolution par PSF marche sur une étoile, cela va aussi marcher pour n'importe quel autre type d'image (principe de la réponse impulsionnelle). Ci-dessous un exemple (sur Arcturus) pris avec mon T300 et une ASI533mm , et tirées d'une vidéo de 1000 images prises à 217 fps et exposées au 8 millième de seconde. L'échantillonnage n'est pa très bien adapté : puisque, avec F/D=5 et la taille des pixels, on a environ 1 pixel par élément de résolution du télescope (~0.5''). Mais c'est suffisant pour voir ce dont il s'agit (d'ailleurs tout cela est bien connu dans la littérature, et je le répète ici juste pour argumenter ): La figure ci-dessous montre 4 images consécutives (distante chacune de 4.6 millisecondes). on voit bien les taches de tavelure évoluer d'une image à l'autre, conformément à la résolution de l'instrument. Je ne vois pas quel pourrait être le ou les filtres linéaires capables de regrouper les tavelures de chaque image. D'ailleurs, même s'ils existaient, le signal à bruit, bien inférieur à celui présenté ici avec une étoile très brillante, serait évidemment insuffisant dans le cas courant. L'image de gauche dans figure suivante est un exemple d'image ''qui n'est pas pétée'', sic @jldauvergne L'idée du ''lucky imaging'' est d'empiler une série de telles images dans lesquels les tavelures (''speckle'') sont regroupées. Dans un tel épisode de turbulence, il n'y a en effet que de la réfraction (''tip-tilt'') et pas de tavelures (diffraction) bien visibles. Un tel tri améliore en effet grandement l'image empilée. Il est assez raisonnable de penser que la moyenne de telles images va correspondre à l'image idéale à la résolution du télescope. Mais, dans ce cas, pourquoi déconvoluer ? Un simple recentrage sur le pic d'intensité suffit (''shift and stack'') ! Et puis, il y a la pertinence du tri : une ''qualité'' d'image fondée (comme usuellement) sur l'algorithme du laplacien (qui évalue le ''piqué'' ) va peut-être attribuer le même niveau de qualité à cette image chanceuse et aux autres quatre images. Enfin, l'image de droite, montre la moyenne des images, additionnées quelque soient leur ''qualités''. La, je pense qu'il n'y a de toute façon aucun algo qui puisse servir, puisqu'il s'agit simplement d'une accumulation aléatoire de tavelures non stationnaires donc toutes différentes. Edited September 14 by alx Share this post Link to post Share on other sites
jldauvergne 16254 Posted September 14 il y a une heure, alx a dit : a figure ci-dessous montre 4 images consécutives (distante chacune de 4.6 millisecondes). on voit bien les taches de tavelure évoluer d'une image à l'autre, conformément à la résolution de l'instrument. Je ne vois pas quel pourrait être le ou les filtres linéaires capables de regrouper les tavelures de chaque image. D'ailleurs, même s'ils existaient, le signal à bruit, bien inférieur à celui présenté ici avec une étoile très brillante, serait évidemment insuffisant dans le cas courant Je ne dis pas le contraire. Si les conditions sont moisies pas de miracle, il faudrait un analyseur et une ao de course pour lutter. Si on respecte un déphasage de 1 rad par contre là tu peux chercher quelle est la psf correspondante et quelle psf donnera le rapport s/b le plus haut. Ton exemple de gauche pour moi est déjà bien pète. Il n'y a pas que du tilt. La deconvolution par psf fait mieux que les ondelettes et si on cherche la meilleure psf image par image (après sélection) , on ne peut que améliorer. Share this post Link to post Share on other sites
easybob95 157 Posted September 14 Bon, ben désolé de vous avoir dérangé avec mon soft. Je vous laisse à vos échanges de haute voltige. Bye. Alain Share this post Link to post Share on other sites
alx 125 Posted September 14 il y a 54 minutes, easybob95 a dit : Bon, ben désolé de vous avoir dérangé avec mon soft. Je vous laisse à vos échanges de haute voltige. Mille excuses, mais ce n'est pas moi qui ai introduit la question de la déconvolution par PSF. Comme je ne crois pas que ce soit de toute façon une solution bien adaptée à la physique de la turbulence , j'ai essayé d'expliquer pourquoi. Les algorithmes qui ont "l'air de marcher" ne me satisfont pas. Maintenant je trouve très séduisants les exemples que tu nous a montrés et j'aimerais, personnellement, en savoir plus. Peut-être les techniques et astuces que tu utilises pourraient-elles être utiles pour essayer de traiter la turbulence dans le cadre de l'astronomie d'amateur où l'utilisation de l'optique adaptative matérielle ne semble pas possible. alx. Il y a 1 heure, jldauvergne a dit : Si les conditions sont moisies pas de miracle Les conditions de l'observation montrée n'étaient pas spécialement "moisies", puisque la turbulence calculée était de 2.3 secondes d'arc. Evidemment ça n'est pas le Pic-du-Midi, mais un site en Bretagne au bord de la mer, assez représentatif de ce que vivent la plupart des astrams, question turbulence. Et la présence de speckle, plus ou moins bien visible, commence dès ~15 cm d'ouverture puisqu'un r0=15 cm correspond déjà à une turbulence exceptionnellement faible. Share this post Link to post Share on other sites
jldauvergne 16254 Posted September 14 il y a 47 minutes, alx a dit : e 2.3 secondes d'arc. Evidemment ça n'est pas le Pic-du-Midi, mais un site en Bretagne au bord de la mer, assez représentatif de ce que vivent la plupart des astrams, question turbulence 2.3 seconde c'est trop en planétaire. La notion de seeing longue pose n'a de toute façon pas d'intérêt en planétaire. Si c'est dominé par le tilt si ça se trouve la nuit est excellente. Et si ça se trouve c'est un cauchemard. Je ne sais pas quelle est ton expérience en planétaire mais j'ai l'impression que tu ne te rends pas compte que si on a des psf comme tu montres on n'observe pas où on rejete dans AS3. Le but est de ne pas dépasser un certain déphasage ce qui est largement le cas dans ton exemple. Et dans ce cadre une psf modulée par les polynômes de zernike de base ça doit permettre de corriger beaucoup. Share this post Link to post Share on other sites
Pascal C03 4260 Posted September 14 Il y a 3 heures, easybob95 a dit : Bon, ben désolé de vous avoir dérangé avec mon soft. J'ai regardé de loin ton soft via tes vidéos... mais je suis impressionné par ton travail et t'encourage à continuer de partager tes résultats en laissant de côté les maladresses. Share this post Link to post Share on other sites
easybob95 157 Posted September 15 Salut Pascal, je continue de toute façon car mon travail a l'avantage de m'intéresser et j'y suis depuis 2018. Si tu sors des us et coutumes validés par les pointures, alors tu vas être un peu seul et à la marge mais ça se gère très bien. Après, vu l'investissement en terme de travail et les résultats que je trouve personnellement très bons, c'est vrai que passer pour un pinpin farfelu ou disons "bien gentil", ça pique un peu, surtout si tu considères que les solutions de haute voltige mentionnée par les grands du domaine ne donnent absolument aucun résultat concret ou même approximatif. C'est d'ailleurs un truc qu'on retrouve moins aux US. J'ai cité NVidia mais c'est pas pour leur faire de la pub. Ils te donnent facilement ta chance et te suivent du moment que ton projet avance. C'est très sympa et ça m'a bien aidé et motivé. En France, tu te fais casser assez vite et c'est dommage pour la créativité. 1 Share this post Link to post Share on other sites
easybob95 157 Posted September 15 Pour revenir un sujet du topic, test hier soir avec malheureusement la Lune trop basse pour l'imager et trop présente pour du CP. Mais dans le Finistère, quand il n'y a pas de nuages, on ne fait pas le difficile. J'ai voulu utiliser mon vieil objectif Canon FD 135mm ouvert à 2.5 pour faire un test sur M13 et M31. Une ouverture à 2.5, c'est franchement limite pour de la vidéo. La caméra est une ASI485MC. La monture est une AZ-GTI. Le logiciel d'acuisition et de traitement est donc JetsonSky. Le signal étant donc faible pour de la vidéo, il faut donc pousser le gain (400 environ) , avoir des temps de pose compris entre 400 et 800ms (donc toujours de la vidéo mais ça devient très relatif quand même), faire du BIN2 et amplifier énormément le signal de l'image brute tout en essayant de maîtriser le bruit qui est malheureusement également amplifié. Le traitement réalisé en live durant l'acquisition : - simuler la luminance qu'on aurait avec un capteur monochrome - amplifier le signal - réglage des couches RVB (je suis toujours très mécontent de la gestion des couleurs par le Sony IMX485MC; c'est très mauvais et quasi impossible à régler très souvent) - gérer le bruit - ajouter un peu de contraste Durant les vidéos, quand l'image est très sombre, c'est l'image brute non traitée. Pas mal de variations dans les réglages pour faire des tests. Ca n'est pas très esthétique mais les réglages sont assez difficiles à faire. Globalement, on retrouve du signal et on reconnait les cibles. C'est pas très propre mais ça le serait encore moins sans les traitements. Le ciel était très mauvais ce qui complique beaucoup les choses. La Lune, la transparence très moyenne, etc. Tout pour rater sa session. Voilà la vidéo. Considérant les conditions très défavorables, je trouve que ça n'est pas si moche que ça. Alain 2 Share this post Link to post Share on other sites
easybob95 157 Posted September 16 (edited) J'ai mis sur Github quelques bouts de logiciel pour tester certaines fonctions que j'utilise dans JetsonSky. Ça requière donc du hardware spécifique (GPU NVidia) et aussi du software (CUDA SDK, Python plutôt la V3.11, numpy, opencv et cupy). J'ai testé les bouts de soft et normalement, ça fonctionne bien. Le lien vers Github : https://github.com/AlainPaillou/CUPY-image-videos-treatments-functions Alain Edited September 16 by easybob95 1 1 Share this post Link to post Share on other sites