Sign in to follow this  
easybob95

Logiciel JetsonSky pour EAA

Recommended Posts

Bonjour

 

diffusion remise à beaucoup plus tard.

Edited by easybob95
  • Like 1

Share this post


Link to post
Share on other sites

Je fais remonter ce sujet car je viens de vois la vidéo qu'Alain a postée hier , assez convaincant :

 

  • Like 1

Share this post


Link to post
Share on other sites

Bonjour,

 

je reviens sur mon vieux topic pour exposer un peu les conclusions de mon travail sur le soft que j'ai écrit et destiné à la vidéo astro : JetsonSky.

 

J'ai pas mal travaillé sur mon soft qui arrive aujourd'hui +/- à maturité, à savoir qu'il est fonctionnel et fait grosso modo tout ce que je souhaite. Tout est toujours perfectible mais les grandes lignes de mon programme de travail sont atteintes.

 

J'ai attaqué des vidéos d'explication et de présentation de JetsonSky, pas pour vendre ma soupe qui n'est pas à vendre mais pour expliquer un peu mon travail qui n'a pas (plus) vocation à être mis à disposition (c'est un soft pour mes besoins spécifiques). Ca peut néanmoins intéresser 1 ou 2 personnes et donner des idées à 2 ou 3 astrams.

 

Première vidéo : la genèse du soft

 

 

 

La 2e vidéo est destinée à présenter les fonctionnalités du logiciel :

 

 

 

La 3e vidéo concerne des exercices de traitement de vidéos de la Lune et Jupiter :

 

 

 

La 4e vidéo à venir sera axée traitement de vidéos du ciel profond. A venir.

 

Voilà, c'est donc la synthèse d'un travail démarré en 2018. Super intéressant pour moi, j'ai appris plein de choses.

 

Au cas où vous seriez curieux.

 

Alain

Share this post


Link to post
Share on other sites

Dernière vidéo sur JetsonSky : exercices sur des vidéos du CP.

 

 

Vous avez maintenant tous les éléments essentiels à propos de mon soft.

 

Si qqu'un a des questions, à disposition pour y répondre.

 

Alain

Share this post


Link to post
Share on other sites
Il y a 6 heures, easybob95 a dit :

Si qqu'un a des questions, à disposition pour y répondre.

Salut Alain,

Et tu as un lien qui permet de tester ton soft? ou cela reste perso?

Stephane

Share this post


Link to post
Share on other sites

Salut Stéphane,

 

J'ai laissé longtemps le soft en acces libre sur GitHub. Assez peu de personnes intéressées et qui ont eu du mal à le faire fonctionner car pas hyper évident d'installer toute la suite logicielle. Ça m'a pris un temps fou pour les aider à résoudre leurs soucis et puis après, il y a eu des commandes spécifiques, gratuites évidemment. Donc, j'ai arrêté de partager le soft car trop chronophage pour moi. Et puis il y a des gens qui se servent, qui disent pas merci et qui intègrent des bouts de ton travail dans leurs softs.

 

Mes vidéos, c'est pour inspirer si possibles des mecs qui bossent pour eux ou qui font des softs commerciaux.

Share this post


Link to post
Share on other sites
Le 09/07/2023 à 18:54, Looney2 a dit :

Je fais remonter ce sujet car je viens de vois la vidéo qu'Alain a postée hier , assez convaincant :

Je me demandais à quoi correspond le point lumineux qui apparaît en bas à gauche ? Un satellite de Jupiter ?

 

Sinon beau travail.

Share this post


Link to post
Share on other sites

Hello,

 

petite séance de test hier soir avec JetsonSky, camera ASI485MC, 7Artisans 35mm F0.95 + filtre IR cut, Az-GTI.

 

Pas mauvais mais pas bon non plus. Le traitement en live apporte quand même énormément de choses. Si j'en restait à la capture brute, ça serait assez nul.

 

La video :

 

 

 

Alain

Share this post


Link to post
Share on other sites

Merci michelsonia08.

 

Ce travail m'occupe beaucoup. Il est au moins pour moi très intéressant techniquement et donne de bons résultats je trouve.

 

C'est néanmoins un epic fail annoncé à l'exportation pour plusieurs raisons :

- très éloigné des pratiques astro habituelles - l'EAA est une niche qui intéresse peu de monde et qui est snobée par les puristes en général

- le traitement d'images quand on tape dans le dur n'est pas répandu en astro (les algorithmes, le traitement du signal en approche math, c'est pas ce que recherchent les gens)

- programmation Python donc assez pénible à exporter car pas de .exe pour une installation facile

- programmation GPU, c'est un peu confidentiel et comme je passe par CUDA, c'est NVidia ou rien

 

Tout ça mis bout à bout, ça fait beaucoup de conditions pour susciter l'intérêt. Cela dit, je fais ce truc pour moi et c'est hyper intéressant. Si ça peut profiter à d'autres, alors c'est nickel.

 

Alain

  • Thanks 1

Share this post


Link to post
Share on other sites
il y a 6 minutes, easybob95 a dit :

- très éloigné des pratiques astro habituelles - l'EAA est une niche qui intéresse peu de monde et qui est snobée par les puristes en général

Ca évolue pas mal, l'EAA est devenue plus grand public grâce aux Unistellar, Vaonis, ZWO et consors. Par contre c'est certains que ceux qui utilisent ces telescopes, sont pour la plupart, comme M. Jourdain et font de l'EAA sans le savoir.

 

Ce qu'il faut, c'est rendre le dispositif simple à utiliser, rapide à mettre en oeuvre et que les résultats ne soient pas trop dégueu ou décevants. Ce qui n'est pas évident. On voit beaucoup ceux qui se débrouillent bien, communiquer sur les forums, mais combien obtiennent des images correctes ? A mon avis pas tant que ça.

  • Like 1

Share this post


Link to post
Share on other sites

il y a des trucs pas mal qui circulent mais surtout sur du live stacking.

 

Au départ, ma volonté était de faire vraiment de la vidéo donc ça diffère un peu. La raison d'être de JetsonSky, c'est en premier des temps de pose les + faibles possibles avec un gain poussé à des niveaux déraisonnables et beaucoup de traitements associés en live durant la capture pour que la vidéo soit acceptable et éviter une immonde bouillie de pixels. De ce côté, je pense que le pari est gagné. Je tiens à l'aspect vidéo (donc temps de pose assez courts) car ça rend l'observation beaucoup plus vivante et c'est très sympa de faire du tourisme CP en vidéo.

 

Pour les résultats pas top en EAA, il y en a effectivement pas mal. Mais ça dérange moins les anglo-saxons que les français qui ont plutôt une approche élitiste je trouve. On verra donc plus souvent des trucs pas top sur Cloudy nights que ici je pense. Mais l'essentiel est de faire des trucs, pas de faire la photo qui tue. Faut se faire plaisir et essayer quand même de progresser un peu si possible.

Share this post


Link to post
Share on other sites

Ce boulot est réellement impressionnant. Les résultats sont bluffants. As-tu pensé à protéger (brevet?) des idées/algo?

Share this post


Link to post
Share on other sites

Salut Ermaz,

 

les brevets, j'y ai jamais pensé mais de ce que je sais, ça coute un bras et c'est pas évident du tout à gérer. Si on s'intéresse à toi, ça se fera surtout au travers d'un contentieux et ça te coutera l'autre bras.

 

J'ai voulu à un moment rentabiliser pour investir dans du matériel. J'étais particulièrement confiant sur des filtres 100% persos type gestion du bruit ou augmentation de la saturation des couleurs sans dégrader l'image. Ces filtres sont hyper performants, bien meilleurs que tout ce qui existe et ultra rapides. Et bien la réalité, c'est que globalement tout le monde s'en fout. Je suis tombé de pas haut mais tombé quand même.

J'avais mis mon code sur Github surtout pour jouer le jeu avec NVidia qui m'a quand même bien aidé en me fialnt du matériel (ils sont franchement top chez NVidia). Mais là, c'est assez difficile : les gens veulent tout gratuit, des modifs, ils arrivent pas à installer une librairie, etc. Et pour te dire merci, c'est du rapide. J'ai eu aussi des mecs qui te proposent une collaboration mais en gros, tu fais tout pour rien et ils ne font rien.

 

Le mec d'Ovni Night Vision a aussi trouvé que bon, c'est un peu de travail pour installer le soft alors bon, il a pas envie de se casser le cul.

 

C'est un peu comme dans la vie, il faut faire les bonnes rencontres pour que ça décolle. J'ai fait une bonne rencontre avec NVidia donc c'était super. Pour le reste, c'est beaucoup de gens qui veulent tout gratuit et tout de suite. Au début, tu rames car tu veux faire plaisir mais ensuite, tu rétropédale car ça te prend trop de temps pour rien.

 

Tout ça m'a bien fatigué et tu es souvent déçu car tu crois en la valeur de ton travail et ça fait pchitttttt. L'ego en prend un coup.

 

Donc, depuis plusieurs mois, je me suis recentré sur mon travail perso et j'échange avec quelques rares personnes motivées. J'ai voulu essayer un peu l'IA avec les modèles prédictifs et de tracking et je suis vachement content car j'ai trouvé des explications sur les réseaux de neurones (j'aime pas utiliser des boîtes noires que je ne comprends pas). Ca m'a permis de comprendre les maths qui sont derrière ça et ça a vachement facilité le choix du modèle (YOLOv8) et sa mise en oeuvre.

 

Pour les cratères et les satellites, ça marche plutôt pas mal même si c'est juste un test et que je dois revoir les datasets.

 

Tout ça pour dire que ma politique est plutôt d'avancer sur des choses qui m'intéressent et avoir des résultats qui me font plaisirs. Si ça débouche sur un truc à l'extérieur, ça sera un plus mais c'est pas l'objectif principal.

Share this post


Link to post
Share on other sites
il y a 9 minutes, easybob95 a dit :

Tout ça pour dire que ma politique est plutôt d'avancer sur des choses qui m'intéressent et avoir des résultats qui me font plaisirs. Si ça débouche sur un truc à l'extérieur, ça sera un plus mais c'est pas l'objectif principal.

 

C'est exactement la réponse que j'ai faite dans une autre discussion sur l'Astrowl Box. L'idée c'est avant tout de se faire plaisir et d'apprendre, si ça prend de l'ampleur tant mieux. Mais je n'ai pas envie de me mettre en risque, ni d'avoir des insomnies parce que j'aurai trop misé sur un concept qui finalement ne trouve pas son public. C'est peut être ce qui fait la différence entre des gars comme moi et ceux qui développent un business !

 

Pour l'instant ça suit son bonhomme de chemin, ça se propage et j'arrive à gérer. Mais pour en vivre il faudrait passer à la vitesse supérieure et avec les chinois qui (au moins sur le sujet des smartscopes) n'ont rien inventé, ont tout piqué et se font la cerise en cassant les prix, ça peut mettre un arrêt brutal à ton business. Je ne sais pas comment Unistellar et Vaonis vont gérer ça, mais pour l'instant ça a l'ai d'aller, au vu des derniers financements participatifs.

  • Like 1

Share this post


Link to post
Share on other sites

Ca a l'air chouette. 
Est ce que ce développement apporte quelque chose par rapport à Scharp Cap ? 
J'ai l'impression qu'en planétaire, l'alignement est multi point ? Si oui combien de zones dans cet exemple ?
Est ce qu'il n'y a pas un moyen d'arranger l'ergonomie du code pour que ça devienne plus facile à installer (quoi que un tel projet peut ne pas avoir pour vocation à être partagé, ça reste un choix très personnel). 
 

Share this post


Link to post
Share on other sites

On se rejoint parfaitement avec Astrowl. La prudence est de mise quand on livre au public le fruit de son travail. Ça peut piquer les yeux.

Share this post


Link to post
Share on other sites

Salut Jean Luc,

 

je connais assez peu Sharpcap car j'utilise plutôt Firecapture.

 

Néanmoins, je pense que JetsonSky n'apporte rien à Sharpcap. Sharpcap est très complet et il vise surtout la photo via des posts traitmeents classiques type DSS ou AS3 + R6 etc.

 

JetsonSky vise vraiment la vidéo, le produit final étant une vidéo et pas une photo. JetsonSky sert surtout à gérer des gains excessifs qu'on n'applique jamais avec une caméra et à immortalisée des captures plus dynamiques (forcément avec une vidéo plutôt qu'une photo).

 

Pour un produit final type photo, JetsonSky va avoir du mal car il améliore le rendu sur 1 frame voire 2 ou 3 frames max. Difficile de rivaliser sur du stacking de 1000 frames. On a vraiment 2 utilisations très différentes.

 

JetsonSky, c'est vraiment l'outil pour avoir une vidéo plutôt propre de trucs que tu verras jamais propres avec ta caméra en live. Le ciel breton est assez dégueux mais j'espère pouvoir faire plus de manip cet hiver pour étayer mes propos. L'implantation du HDR par exemple donne des trucs sympas sur M42 et je pense que seul mon soft permet des vidéos de M42 assez sympas.

 

Pour le planétaire, la stabilisation se fait sur une portion assez importante de la capture mais au final 1 seule zone. C'est une fonction de OpenCV qui de mémoire fait une FFT sur la zone à caler et retrouve dans les frames de la vidéo cette zone (toujours via FFT).

 

Ensuite, la turbulence est calmée pour l'application de mes filtres de réduction du bruit qui sont en fait des filtres qui limites les degrés de liberté des pixels. Je peux aussi coupler avec un filtre qui limite les degrés de liberté par rapport à la meilleure image de référence (type filtre laplacien sur lequel je surveille la variance pour trouver mon image de référence. Sur une image bruitée, je ne prends cependant pas un Laplacien mais au autre filtre moins sensible au bruit).

 

Tous ces filtres calmes bien les turbulences (et aussi le bruit) ce qui me permet d'appliquer des filtres de netteté, un peu comme les wavelets de Registax; j'ai 2 filtres de netteté que je peux combiner et je choisi le niveau sur lequel j'applique la netteté (c'est des filtres type unsharp mask et je choisi le niveau sur lequel j'applique la netteté en fixant le sigma de ma gaussienne). C'est très flexible et ça donne de bons résultats notamment sur la Lune.

 

J'ai franchement fait plein de trucs. Je créer mes algorithmes de débayerisation pour avoir des images plus précises, j'ai fait un filtre qui me donne pour une caméra couleur la luminance que j'aurais avec une caméra N&B ce qui est hyper pratique pour réduire mon temps d'exposition sur une vidéo du CP et ça marche vraiment bien avec un bruit assez contenu, etc.

 

Le truc qui m'a permis de vraiment avancé, c'est mes filtres de gestion du bruit. Si on sait gérer le bruit, on peut se permettre plein de traitements après. Les filtres classiques type KNN ou NLM2, c'est pas si top et ça détruit la netteté. Ma grande idée, ça a été de travailler sur 2 ou 3 frames consécutives vu que je bosse avec des vidéos et ça permet une excellente maîtrise du bruit et je ne perds pas la netteté de l'image de base, tous les détails sont préservés.

 

L'ergonomie de JetsonSky est assez merdique mais je voulais avoir accès à tous les paramètres de réglage sans avoir à passer par des menus et des fenêtres car les réglages doivent être adaptés facilement (un réglage sur un filtre peu nécessiter des réglages différents sur d'autres filtres) donc c'est voulu. Dernier truc, c'est que tous les filtres sont appliqués en 1 seule passe ce qui est top. Par contre, l'ordre d'application des filtres doit être judicieusement choisi sinon ça donne de mauvais résultats.

 

Voilà en gros pour ce bidule que j'ai commencé en 2018 sur un raspberry Pi 3B+ et une picamera. Je n'aurais jamais pensé aller si loin. C'est hyper intéressant. Et le truc le plus top, c'est de développer une théorie pour un traitement, de transformer cette théorie en pratique (développer l'algorithme mathématique ad hoc et coder l'algo), faire un test et voir que le résultat obtenu est conforme à l'attente. C'est hyper satisfaisant, surtout quand c'est une méthode vraiment nouvelle (pas une resucée d'un truc déjà existant). Le DIY, c'est vraiment top.

 

  • Like 2

Share this post


Link to post
Share on other sites
il y a 20 minutes, easybob95 a dit :

JetsonSky vise vraiment la vidéo, le produit final étant une vidéo et pas une photo. JetsonSky sert surtout à gérer des gains excessifs qu'on n'applique jamais avec une caméra et à immortalisée des captures plus dynamiques (forcément avec une vidéo plutôt qu'une photo).

Tu peux faire de la vidéo aussi avec moyenne glissante dans SC. 
Je reste dubitatif sur l'efficacité d'observer avec des gains excessifs (sauf si on n'a vraiment pas le choix). Je pense (peut être à tord), que si le gain est trop fort, il y a trop de bruit pour identifier les détails et donc les stacker en les alignant proprement. Pour du stack global une zone ça ira, mais le but d'un gain fort c'est de batailler avec la turbu. 
On le voit assez bien en fait sur l'atm de Saturne. Quelque soit le gain, les détails ne sont pas accrochables car trop peu contrastés, et du coup le rendu final sur le globe dépend beaucoup du seeing. Par contre sur les anneaux on peut avoir une stratégie de gain très fort car le contraste est maxi. 

 

 

 

Le 11/09/2024 à 10:06, easybob95 a dit :

- programmation GPU, c'est un peu confidentiel et comme je passe par CUDA, c'est NVidia ou rien

 

Tout ça mis bout à bout, ça fait beaucoup de conditions pour susciter l'intérêt.

Je pense que dans notre domaine pas mal de gens s'équipent en Nvidia quand même. On a vite fait d'aller vers des PC de gamer pour que le PC ait les épaules solides sans complètement casser la tirelire sur un PC pro haut de gamme à 3000€+

 

il y a 24 minutes, easybob95 a dit :

Pour le planétaire, la stabilisation se fait sur une portion assez importante de la capture mais au final 1 seule zone. C'est une fonction de OpenCV qui de mémoire fait une FFT sur la zone à caler et retrouve dans les frames de la vidéo cette zone (toujours via FFT).

Du coup le gain apporté est très limité. Tu vas corriger le tilt uniquement. Dans beaucoup de cas baisser le gain et allonger le temps de pose devrait donner le même résultat. 

Humblement, je n'ai pas tout compris dans tes explications. Mais est ce que tu penses qu'une vidéo générée de cette façon donnerait une meilleure image finale qu'à partir d'une vidéo standard ?

Beau développement en tout cas.  

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this