ms

Membre
  • Compteur de contenus

    7 388
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

269 Très bonne réputation

2 abonnés

  1. Parce qu'en plus du Bistrot, vous assurez aussi les prévisions météo ... trop bon ce forum.
  2. Bientôt sur ce forum, une image de la lune comme si j'avais un capteur ... éééénorme.
  3. L'image ci-dessous (928x720) est obtenue par fusion de 20 images (913x683) de la vidéo assistée résultant de l'accumulation de 150 images brutes chacune : Le même principe peut être appliqué à un balayage complet de la lune qui donnera une image complète très résolue à partir de la vidéo assistée. Mais il peut être aussi appliqué au balayage du ciel profond afin d'obtenir une image grand champ à partir d'un petit capteur (IMX224). Enfin si la caméra ne se déplace pas alors on peut laisser l'objet dans le champ durant des heures, une demi rotation de Jupiter en 5h par exemple. A part ça EVA ne fonctionne pas mais je vais quand même essayer de montrer des résultats dans les prochains jours. L'image ci-dessus a été obtenue à partir de cette vidéo : Imaginez ce que cela peut donner sur la lune en entier le 24 octobre, une vidéo qui balaye la lune et l'image de la lune complète en fin de vidéo.
  4. Je vais d'abord montrer à partir de janvier 2019. Ensuite si des astrams sont intéressés, je leur proposerai une configuration calculateur + logiciel afin de limiter les problèmes de maintenance à un système déjà testé sous linux et sous windows. Dans 2 mois j'aurai bouclé les derniers tests ce qui me permettra de proposer des versions d'évaluation. Mon prochain test sera (si le temps le permet) une image complète de la pleine lune obtenue à f/20 et en balayant l'objet comme a commencé à le faire la première vidéo.
  5. Tout de suite les excès et en plus tu n'es pas lorrain que je sache. Je m'explique, j'avais posté les 10 images de ma vidéo assistée avant renforcement dans l'espoir qu'un astram me sortirait ces images renforcées avec les logiciels existants. A part JLD que je remercie, les autres se sont limités à des critiques. Malheureusement, les images de JLD n'avaient pas la taille des images d'origine pour comparer au pixel près. Aujourd'hui, les plus fins détails (lucky regions et recalage subpixel) peuvent finalement être révélés. Dans l'immédiat, je vais terminer l'estimation du jittering dans les images brutes. Après, je commencerai à montrer (en principe en janvier 2019) un premier prototype quasi définitif. La commercialisation ce n'est pas ma priorité mais si les astrams trouvent un intérêt dans ce système alors je le commercialiserai.
  6. Non, mon problème c'était de retrouver les détails présents dans les patchs qui ont permis de construire les images de la vidéo assistée. Je pensais que la solution pourrait venir de ce forum mais finalement j'ai trouvé ce que je cherchai. Merci quand même à tous ceux qui ont pris de leur temps. C'est ce type d'image (obtenue avec 300 images brutes) de la vidéo assistée que je dois encore améliorer.
  7. Justement parce que ce n'est pas un truc.
  8. Ce n'est pas le but, c'est juste pour montrer que les détails détectés dans les patchs se retrouvent bien dans l'image finale. Les astrams auront le choix entre de nombreux produits en 2019 et puis il y a plus de chance que je profite tranquillement de ma retraite plutôt que de me lancer dans des opérations commerciales.
  9. Recherche d'un traitement plus fin sur l'image n°8 de la vidéo assistée. Image obtenue à partir de 300 images brutes consécutives : Même essai sur 'image n°1 :
  10. Première étape avant dé-bruitage ... je ne vois pas trop de différence. Par contre quand je travaille sur l'image 16 bits d'EVA, le résultat est très différent : Après dé-bruitage : Voilà, à comparer maintenant avec vos traitements. C'est la première image de la vidéo assistée.
  11. Voici les 2 images à comparer en 8 bits, la première correspond à EVA :
  12. Le logiciel Kazam qui a fait la capture d'écran allait plus vite donc il y a des doublons. Je corrigerai la prochaine fois. JLD nous a donné une image (raw_lapl5_ap4610.png) sortie d'AS3 à la page 8 de l'autre post : Je ne sais pas si elle correspond à l'image n°1 ou l'image n°8 mais c'est à partir de là qu'il faut comparer en appliquant les mêmes traitements.
  13. Tous ceux qui ont un PC portable avec la WiFi peuvent connecter une carte graphique suffisamment puissante. Ce n'est rien de faire un boîtier avec une alim pour faire tourner une GTX 1050 Ti ou une GTX 1060 comme ci-dessous :
  14. C'est mon propre matériel et avant de parler de vendre, il faudra montrer sur le terrain. Je veux montrer un système de diamètre 150mm fonctionnant en altaz et un autre de 280mm fonctionnant en équatorial. L'idée du 150mm c'est la facilité de transport et de mise en route, mais150mm c'est aussi un bon diamètre de départ comme à l'époque il y avait le Perl 115 JPM. Les autres, ils font ce qu'ils veulent ce n'est pas mon problème. Ben non puisque la monture peut accueillir 2 instruments.
  15. 1. Le premier film c'est 10 images obtenues à partir de lots de 300 images brutes. 2. La première empilée résulte du traitement des 300 premières images brutes du répertoire "raw" (0001.png, 0002.png, ... , 0300.png). En fait, il te faudrait traiter l'image 16 bits suivante avec les logiciels actuels : pour comparer après coup avec les traitements que je lui ai fait subir. J'ai mis en place le "deflicking" dans les vidéos, je posterai le résultat par la suite.