-ms-

Banni
  • Compteur de contenus

    0
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 39687

Tout ce qui a été posté par -ms-

  1. L'image du bas c'est le résultat obtenu avec une rafale de 31 images dont l'image du haut est la première. L'appareil photo est tenu à la main et il balaye légèrement le champ, pendant ce temps EVA recale les 30 images sur la première (flot optique avec déplacement important). C'est comme si tu veux faire une photo avec un dobson sans entraînement, il suffit de maintenir plus ou moins l'image au centre et de travailler entre 1/100s et 10s suivant l'objet.
  2. Uniquement avec les 4 images brutes : crab1.fit, crab3.fit, crab4.fit et crab5.fit La fusion des 4 images ci-dessus (on ne perd plus d'étoiles dans l'arrière plan) : Il faut enlever bien sûr les pixels cosmétiques mais ceux là ne posent pas de problème. Dans la pratique avec EVA, je n'ai jamais des poses unitaires de 7 minutes mais au maximum de 10s avec un dé-bruitage par image, le résultat est donc meilleur et puis le système peut tourner pendant des heures.
  3. En partant de la vidéo de 31 images 177x144 : La première image x2 :
  4. Pour enlever le bruit j'estime d'abord la nature du bruit puis j'utilise un algorithme de débruitage (NL means, NL-Bayes, BM3D, EPLL, K-SVD, ...) pour enlever le bruit. Dans ton cas il faudrait tout faire par logiciel à partir des 4 poses de 7 minutes. A l'ère du numérique, on n'a pas besoin de cette cuisine de darks, d'offsets et de flats, contrairement à ce que pensent certains tout peut se gérer par logiciel à partir des images brutes uniquement. As-tu encore tes 4 poses de 7 minutes ?
  5. Oui, ça va de la mère Poulard (1888) à la Mère Denis.
  6. Faire de la super résolution x4 en vidéo sur la base de 3 images flous pour 1 image nette.
  7. Tu vas dans le répertoire où les .py sont installés puis tu tapes : $ 2to3 -w . et tous les fichiers .py sont convertis (même dans les sous-répertoire). Le hic c'est qu'il y a un bug dans son code que je corrigerai plus tard.
  8. La bonne nouvelle c'est que nous sommes au XXIe siècle mais que certains ne l'ont pas encore compris. Dark et offset s'éliminent simplement par logiciel compte tenu de la nature de ces bruits. Le vignetage c'est une autre problème mais qui peut aussi se traiter par logiciel. Enfin chacun voit midi à sa porte.
  9. Pour passer de Python 2 à Python 3 : a) remplacer tous les "print" par des "print(...)" les parenthèses b) remplacer tous les "xrange" par des "range" Il y a aussi l'utilitaire "2to3" qui permet de faire la conversion. Pour la vidéo ci-dessus, je ne l'ai pas encore traitée avec EVA parce que le defoggin est en cours mais si tu veux voir ce que donne EVA pour le traitement d'autres problèmes inverses (vignetage, flou de mouvement, flou astro, ...), il y a ce lien (voir les PSNR dingues) :
  10. Je dirais plutôt une vingtaine. Pas facile de monter en décibels uniquement par une approche IA comme dans la vidéo ci-dessous faite avec SPMC-VSR : C'est pas mal, surtout en partant de là : Mais avec EVA je traite le débruitage, le défloutage et le defogging avant de faire la super résolution ce qui permet d'avoir une image beaucoup plus nette.
  11. Ajustement des flats

    L'idée c'est de trouver une méthode de restauration d'images brutes suffisamment versatile mais aussi rapide. De nombreux essais ont été faits avec l'algorithme BM3D qui est servi à toutes les sauces mais au prix chaque fois d'un effort de codage important. D'autres essais ont été faits avec l'algorithme EPLL qui donne de bons résultats en terme de PSNR mais au prix d'une complexité plus élevée que BM3D. Et d'autres encore : K-SVD, NL means, NL-Bayes, RNLF, ... EVA a exploré ces différents chemins du labyrinthe pour pouvoir tracer son propre sillon basé sur des patchs, le résultat de ce travail sera encapsulé dans un système embarqué sous Linux. Le principal problème reste l'estimation comme par exemple cette estimation du bruit d'une rafale de 10 images brutes de polo en utilisant la méthode plus générale (multiframe et multiscale) que celle décrite dans RNLF (première et cinquième image de la série, les patchs sont de 4x4) : Il faut une dizaine d'images brutes pour avoir une estimation fiable du bruit. Il est possible d'estimer dans la même boucle le bruit (voir ci-dessus en rouge), le flou, le vignetage et la dispersion atmosphérique c'est ce qui sera nécessaire lors de l'opposition de Mars en juillet 2018. Il ne restera plus qu'à embarquer la résolution de problèmes inverses dans un instrument automatique utilisable aussi bien pour l'observation terrestre à longue distance que pour l'observation céleste.
  12. Ajustement des flats

    J'ai envie de faire tourner EVA avec le nouveau processeur Ryzen 5 2400GE (35W) dans le but d'obtenir un boîtier sous Linux à refroidissement passif de moins de 2 litres. Après quelques optimisations sans grande influence sur la qualité, j'obtiens le traitement de différents problèmes inverses en moins de 1s pour des images 512x512 sur une seule tâche et sans l'aide du processeur graphique. Pour des images Full HD le processeur Ryzen 5 2400GE devrait donc suffire. L'intérêt de l'approche est dans l'estimation d'un ensemble de problèmes inverses par mélange gaussien, poissonnien ou autre. Il est ainsi possible d'estimer en temps réel le mélange de bruit, de flou, de vignetage et de dispersion atmosphérique que l'on rencontre en astro puis de restaurer l'image. Pour la conduite par temps de brouillard qui sera présentée l'an prochain, c'est le problème inverse du defogging qui est utilisé. Dans le domaine médical, d'autres mélanges sont possibles. Pour la photo animalière à longue distance, le bruit, le brouillard et le flou de mouvement sont les problèmes inverses à résoudre. Pour la vision sous-marine, le bruit et le flou de mouvement sont les problèmes inverses à résoudre. Bref, EVA c'est un système embarqué qui permet de traiter en temps réel tout un tas de problèmes inverses dans tout un tas de domaines. A titre de comparaison, l'écart entre EVA et le plus rapide des systèmes intelligents utilisant TensorFlow est de l'ordre de 300x. Le cas de l'ADC logiciel peut aussi être vu comme un problème inverse, c'est sur celui là que je travaille actuellement car Mars approche.
  13. Ajustement des flats

    1 : vignetage (PSNR=11dB) 2 : dé-vignetage (PSNR=37dB l'écart est énorme) 3 : référence Cela ne change rien au résultat et l'opération prend moins de 1/100s.
  14. Je préfère quand M1 a ce coté vaporeux : et même en exagérant :
  15. Ajustement des flats

    Le flou que l'on rencontre en astro, c'est celui ci : 1 : flou astro 2 : dé-floutage astro 3 : dé-floutage hybride (EVA) 4 : référence (Réf.) C'est avec une image, avec une dizaines d'images la courbe blanche tend vers la courbe jaune.
  16. Ajustement des flats

    Un autre problème inverse traité avec EVA, le flou de mouvement : 1 : flou de mouvement 2 : dé-floutage (PSNR=40dB ce qui est encore excellent) 3 : référence L'intérêt de la chose c'est qu'il devient possible de détecter à l'aveugle un perturbation hybride qui serait un mélange gaussien de bruit, de flou et de vignetage par exemple. On va donc bien plus loin que la détection d'un bruit hybride avec EVA.
  17. Ajustement des flats

    Puisqu'on parle du vignetage, j'ai fait un rapide essai avec EVA : 1 : vignetage (PSNR=22dB) 2 : dé-vignetage (PSNR=44dB ce qui est excellent) 3 : référence Celui-ci est peut-être plus parlant (il y a une zone assez compliquée dans le nuage de fumée qui est parfaitement restaurée, c'est le genre de problème qui peut se rencontrer en astro dans la Voie Lactée) : 1 : vignetage (PSNR=11dB) 2 : dé-vignetage (PSNR=36dB l'écart est énorme) 3 : référence
  18. Ajustement des flats

    Le dévignetage est traité comme un problème inverse au même titre que le le débruitage, le défloutage, la super-résolution, l'inpainting, la suppression des artefact de compression et le defogging. Le modèle de mélange gaussien (GMM) permet par exemple d'obtenir d'assez bons résultats dans le traitement des problèmes inverses ci-dessus. Je m'intéresse aux méthodes basées sur des patchs car elles donnent les meilleurs résultats actuellement. Le logiciel EVA qui sortira cette année traite en temps réel tous les problèmes inverses énumérés ci-dessus. Ils ne sont pas tous propres à l'astronomie (le dernier sera utilisé dans un prototype de conduite par temps de brouillard). Il y a cependant quelques cas qui demandent un apprentissage et pour ceux là, EVA sera complété par des post-traitements réalisés avec TensorFlow.
  19. Ajustement des flats

    Sur l'écran noir de mes nuits blanches ... Montesquieu qui ne faisait pas de flats disait : le mieux est le mortel ennemi du bien.
  20. En dé-bruitant c'est plus agréable à regarder.
  21. Ajustement des flats

    De toute façon il n'y aura pas de 22ième siècle parce que l'espèce humaine aura remis les clés aux robots. Alain l'apprentissage c'est bien jusqu'à un certain age, c'est même ludique jusqu'à l'adolescence. Après c'est la descente et à nos ages c'est tout schuss vers la fin de la piste pour rejoindre les poussières de 500 pixels de large de Thierry.
  22. Ajustement des flats

    C'est important d'indiquer les conditions de prise de vues : des poses relativement courtes (1/100s à 10s) et un suivi altaz en général. Le cas où la nébulosité se confond avec le vignetage relève de l'intelligence artificielle, il est donc du ressort des post-traitements, on est au 21ieme siècle Thierry.
  23. Ajustement des flats

    Le vignetage se détecte et se se retire assez simplement par logiciel. Les poussières deviennent des objets mobiles donc identifiables par le flot optique. C'est fou qu'au 21ième siècle (à l'heure du numérique), on utilise encore ces techniques.
  24. Pour le ciel profond, il manquait la détection et le traitement du vignetage (devignetting) c'est maintenant chose faite. Le ciel profond utilise un recalage non-rigide des patchs, la correction du bruit hybride, la fusion de zones et éventuellement la correction du vignetage. Ce que je n'ai pas vu avec l'eVscope c'est la capacité de fusionner les zones comme le fait par exemple notre cerveau en observation visuelle (le cœur des galaxies ou des nébuleuses ne doit pas être cramé). Compte tenu des nouveaux processeurs (Ryzen 5 2400G en particulier) le coût du calculateur va nettement chuter, le volume et la consommation vont aussi se réduire de moitié. Il devient alors possible de construire pour le coût d'un eVscope (ou similaire) une configuration automatisée bien plus puissante et évolutive. J'aime bien cet exemple qui résume à la fois le planétaire (la planète) et le ciel profond (les 3 satellites en arrière plan) : la fusion de zones permet d'obtenir des objets qui ne sont pas au même niveau de luminosité et de contraste à partir de rafales d'images brutes (ici au bout de 3s). Oui mais EVA a bien le droit de s'envoyer en l'air, non ?
  25. Hors réseaux de neurones (TensorFlow et similaire), il faut pouvoir traiter par les algorithmes traditionnels : - le bruit, - le flou, - le vignetage, - la super-résolution. Il me manquait le dé-vignetage dans ma panoplie hors c'est fait depuis peu. L'autre point important c'est la vitesse, en optimisant les algorithmes, il devient possible de gagner un facteur 2 c'est à dire la différence de puissance existant entre une carte graphique GTX 1050 Ti (9694) et une carte graphique GT 1030 (4754), du coup la consommation est divisée par 2. J'attends maintenant avec impatience le processeur AMD Ryzen 5 2400G (5042) pour tester un boîtier de moins de 2 litres capable d'embarquer EVA pour l'espace. A moins de 170€ le processeur Ryzen 5 2400G qui incorpore le processeur graphique RX Vega 11 cela permet d'envisager un calculateur sous Linux à moins de 500€. Enfin, on peut aussi se poser la question de savoir si dans un patch de 8x8 pixels, on peut détecter à la fois le bruit et le flou, ce qui permettrait de réduire encore les temps de calcul.