ms

Membre
  • Compteur de contenus

    7 048
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

106 Bonne réputation

2 abonnés

À propos de ms

  • Rang
    Membre hyperactif
  1. Et voilà le résultat avec EVA.
  2. Voici la version quasi définitive basée sur 1 image, la vidéo de 31 images suit. Le defogging est utilisé dans les applis de conduite par temps de brouillard et en photo animalière. Tous ces modules sont implantés dans EVA et permettent la résolution de problèmes inverses.
  3. EVA traite effectivement les problèmes inverses d'estimation/restauration suivants : - Image/video inpainting - Image/video deblurring - Image/video denoising - Image/video super-resolution - Image/video dehazing - Image/video devigneting - Image/video atmospheric dispersion Je pense que la netteté c'est une autre catégorie de problèmes : - Image/video enhancement: brightening, color adjustment, sharpening, etc. Ils sont très intéressants ces challenges, ils sont faits pour tous les élèves qui n'ont pas eu assez de bons points durant leur scolarité.
  4. Dans EVA j'utilise la SR pour faire des zooms de luxe (x2 et x4) ou des crops sur les images de la vidéo assistée. C'est déjà nettement mieux que les interpolations habituelles (cubique, spline, ...). Pour la netteté, je ne vois pas trop d'où cela peut venir (taille des patchs ?).
  5. 1 : image d'origine x2 (interpolation Cubique pour comparer) 2: super résolution x2 traitée comme un problème inverse par EVA La super résolution pourra être intégrée en temps réel à la vidéo assistée ce qui rend l'utilisation de TensorFlow moins intéressante car 100 à 300 fois plus lent. L'image x4 de droite de Neb est intéressante mais il y a des artefacts. EVA traire maintenant la super résolution comme un problème inverse.
  6. ngc3718 à l'ODK16

    Et comme ça, c'est un peu trop ?
  7. Cela permet de suivre l'objet en temps réel pour faire de la vidéo assistée. Par exemple, dans le cas de M1, l'objet va apparaître de mieux en mieux résolu et ses extensions vont s'étendre. Dans le cas d'une planète c'est la turbulence qui sera corrigée en temps réel. A la fin de la soirée, il n'est pas nécessaire de se casser la tête pour traiter les vidéos. Enfin, je stocke 100 à 300 fois moins de données puisque le traitement se fait sur le terrain.
  8. Le dé-bruitage, le dé-floutage, le vignetage, la dispersion atmosphérique, l'inpainting, le defogging, la super résolution, la turbulence atmosphérique, ... sont des problèmes inverses. De nombreux algorithmes de restauration d'images existent déjà pour le bruit, le flou, le brouillard, ... par contre il est plus difficile d'estimer avant de restaurer. C'est justement ce travail d'estimation du bruit, du flou, du vignetage, de la dispersion atmosphérique, ... que fait EVA pour ensuite appliquer les algorithmes de restauration les mieux adaptés. L'autre difficulté c'est de le faire en quasi temps réel.
  9. Exactement, sous certaines conditions (temps d'acquisitions relativement courts par exemple), on peut réaliser des prétraitements par logiciel et après on pourra toujours comparer les différentes approches. Je ne crois pas dans l'immédiat au "big learning" qui est trop consommateur de ressources à moins de posséder un supercalculateur. Par contre de nombreux problèmes inverses (dé-bruitage, dé-floutage, vignetage, inpainting, defogging, dispersion atmosphérique, ...) sont accessibles en quasi temps réel (calcul par le GPU). La principale difficulté c'est d'estimer avant de restaurer (les algorithmes de restauration sont assez nombreux et bien connus). Plutôt que le "big learning", une boîte noire permettant de traiter en quasi temps réel la plupart des problèmes inverses par une approche statistique.
  10. Avant de parler de vendre, il faudra déjà voir ce que ce produit peut apporter en planétaire et en ciel profond. Sous les conditions d'utilisation d'EVA (cadence de prise de vues, caméra, ...), je peux effectivement gérer plein de choses par logiciel et en temps réel. Coté matériel, EVA va suivre l'évolution des processeurs Ryzen 2000G d'AMD et s'installer dans un boîtier de moins de 2 litres. Le premier processeur de la série (Ryzen 5 2400G) est sorti le 12 février 2018 et son coût est raisonnable (160€ chez LDLC) compte tenu du fait qu'il intègre la carte graphique.
  11. NGC 2392: la nébuleuse du clown

    Sympat ces prises à 500ms :
  12. Un peu de cosmétique et une réduction pour comparer avec les premières images : Pratiquement c'est un système embarqué (EVA) qui récupère en entrée des images brutes (1/100s à 10s suivant l'objet) et qui les traite en temps réel (planétaire et ciel profond) pour en faire une vidéo assistée. Pas besoin de se préoccuper des offsets, darks, flats, ADC, turbulence, rotation de champs, ... le système s'occupe de cela.
  13. Non, c'est uniquement l'image d'indice 0 après il faut faire la même chose avec les indices 1,2, ..., 30 donc 31 images qui fusionnées vont largement faire remonter la courbe blanche. D'autre part, EVA c'est du temps réel alors que TensorFlow c'est en moyenne 100 fois plus lent. Il faut comparer ce qui est comparable.
  14. Parce que l'algorithme de flot optique parcourt les déplacements de l'image.
  15. L'image du bas c'est le résultat obtenu avec une rafale de 31 images dont l'image du haut est la première. L'appareil photo est tenu à la main et il balaye légèrement le champ, pendant ce temps EVA recale les 30 images sur la première (flot optique avec déplacement important). C'est comme si tu veux faire une photo avec un dobson sans entraînement, il suffit de maintenir plus ou moins l'image au centre et de travailler entre 1/100s et 10s suivant l'objet.