-ms- 2 Posté(e) 20 février 2018 (modifié) Citation Mais concrètement c'est basé sur quoi ? Le dé-bruitage, le dé-floutage, le vignetage, la dispersion atmosphérique, l'inpainting, le defogging, la super résolution, la turbulence atmosphérique, ... sont des problèmes inverses. De nombreux algorithmes de restauration d'images existent déjà pour le bruit, le flou, le brouillard, ... par contre il est plus difficile d'estimer avant de restaurer. C'est justement ce travail d'estimation du bruit, du flou, du vignetage, de la dispersion atmosphérique, ... que fait EVA pour ensuite appliquer les algorithmes de restauration les mieux adaptés. L'autre difficulté c'est de le faire en quasi temps réel. Modifié 20 février 2018 par ms Partager ce message Lien à poster Partager sur d’autres sites
Astro52 1 641 Posté(e) 20 février 2018 Ca ne me dit pas concrètement comment faire. Et ça change quoi que ça soit fait en temps réel ou pas ? Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 20 février 2018 Citation Et ça change quoi que ça soit fait en temps réel ou pas ? Cela permet de suivre l'objet en temps réel pour faire de la vidéo assistée. Par exemple, dans le cas de M1, l'objet va apparaître de mieux en mieux résolu et ses extensions vont s'étendre. Dans le cas d'une planète c'est la turbulence qui sera corrigée en temps réel. A la fin de la soirée, il n'est pas nécessaire de se casser la tête pour traiter les vidéos. Enfin, je stocke 100 à 300 fois moins de données puisque le traitement se fait sur le terrain. Partager ce message Lien à poster Partager sur d’autres sites