-ms-

Banni
  • Compteur de contenus

    0
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 39687

Tout ce qui a été posté par -ms-

  1. Plus de gamma chez ZWO

    Ça ne te dérange pas plus que ça de faire des images avec une caméra fabriquée par des esclaves ?
  2. Plus de gamma chez ZWO

    J'ai l'impression que ce gamma rend certains consommateurs de chinoiseries ... verts de rage.
  3. Plus de gamma chez ZWO

    ZWO ASI 224MC a un circuit FPGA comme les autres membres de la famille, elle peut se tester assez simplement (programme Python ou C) comme la plupart des caméras. Voir par exemple : https://github.com/stevemarple/python-zwoasi/blob/master/zwoasi/examples/zwoasi_demo.py Contrairement au modèle 385, le 224 n'a pas de circuit anti-amp-glow qui se déclenche au bout de 1s. Ce n'est pas gênant pour le planétaire mais c'est dommage pour ceux qui font des poses de quelques secondes. Ce serait intéressant de tester la nouvelle 385 de ZWO (490€) avec l'Altair GP-CAM3 385C (410€) histoire de voir ce que ces caméras ont dans le ventre (FPGA, mémoire tampon, ...). Je soupçonne ZWO de faire à l'économie d'où ma remarque plus haut et vos remarques de consommateurs de chinoiseries ne m'étonnent guère. camera.set_control_value(asi.ASI_GAIN, 150) camera.set_control_value(asi.ASI_EXPOSURE, 30000) camera.set_control_value(asi.ASI_WB_B, 99) camera.set_control_value(asi.ASI_WB_R, 75) camera.set_control_value(asi.ASI_GAMMA, 50) camera.set_control_value(asi.ASI_BRIGHTNESS, 50) camera.set_control_value(asi.ASI_FLIP, 0) GAMMA est fixé par défaut à 50.
  4. Neb c'est pas mal mais tes méthodes de recalage ne permettent pas de conserver des lignes bien droites (on le voit avec l'immeuble au premier plan). EVA utilise le centroïde couplé à une méthode de fusion permettant de conserver des lignes droites. A la fin, il reste un chouia de flou qui peut être corrigé comme dans l'image de droite (cet algorithme est encore perfectible).
  5. Stadius comparatif LRO

    La vidéo peut être figée et la fusion des différentes images peut donner une image super résolue :
  6. Stadius comparatif LRO

    Une rafale de 10 images brutes : Correction bruit & flou à partir des images brutes précédentes (estimation d'un bruit hybride mélangé à du flou) : Résultat après plusieurs rafales (EVA) : Yapuka annuler les distorsions
  7. Stadius comparatif LRO

    Comment peut-on atteindre l'image de référence ? Il faut imaginer un capteur composé de 6400 patchs (8x8) capables de détecter un détail à partir d'une rafale de 10 images brutes. Les images défilent à 100fps et le calculateur remplit les cases de la grille. Les trous peuvent éventuellement être bouchés par "inpainting" mais statistiquement il est possible de remplir cette grille en quelques minutes. La taille des patchs peut varier de (4x4) à (16x16) par pas de 2. Il est aussi possible de revenir sur la même grille lors de plusieurs soirées.
  8. Stadius comparatif LRO

    Ton image correspond en gros à l'image dégradée suivante (bruit+flou) : et tu devrais pouvoir atteindre le niveau de résolution suivant : Pour atteindre l'image de référence, il manque encore pas mal de lucky regions :
  9. C'est ce brouillard de pollution qui est omniprésent dans le nord de la Chine (Pékin, Tianjin, ...), il faut faire ressortir les détails en haut à gauche par exemple. EVA permet de traiter différents types de brumes et brouillards, une fois de plus c'est l'estimation qui est importante. Le defogging ou dehazing doivent être traités comme des problèmes inverses et non par de simples filtrages. TensorFlow permet aussi de traiter ces problèmes par la biais de réseaux de neurones mais au prix d'un travail titanesque d'apprentissage. Je me demande s'il ne faut pas spécialiser EVA par domaine car je ne vois pas l'intérêt du defogging en astronomie.
  10. Plus de gamma chez ZWO

    Gama 3 en 1 flats/darks/offsets depuis le XIXe siècle. En cherchant un peu, il y a plein de bonnes caméras qui résolvent ce problème proprement mais comme la plupart d'entre vous veulent gratter 3 francs six sous en se ruant sur des chinoiseries alors il ne faut pas s'étonner.
  11. Et voilà le résultat avec EVA.
  12. Voici la version quasi définitive basée sur 1 image, la vidéo de 31 images suit. Le defogging est utilisé dans les applis de conduite par temps de brouillard et en photo animalière. Tous ces modules sont implantés dans EVA et permettent la résolution de problèmes inverses.
  13. EVA traite effectivement les problèmes inverses d'estimation/restauration suivants : - Image/video inpainting - Image/video deblurring - Image/video denoising - Image/video super-resolution - Image/video dehazing - Image/video devigneting - Image/video atmospheric dispersion Je pense que la netteté c'est une autre catégorie de problèmes : - Image/video enhancement: brightening, color adjustment, sharpening, etc. Ils sont très intéressants ces challenges, ils sont faits pour tous les élèves qui n'ont pas eu assez de bons points durant leur scolarité.
  14. Dans EVA j'utilise la SR pour faire des zooms de luxe (x2 et x4) ou des crops sur les images de la vidéo assistée. C'est déjà nettement mieux que les interpolations habituelles (cubique, spline, ...). Pour la netteté, je ne vois pas trop d'où cela peut venir (taille des patchs ?).
  15. 1 : image d'origine x2 (interpolation Cubique pour comparer) 2: super résolution x2 traitée comme un problème inverse par EVA La super résolution pourra être intégrée en temps réel à la vidéo assistée ce qui rend l'utilisation de TensorFlow moins intéressante car 100 à 300 fois plus lent. L'image x4 de droite de Neb est intéressante mais il y a des artefacts. EVA traire maintenant la super résolution comme un problème inverse.
  16. ngc3718 à l'ODK16

    Et comme ça, c'est un peu trop ?
  17. Cela permet de suivre l'objet en temps réel pour faire de la vidéo assistée. Par exemple, dans le cas de M1, l'objet va apparaître de mieux en mieux résolu et ses extensions vont s'étendre. Dans le cas d'une planète c'est la turbulence qui sera corrigée en temps réel. A la fin de la soirée, il n'est pas nécessaire de se casser la tête pour traiter les vidéos. Enfin, je stocke 100 à 300 fois moins de données puisque le traitement se fait sur le terrain.
  18. Le dé-bruitage, le dé-floutage, le vignetage, la dispersion atmosphérique, l'inpainting, le defogging, la super résolution, la turbulence atmosphérique, ... sont des problèmes inverses. De nombreux algorithmes de restauration d'images existent déjà pour le bruit, le flou, le brouillard, ... par contre il est plus difficile d'estimer avant de restaurer. C'est justement ce travail d'estimation du bruit, du flou, du vignetage, de la dispersion atmosphérique, ... que fait EVA pour ensuite appliquer les algorithmes de restauration les mieux adaptés. L'autre difficulté c'est de le faire en quasi temps réel.
  19. Exactement, sous certaines conditions (temps d'acquisitions relativement courts par exemple), on peut réaliser des prétraitements par logiciel et après on pourra toujours comparer les différentes approches. Je ne crois pas dans l'immédiat au "big learning" qui est trop consommateur de ressources à moins de posséder un supercalculateur. Par contre de nombreux problèmes inverses (dé-bruitage, dé-floutage, vignetage, inpainting, defogging, dispersion atmosphérique, ...) sont accessibles en quasi temps réel (calcul par le GPU). La principale difficulté c'est d'estimer avant de restaurer (les algorithmes de restauration sont assez nombreux et bien connus). Plutôt que le "big learning", une boîte noire permettant de traiter en quasi temps réel la plupart des problèmes inverses par une approche statistique.
  20. Avant de parler de vendre, il faudra déjà voir ce que ce produit peut apporter en planétaire et en ciel profond. Sous les conditions d'utilisation d'EVA (cadence de prise de vues, caméra, ...), je peux effectivement gérer plein de choses par logiciel et en temps réel. Coté matériel, EVA va suivre l'évolution des processeurs Ryzen 2000G d'AMD et s'installer dans un boîtier de moins de 2 litres. Le premier processeur de la série (Ryzen 5 2400G) est sorti le 12 février 2018 et son coût est raisonnable (160€ chez LDLC) compte tenu du fait qu'il intègre la carte graphique.
  21. NGC 2392: la nébuleuse du clown

    Sympat ces prises à 500ms :
  22. Un peu de cosmétique et une réduction pour comparer avec les premières images : Pratiquement c'est un système embarqué (EVA) qui récupère en entrée des images brutes (1/100s à 10s suivant l'objet) et qui les traite en temps réel (planétaire et ciel profond) pour en faire une vidéo assistée. Pas besoin de se préoccuper des offsets, darks, flats, ADC, turbulence, rotation de champs, ... le système s'occupe de cela.
  23. Non, c'est uniquement l'image d'indice 0 après il faut faire la même chose avec les indices 1,2, ..., 30 donc 31 images qui fusionnées vont largement faire remonter la courbe blanche. D'autre part, EVA c'est du temps réel alors que TensorFlow c'est en moyenne 100 fois plus lent. Il faut comparer ce qui est comparable.
  24. Parce que l'algorithme de flot optique parcourt les déplacements de l'image.