ms

Member
  • Content count

    7485
  • Joined

  • Last visited

  • Country

    France

Community Reputation

296 Excellent

2 Followers

About ms

  • Rank
    Hyperactive member
  1. J'aime bien cette version qui n'est pas dans l'alphabet :
  2. Pour un temps d'acquisition inférieur à 90s (ce qui est le cas ici) la scène à photographier est statique donc tous les mouvements de pixels sont causés par la turbulence. Je ne comprends pas trop cette discussion ... ce qui est admis aujourd'hui concernant la turbulence c'est le processus suivant : 1800 images brutes en entrée et 18 secondes plus tard, une image corrigée des effets de la turbulence. Le cas où des objets se déplacent devant la scène (des poussières du capteur par exemple) est plus complexe à traiter : https://export.arxiv.org/pdf/1905.07498 Enfin, j'aime bien la petite animation de Lucien qui se passe de commentaires : Bonne journée à tous.
  3. La A semble répondre à cela ainsi que la J.
  4. L'image initiale alignée sur celle de Lucien mais avec une autre balance des blancs :
  5. Une deuxième version (orientation de la planète et balance automatique des blancs) :
  6. Quel type de pré-traitement permettrait d'augmenter le nombre de patches valides de ta vidéo ? Ici, je n'ai pas fait de pré-traitement sur les images brutes mais un "dejittering" en x et y compenserait les tremblements. A comparer aussi différentes vidéos pour différentes force de jet-stream.
  7. Un seul outil sous Ubuntu 18.04 et Jetson Nano : $ eva -o jup_lucien_1.png Jupiter_1800_RGB.ser // version 1X jup_lucien_1.png $ eva -o jup_lucien_2.png -sr 2 Jupiter_1800_RGB.ser // version 2X jup_lucien_2.png
  8. Un petit png rapide (image alignée sur celle de Lucien) :
  9. Ce qui est intéressant c'est qu'avec une alim externe 5V/3A de 20000mAh (420 grammes), l'autonomie est de plus de 6h avec une carte graphique bien sollicitée. En mode acquisition automatique (vue la compatibilité GPIO RPI3, il existe pleins de petits moteurs pour contrôler la MAP), l'écran est coupé, du coup l'autonomie augmente.
  10. Avec un petit clavier/touchpad pour remplacer le clavier virtuel et la souris : Une config autonome à moins de 300 euros qui consomme moins de 15W, qui intègre les possibilités d'un Raspberry Pi et CUDA/ArrayFire sous Ubuntu 18.04 c'est assez intéressant. Il ne me reste plus qu'à y connecter une MIPI CAM 290, Sony IMX290 For Raspberry PI, JetsonNano à moins de 100 euros et la config sera complète.
  11. Qui parle de TensorFlow ? J'utilise ArrayFire (voir ci-dessus) qui est une bibliothèque C/C++ de tenseurs avec les cartes embarquées Jetson Nano (CUDA) et prochainement UDOO Bolt (OpenCL). C'est plus rapide que d'utiliser TensorFlow ou Torch comme l'explique Facebook avec sa bibliothèque Flashlight : https://arxiv.org/pdf/1812.07625.pdf Il suffit de recompiler ArrayFire pour l'environnement choisi (amd64, arm64, ...). ArrayFire permet aussi de se passer d'OpenCV et de Qt. Enfin, un développement Jetson Nano est entièrement portable (Ubuntu 18.04, CUDA 10.0 et ArrayFire 3.7) sous Jetson Xavier qui est beaucoup plus puissant.
  12. La consommation c'est 10W par défaut (nvpmodel 0) et 5W en mode bridé (nvpmodel 1). J'utilise le mode par défaut et j'alimente la carte en 5V 3A, cela est suffisant pour l'écran tactile 7" FullHD et la caméra ZWO 224MC (autonomie d'environ 6h pour l'ensemble). Ce petit PC sous Ubuntu 18.04 est autonome dans la mesure où tout peut être compilé directement pour l'ARMv8 (pas besoin de passer par un PC avec processeur Intel comme dans le cas des autres cartes Jetson), j'ai fait le test avec la librairie ArrayFire 3.7 : http://gpu-vision.com/index.php/arrayfire-3-7/ Pas de problème non plus pour l'écran tactile qui fonctionne dans un mode reconnu d'Ubuntu 18.04. Le coût de l'ensemble (JetsonNano + boitier + carte microSD 32Go + écran tactile 7" Full HD + alim 5V 3A) c'est 280 euros. Reste maintenant à dessiner avec FreeCAD un nouveau boîtier qui intègre tout cela (Jetson Nano + écran + alim = 600g environ) puis de le fabriquer avec une imprimante 3D, c'est un oculaire électronique en gestation. Il y a aussi 2 ports USB3 de libres pour piloter la monture et la MAP. Quand on pense qu'une nouvelle génération de carte microSD (900 Mo/s) est en préparation (aussi rapide qu'un disque SSD). Consommation Jetson Nano + écran tactile 7" en sollicitant la carte graphique au maximum = 10 à 13 Watt (inférieur aux 15W fournis par la batterie externe de 20000mAh) : Autonomie = (20 / (13/5)) x 0,8 = 6,15h > 6h
  13. Pourquoi cette précipitation pour ôter le bruit ? Ci-après le 2 premières images enrichies des meilleurs patchs de 40 images consécutives (à gauche l'image brute initiale) : etc ... En faisant la même manip avec ton image brute enrichie des meilleurs patchs de 40 autres images brutes :
  14. Avec une seule image brute ça me semble impossible. Tu prends par exemple cette image et tu l'enrichis des bons patchs extraits des 300 premières images brutes. Tu as plus de chance d'avoir une image fidèle en travaillant au niveau du patch que de l'image entière. L'image résultant de cette opération est encore bruitée, déformée mais elle n'est pas floue. Tu refais la même opération avec une autre image brute et 300 nouvelles images consécutives. A la fin, tu obtiens 70 images enrichies bruitées et déformées mais un algorithme comme le centroïde (ou autre) permet d'obtenir une image non déformée. Tu peux maintenant estimer le bruit et dé-bruiter cette image. Pour le moment je prends les images 1, 301, 601, 901, ... pour démarrer, c'est pas très malin parce que si l'image est très déformée, le résultat final sera moins bon. Il me faut trouver un algorithme rapide qui permette de sélectionner une image de départ sans image de référence. En attendant, je peux faire cette sélection en visuel mais ce serait mieux si c'était automatique. L'apprentissage profond pourrait être une solution pour sélectionner cette image de départ qui sera enrichie par la suite avec les "bons patchs" extraits des images brutes suivantes. Pour tester la validité de cette approche, la lune reste un objet de choix, elle permet même d'augmenter le nombre de détails en utilisant des prises faites à des dates différentes.