ms

Membre
  • Compteur de contenus

    6 804
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

53 Neutre

1 abonné

À propos de ms

  • Rang
    Membre hyperactif
  1. oculaire électronique MS

    C'est plus parlant de prendre un instantané avec les satellites, l'idée c'est de montrer en permanence Saturne comme à l'oculaire (avec ses satellites) dans un trou de turbu : Après, il reste encore à faire sortir Encke par alternance de la botte de foin pour que le spectacle soit plus "vivant", je crois que c'est possible vu le processus mis en œuvre pour améliorer non seulement la résolution mais aussi le contraste.
  2. oculaire électronique MS

    La dimension avec la carte GeForce GTX 1050 Ti c'est le format Full HD (1080i). Il n'y a pratiquement pas de différence entre cette carte qui consomme peu (50W) et les cartes GTX plus puissantes (1060/1070/1070 Ti/1080/1080 Ti) qui consomment beaucoup plus, tan que la dimension reste inférieure à 1920x1080. Par contre dès que le format tend vers le Ultra HD (4K), les cartes graphiques plus puissantes prennent le large. Pour du 640x480, il y a 2 cartes qui vont bien : - la GT 1030 (30W) à 80 euros qui est une GTX 1060 coupée en 2, - la Jetson TX2 (15W) à plus de 500 euros mais au format d'une carte de crédit. Le mini PC Shuttle sera aussi testé avec 8Go de RAM et une carte graphique GeForce 1030 pour une utilisation uniquement planétaire. L'intérêt de la formule mini PC c'est qu'on peut moduler en fonction du processeur, de la mémoire et de la carte graphique. Il est aussi possible de faire une config basse consommation avec un i5-7500T (35W), 8 Go de RAM et une carte graphique GT 1030 (30W).
  3. oculaire électronique MS

    C'est moins de 10s de vidéo et comme le recalage est subpixel ça donne cette impression d'image figée. Par contre quand les satellites vont apparaître, notre cerveau va être captivé différemment et là ça peut donner l'effet à l'oculaire dans un trou de turbulence. Ici les artefacts sont écartés dès la phase de détection d'un bruit hybride estimé sur une rafale d'images équivalente à une mini vidéo. Il y a aussi le cas d'une poussière sur le capteur qui donne l'impression qu'un moustique se déplace devant le globe. Le plus difficile pour le planétaire comme pour le ciel profond c'est de rendre cette impression que seuls les observateurs connaissent dans les trous de turbulence, c'est pour cela qu'il faut rechercher cet équilibre dans un algorithme de fusion de zones hybrides. Figer une scène c'est bien mais lui donner un semblant de vie c'est mieux. C'est ce facteur qu'il va falloir mettre au point avec le public autour d'un écran. Comment discuter de cela à travers un oculaire électronique ?
  4. Le test complet des Swarovski SLC 10x42 W B

    Entre 2008 et 2010, la présidence de Swarovski a développé une réflexion globale sur une réorganisation du groupe, ainsi que la planification de délocalisations, vers la Chine, l'Inde ou le Vietnam. Pour Swarovski Optik qui fabrique ces jumelles c'est un peu mieux.
  5. oculaire électronique MS

    Bon, voici EVA (Electronic Vision Assistant) mon assistante de vision électronique : Les satellites ne sont pas encore visibles sur la vidéo stabilisée de droite parce que l'algorithme de fusion des zones hybrides n'est pas encore installé. Par contre la stabilisation de l'image obtenue en 3s à partir de 300 images brutes est au point (bruit, flou et distorsions). EVA sera comme prévu sur le terrain en 2018 et son site internet est ouvert depuis ce matin : www.gpu-vision.com C'est cool, en 2018, il y aura plein de systèmes de vision assistée sur le terrain. EVA n'a pas la prétention de remplacer l'oculaire mais de faciliter l'observation quand la turbu est bien présente c'est à dire dans 90% des cas. PS : attention rien à voir avec 36 15 EVA
  6. Ben oui, le site démarre lundi 20 novembre 2017 et en principe je ne passerai plus sur les forums astro avant quelques mois. Entre temps, j'ai réussi à trouver une solution à base de mini PC qui a la puissance et l'autonomie nécessaire sur le terrain. C'est donc l'idée initiale que je vais finalement développer sur mon site www.gpu-vision.com à raison d'un article par semaine. Un mini PC évolutif capable de faire de l'acquisition et de la vidéo assistée sur le terrain dans les domaines du planétaire et du ciel profond. Un mini PC capable de faire des post traitements à la maison ainsi que du développement pour les plus courageux. Si tout se passe bien, il y aura un système unique dans le courant de 2018 à base de mini PC sous Linux. Par la suite, ce système pourra être porté vers d'autres environnements (PC portable sous Windows 10, système embarqué à faible consommation) s'il y a une forte demande en ce sens mais ce n'est pas dans l'esprit de ce projet.
  7. Shuttle XH110G Intel Core i5-7500 3,4GHz RAM G.Skill DDR4 16Go 2400MHz CL16 Carte Graphique Inno 3D GeForce GTX 1050 Ti Compact 1 Slot Disque SSD Crucial MX300 525Go Ecran Acer 21,5" ET221QBI 16W Linux Mint 18.2 "Sonya" - Cinnamon (64-bit) Cette config consomme maximum 120W (dont la moitié pour la carte graphique). Sur le terrain, une batterie de 100AH permettra de tenir 5H : 120W/12V=10A 100AH/10A=10H 50% x 10H = 5H Pour faire baisser la consommation sans perdre trop de puissance de calcul, on peut remplacer le Core i5-7500 (65W) par un Core i7-7700T (35W). Cette config consomme maximum 100W et permet de gagner 1 heure sur le terrain.
  8. Jérôme Gilles propose une évolution de l'algorithme FBA adapté à l'atténuation de la turbulence atmosphérique (je l'avais indiqué il y a quelques mois) : ftp://ftp.math.ucla.edu/pub/camreport/cam15-66.pdf Les méthodes parcimonieuses sont un peu plus rapides et donnent de meilleurs résultats mais elles ne permettent pas une approche temps réel avec un GPU de la puissance d'une GeForce GTX 1050 Ti (il faudrait essayer avec une GTX 1080 Ti mais là le coût du matériel n'est plus raisonnable pour un astram). Les présentations que je ferai l'an prochain sur le terrain sont basées sur une autre stratégie et le moment venu, je pourrai comparer sur le site internet www.gpu-vision.com les différents algorithmes en terme que qualité et de vitesse. Il y aura certainement des évolutions dans les 5 prochaines années mais aujourd'hui quelques algorithmes arrivent à maturité ce qui était loin d'être le cas, il y 10 ans. C'est une bonne chose que certains s'intéressent enfin à ce domaine qui va commencer à porter ses fruits. Pouvoir passer du ciel profond au planétaire c'est essentiel pour faire découvrir l'astro aux néophytes, montrer aussi des vidéos complètes prises sur le terrain, c'est tout l'enjeu de ces prochains mois :
  9. Qu'en pensez-vous ?

    Est-ce que ce ni con 900 pets est 100 fois plus puissant que l'eVscope ?
  10. L'algorithme FBA et ses dérivés c'est pas mal (voir quelques demos dans le lien ci-dessous) mais je ne l'ai pas retenu : http://ipolcore.ipol.im/demo/clientApp/demo.html?id=197 Ces derniers temps, j'ai consulté différents fournisseurs pour faire le choix d'un mini PC basse consommation. Difficile de tenir plus de 5h sur le terrain avec un mini PC compte tenu de la puissance de calcul nécessaire. Du coup c'est la solution préconisée par JLD qui revient au premier plan : HP a eu la bonne idée de ne pas lésiner sur le nombre de cellules (8 cellules) de sa batterie Li-ion et il annonce même une dizaine d'heures avec ce modèle Omen de 17" (5 heures me suffiront). MSI fait aussi un modèle 17" avec disque SSD 512Go très performant (et puis dans msi, il y a ... ) mais j'aime bien la sobriété d'HP et surtout sa batterie plus puissante. Pour le ciel profond, il faut attendre afin qu'une image de ce type se forme à l'écran et l'attente à l'oculaire qui peut être intéressante pour quelques objets Messier brillants, n'a plus aucun intérêt dans 99% des cas. Pour le planétaire c'est différent parce que l'affichage est quasi instantané. Rendez-vous l'an prochain sur le terrain pour les premières démos publics.
  11. J'ai déjà utilisé Python avec les accélérateurs Cython et Numba mais pour la programmation par le GPU, je trouve C/C++ plus près du système. Par contre, il y a une combinaison intéressante c'est Python + ArrayFire.
  12. Je ne suis pas du tout partisan de ce type de manipulation, je n'utilise les réseaux de neurones que pour modestement me rapprocher du mécanisme de fusion utilisé par notre cerveau. Cette fusion permet de rapprocher le point de vue de l'observateur de celui de l'imageur.
  13. C'est le type même de projet consacré à la super résolution qui sera en accès libre (avec d'autres) sur mon site www.gpu-vision.com Ici le soft est écrit en langage Python mais sur le site (consacré aux applications de vision par GPU) les sources seront en C/C++. Tous les développements et exécutions de code seront réalisées sur le mini PC ou le portable 17" retenu. Ces applications sont très lentes si on les exécute sur le CPU, c'est pour cela que la programmation par GPU se développe à grande vitesse. Dans la boîte à outils proposée, le code peut être compilé CPU, CUDA et OpenCL, ce qui permet de mesurer l'apport de CUDA ou OpenCL.
  14. et à part M31, quoi faire en image ?

    En plus c'est discret, on ne voit pas ce qui se trame dans le cœur des galaxies.