-ms-

Banni
  • Compteur de contenus

    0
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 39687

Tout ce qui a été posté par -ms-

  1. A 11° au dessus de l'horizon, il faut trouver un système correctif adapté : ADC matériel ou logiciel ou matériel+logiciel plutôt qu'un filtre qui risque de compliquer les choses.
  2. Grosse différence de couleurs entre JPEG et RAW

    Le décodage de ton image devrait ressembler à cela : En fait l'idéal c'est de décoder les images brutes puis de travailler de bout en bout avec la même structure de données (en float par exemple) et à la fin de tous les traitement convertir le résultat en TIFF ou en PNG. IRIS qui semble reconnaître le 1100D donne cela : Il doit être possible de retrouver le même type d'image en modifiant l'algorithme de décodage de l'image correcte. C'est une façon de procéder pour essayer de comprendre le traitement fait par IRIS mais pour cela il faut ouvrir le capot.
  3. Grosse différence de couleurs entre JPEG et RAW

    Il y a effectivement plusieurs méthodes (à l'oreille, mon petit doigt me dit, à vue de nez, ...) qui évitent d'ouvrir le capot. Je pense que toutes ces méthodes ont un grand avenir parce que les individus sont formatés pour devenir des consommateurs.
  4. Grosse différence de couleurs entre JPEG et RAW

    Oui c'est courant sur certains serveurs de Free (gratuit) qui ne sont pas mis à jour en temps réel. Par contre ce problème ne se pose pas avec Online (la version payante). Pour le reste, la combinaison de plusieurs logiciels plus ou moins bien maîtrisés, plus ou moins bien maintenus peut vite rendre un problème complexe. Pour décoder le .CR2 qui est une sorte de TIFF : http://lclevy.free.fr/cr2/ C'est plus facile de comprendre ce qui se passe dans une image quand on l'observe de l'intérieur (quelques lignes de code) que de l'extérieur (IRIS, ISIS, AstroArt, DarkTable, ...).
  5. Le test complet des Swarovski SLC 10x42 W B

    Entre 2008 et 2010, la présidence de Swarovski a développé une réflexion globale sur une réorganisation du groupe, ainsi que la planification de délocalisations, vers la Chine, l'Inde ou le Vietnam. Pour Swarovski Optik qui fabrique ces jumelles c'est un peu mieux.
  6. Ben oui, le site démarre lundi 20 novembre 2017 et en principe je ne passerai plus sur les forums astro avant quelques mois. Entre temps, j'ai réussi à trouver une solution à base de mini PC qui a la puissance et l'autonomie nécessaire sur le terrain. C'est donc l'idée initiale que je vais finalement développer sur mon site www.gpu-vision.com à raison d'un article par semaine. Un mini PC évolutif capable de faire de l'acquisition et de la vidéo assistée sur le terrain dans les domaines du planétaire et du ciel profond. Un mini PC capable de faire des post traitements à la maison ainsi que du développement pour les plus courageux. Si tout se passe bien, il y aura un système unique dans le courant de 2018 à base de mini PC sous Linux. Par la suite, ce système pourra être porté vers d'autres environnements (PC portable sous Windows 10, système embarqué à faible consommation) s'il y a une forte demande en ce sens mais ce n'est pas dans l'esprit de ce projet.
  7. Jérôme Gilles propose une évolution de l'algorithme FBA adapté à l'atténuation de la turbulence atmosphérique (je l'avais indiqué il y a quelques mois) : ftp://ftp.math.ucla.edu/pub/camreport/cam15-66.pdf Les méthodes parcimonieuses sont un peu plus rapides et donnent de meilleurs résultats mais elles ne permettent pas une approche temps réel avec un GPU de la puissance d'une GeForce GTX 1050 Ti (il faudrait essayer avec une GTX 1080 Ti mais là le coût du matériel n'est plus raisonnable pour un astram). Les présentations que je ferai l'an prochain sur le terrain sont basées sur une autre stratégie et le moment venu, je pourrai comparer sur le site internet www.gpu-vision.com les différents algorithmes en terme que qualité et de vitesse. Il y aura certainement des évolutions dans les 5 prochaines années mais aujourd'hui quelques algorithmes arrivent à maturité ce qui était loin d'être le cas, il y 10 ans. C'est une bonne chose que certains s'intéressent enfin à ce domaine qui va commencer à porter ses fruits. Pouvoir passer du ciel profond au planétaire c'est essentiel pour faire découvrir l'astro aux néophytes, montrer aussi des vidéos complètes prises sur le terrain, c'est tout l'enjeu de ces prochains mois :
  8. Qu'en pensez-vous ?

    Est-ce que ce ni con 900 pets est 100 fois plus puissant que l'eVscope ?
  9. L'algorithme FBA et ses dérivés c'est pas mal (voir quelques demos dans le lien ci-dessous) mais je ne l'ai pas retenu : http://ipolcore.ipol.im/demo/clientApp/demo.html?id=197 Ces derniers temps, j'ai consulté différents fournisseurs pour faire le choix d'un mini PC basse consommation. Difficile de tenir plus de 5h sur le terrain avec un mini PC compte tenu de la puissance de calcul nécessaire. Du coup c'est la solution préconisée par JLD qui revient au premier plan : HP a eu la bonne idée de ne pas lésiner sur le nombre de cellules (8 cellules) de sa batterie Li-ion et il annonce même une dizaine d'heures avec ce modèle Omen de 17" (5 heures me suffiront). MSI fait aussi un modèle 17" avec disque SSD 512Go très performant (et puis dans msi, il y a ... ) mais j'aime bien la sobriété d'HP et surtout sa batterie plus puissante. Pour le ciel profond, il faut attendre afin qu'une image de ce type se forme à l'écran et l'attente à l'oculaire qui peut être intéressante pour quelques objets Messier brillants, n'a plus aucun intérêt dans 99% des cas. Pour le planétaire c'est différent parce que l'affichage est quasi instantané. Rendez-vous l'an prochain sur le terrain pour les premières démos publics.
  10. J'ai déjà utilisé Python avec les accélérateurs Cython et Numba mais pour la programmation par le GPU, je trouve C/C++ plus près du système. Par contre, il y a une combinaison intéressante c'est Python + ArrayFire.
  11. Je ne suis pas du tout partisan de ce type de manipulation, je n'utilise les réseaux de neurones que pour modestement me rapprocher du mécanisme de fusion utilisé par notre cerveau. Cette fusion permet de rapprocher le point de vue de l'observateur de celui de l'imageur.
  12. C'est le type même de projet consacré à la super résolution qui sera en accès libre (avec d'autres) sur mon site www.gpu-vision.com Ici le soft est écrit en langage Python mais sur le site (consacré aux applications de vision par GPU) les sources seront en C/C++. Tous les développements et exécutions de code seront réalisées sur le mini PC ou le portable 17" retenu. Ces applications sont très lentes si on les exécute sur le CPU, c'est pour cela que la programmation par GPU se développe à grande vitesse. Dans la boîte à outils proposée, le code peut être compilé CPU, CUDA et OpenCL, ce qui permet de mesurer l'apport de CUDA ou OpenCL.
  13. et à part M31, quoi faire en image ?

    En plus c'est discret, on ne voit pas ce qui se trame dans le cœur des galaxies.
  14. et à part M31, quoi faire en image ?

    Le carré c'est une utopie parce que la petite base des nantis du trapèze ne veut pas l'égalité avec la grande base. Le triangle ce sont les 1% qui possèdent 99% des ronds.
  15. et à part M31, quoi faire en image ?

    Tu n'as pas peur GG de t'attaquer à M33 dans le trapèze à 3 cotés ? Tu vas y aller sans filet ?
  16. visuel assisté/photo en remote

    DAO, CAO, FAO, CACAO, ... Comment pourrait-on appeler cette activité qui nique la vision nocturne ?
  17. L'image de départ c'est l'image 4 fois plus petite qui est dans le répertoire "input" : Par la suite, tu as un script Python qui te permet d'utiliser l'algorithme ENet-PAT pour faire de la super résolution x4. Si CUDA est installé sur ton ordinateur ça va assez vite sinon c'est plus lent. Il y a d'autres recherches de ce type en cours mais ce travail est intéressant dans le traitement des textures.
  18. On regarde pratiquement tout le temps du déjà vue car la nature de la plupart des images est fractale. Dans le cas de l'aigle ci-dessus, on ne peut deviner les détails à l'échelle supérieure que par apprentissage. Ce qui est original c'est que cette équipe sort du vieux modèle PSNR pour évaluer la qualité du résultat. Ce type de traitement qui sera intégré au processeur graphique va se banaliser dans les prochaines années.
  19. L'apprentissage non-supervisé est intéressant pour le traitement d'une rafale d'images parce qu'il permet d'effectuer 3 opérations importantes : - le partitionnement des patchs (clustering), - la détection d'éléments atypiques (artefacts), - la réduction de dimensions (analyse en composantes principales). Tout cela se faisait de façon séparée par le passé mais les réseaux de neurones permettent aujourd'hui de le faire de façon intégrée et opportuniste. L'estimation de la nature du bruit et du flou en amont permet de minimiser la deuxième opération qui est toujours source d'emmerdement. En planétaire, l'apprentissage non-supervisé va permettre de révéler les satellites de la planète ainsi que d'autres objets faibles en arrière plan. En ciel profond, l'apprentissage non-supervisé va permettre de fusionner correctement différentes zones brillantes et sombres, contrastées et peu contrastées (M42, M51, M16, ...). C'est une ébauche du mécanisme de fusion qui dans notre cerveau est bien plus complexe :
  20. Google avait présenté, il y a quelques mois, un système analogue mais un peu moins poussé coté 'texture'. Je trouve les réseaux de neurones intéressant pour réaliser la fusion de différentes zones à partir de 2 ensembles d'images brutes. Un premier basé sur la moyenne ou la médiane. Un second basé sur la somme. Il devient alors possible de traiter des images complexes comme M42 où le réseau sera capable de fusionner 'intelligemment' les différentes zones. Ce qui est en train de changer aujourd'hui c'est que ces traitements peuvent se faire en quasi temps réel.
  21. Oui c'est de la super résolution à partir d'une seule image. Pour éviter les inconvénients que tu signales, il faut utiliser plusieurs images et là ça devient très intéressant.
  22. On peut comparer le nombre d'opérations en virgule flottante dans le cas d'un bench utilisant des algorithmes de vision. Pour des calculs en simple précision (float) le processeur Xeon est 40 fois moins puissant que le processeur graphique GTX 1060. Le rapport 19000/995 c'est 20. Une simple carte GTX 1050 avec 4Go de mémoire dédiée c'est aussi 40 fois plus puissant qu'un Core i7 pour le même type de bench, le problème c'est que la programmation par le GPU n'est pas encore très répandue.
  23. Oui c'est une bonne base de 14 litres : https://www.ldlc.com/fiche/PB00237795.html Shuttle c'est du robuste et LDLC est présent en cas de problème.