-ms-

Banni
  • Compteur de contenus

    0
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 39687

Tout ce qui a été posté par -ms-

  1. Humidité à l'intérieur d'un C11

    Il existe un ventilateur qui se fixe temporairement à la sortie du tube et qui évite cette condensation. Elle est surtout pleine d'artefacts ton image ?
  2. La double -triple de la Lyre

    Et avec 5000 poses de 1/10s au lieu de 500 poses de 1s ? Sinon en corrigeant l'ovalisation, le triplet devient plus évident. La troisième fois sera la bonne.
  3. ajouter de la turbulence

    Oui polo, l'idée c'est de partir des images brutes comme ci-dessous, d'en estimer le bruit pour obtenir une animation comme ci-dessus. Après, il est bien sûr possible de figer la vidéo en estimant le flot optique mais aussi de faire ressortir les satellites cachés dans l'arrière plan : L'image de droite (vidéo assistée) permettra de faire des animations en super résolution x2 ou x4.
  4. Sympats ces images avec des ombres bien tranchées :
  5. Ce qui est important c'est de pouvoir estimer la densité de probabilité du bruit seul. Vu sous cet angle, cela devient le paramètre unique. Le seuil de détection indiqué plus haut en découle donc cela peut être aussi le paramètre unique. Il existe un modèle statistique dans le cas de poses courtes (lucky regions, similarités) qui est basé sur la détection de zones homogènes de bruit dans une rafale d'images brutes.
  6. Jupiter par Polo à la sauce artificielle...

    Ta simu SN7 montre plein de détails et pour capter ces détails EVA travaille sur des patchs de 4x4, 8x8 ou 16x16 dans un premier temps avec des rafales de 10 images puis sur une trentaine de rafales (300 images) pour extraire le maximum de signal. Après, il devient possible de remplacer chaque patch par son homologue haute résolution sans oublier la couleur au passage. Pour aller à la pêche aux détails, il faut utiliser les lucky regions mais pas seulement, il faut aussi utiliser les similarités et l'approche multi-échelle pour l'estimation du bruit. C'est à partir de cet ensemble de traitements appliqué à des rafales que l'on commence à voir émerger les détails de la turbulence. Par contre aller à la pêche à partir d'une image c'est comme si tu voulais attraper des crevettes avec une épuisette percée.
  7. scopedome - protection contre l'humidite

    En plus c'est 1,20m et une pente de 3% pour éviter que l'eau stagne et que tu récupères des bactéries soit 1,20m d'un coté et 2,00m de l'autre. Ce qui n'est pas malin c'est de récupérer de l'air à 0°C en hiver et 30°C en été alors qu'il existe une solution simple pour récupérer un flux constant à 15°C.
  8. scopedome - protection contre l'humidite

    Tu places un tube polypropylène de 30m sous terre à plus de 1,20m et tu récupères de l'air qui n'est pas humide et pratiquement à 12°C quelle que soit la saison (les romains utilisaient déjà ce système pour rafraîchir). Le tube insuffle un volume d'air sec par seconde qu'il suffit d'extraire avec la ventilation simple flux qui est commandée par un capteur d'humidité. Cette solution convient aux maisons, aux vides sanitaires mais aussi aux coupoles. J'ai déjà testé ce système dans des régions froides et humides. A l'entrée du tube, il faut mettre une borne avec un filtre anti-pollens pour éviter les allergies.
  9. scopedome - protection contre l'humidite

    Pourquoi faire simple quand on peut faire compliqué ? Il y a un dispositif qui s'appelle la ventilation simple flux hygroréglable et qui marche très bien pour ce type de construction. L'idéal serait de faire l’insufflation par un puits canadien mais une prise d'air extérieure peut déjà suffire compte tenu du faible volume.
  10. Jupiter par Polo à la sauce artificielle...

    Ce genre de traitement est intéressant en post-traitement d'images artificielles comme les vidéos d'EVA par exemple. Le gain (réduction du bruit, augmentation de la résolution et du contraste) c'est en amont qu'il faut aller le chercher. Avec EVA la solution est au niveau du patch qui peut être multi-trame et multi-échelle. En plus le bruit est différent en Cr et Cb donc tu dois aussi en tenir compte quand tu recréée l'image RGB à partir de YCrCb. J'hésite à intégrer la super résolution au niveau du patch mais cela est tout à fait possible en utilisant un dictionnaire par domaine. Pour l'instant cela se fera en post-traitement avec TensorFlow à partir des vidéos fournies par EVA. Dans un an ou deux avec des cartes plus puissantes, je pourrai certainement intégrer la super résolution dans une vidéo assistée en temps réel et la boucle sera bouclée.
  11. Jupiter par Polo à la sauce artificielle...

    Neb, faire de la super résolution sur l'image de Yann en utilisant les 3 images de Mars, Jupiter et Saturne ça donne cela : Pour obtenir quelque chose qui ressemble à cela : je fais autrement. Cette image de référence est décomposable en patchs qui forment un dictionnaire de patchs HR. Il suffit de substituer aux patchs de l'image débruitée, défloutée et redressée leurs équivalents en HR. C'est compliqué de le faire en couleur alors on transforme l'image dans l'espace de couleur YCbCr puis on travaille sur les patchs Y de la luminance et à la fin on retrouve la couleur en retransformant en RGB. Tout cela est en développement mais j'obtiens un rendu meilleurs qu'avec l'apprentissage profond. On doit certainement pouvoir faire de même avec TensorFlow mais pour l'instant je n'ai pas trouvé. Pour polo, j'obtiens cela avec l'apprentissage : L'image de gauche c'est l'image de polo, l'image du milieu c'est l'image corrigée par apprentissage et l'image de droite c'est comme l'image du milieu mais avec une correction du bruit en plus.
  12. Jupiter par Polo à la sauce artificielle...

    blanc : image initiale (image du haut) jaune : image obtenue par apprentissage (image centrale) rouge : image de référence On doit pouvoir faire coller les courbes jaune et rouge.
  13. rotation de champ

    Alors la réduction du bruit et la réduction d'étoiles, quand tout augmente comme en janvier 2018, voilà enfin une bonne nouvelle.
  14. rotation de champ

    Oui et en plus pour mieux faire ressortir la nébuleuse et faciliter le recalage des 47 poses, il faudrait débruiter avant chaque brute parce que le bruit ça créer comme un filtre opaque (je ne crois pas qu'une réduction d'étoiles soit la bonne solution) : Je sais bien que pour certains le bruits c'est ce qui donne vie à leur vidéo et après tout, il en faut pour tous les goûts.
  15. rotation de champ

    Une méthode qui marche bien pour recaler 47 poses de ce type c'est par exemple Horn-Schunck. Je ne sais pas ce qu'utilise IRIS mais il existe aujourd'hui des méthodes qui marchent dans pratiquement tous les cas.
  16. NGC 891 27X10s

    Sûr que c'est impressionnant en si peut de pose mais il faudrait isoler ces petites galaxies lors de l'acquisition pour obtenir quelque chose qui ressemble à cela par exemple :
  17. Jupiter par Polo à la sauce artificielle...

    Ces images c'est en gros ce que l'on obtient en post-traitement TensorFlow de vidéos obtenues avec EVA. Demain (pas cette année) elles seront obtenues directement sur le terrain quand Google aura intégré son moteur dans un processeur.
  18. NGC 891 27X10s

    Il y a des petites galaxies noyées dans le bruit et c'est là justement que la détection d'un bruit hybride peut être intéressante. Le fond du ciel de l'image de référence est très noir.
  19. Jupiter par Polo à la sauce artificielle...

    WinPython et Anaconda sont 2 environnements de développement scientifique Python concurrents et non compatibles entre eux. J'ai utilisé WinPython par le passé mais Anaconda est bien plus pratique avec la commande "conda" qui permet de pratiquement tout installer. Sans passer par le tuto, ton appli doit pouvoir s'installer en très peu de temps avec Anaconda. Voir par exemple "Anaconda vs WinPython" sur Google. En partant uniquement d'Anaconda pour Python 3, tu devrais pouvoir installer sans problème l'appli. Pas la peine de créer un environnement virtuel puisque "conda" fait déjà cela. Ne pas oublier de mettre le répertoire où sont installés les fichiers bin d'Anaconda dans le path. Moi, j'ai un répertoire "anaconda3" pour Python3 et "~/anaconda3/bin" dans mon path Linux.
  20. Jupiter par Polo à la sauce artificielle...

    Il me reste une machine sous W7, je peux regarder ton application la semaine prochaine. Dis-moi quelle application tu veux faire tourner sous Windows et on pourra faire cela en même temps.
  21. Jupiter par Polo à la sauce artificielle...

    Tu veux mettre en œuvre un auto-encodeur (un réseau de neurones artificiels utilisé pour l'apprentissage non supervisé) avec TensorFlow pour débruiter, déflouter, compresser ou faire de la super résolution : http://www.learnopencv.com/understanding-autoencoders-using-tensorflow-python/ Cas de l'auto-encodeur débruiteur : il n'est efficace que pour le bruit pour lequel un apprentissage a été fait (c'est pour cela que j'ai abandonné cette voie il y a plus d'un an pour passer à l'estimation d'un bruit hybride par une approche multi-trame, multi-échelle et multi-mode). Par contre dans le cas de la super résolution et de la fusion de zones, il y a de quoi faire notamment pour les post-traitements (libres sur le site) des vidéos assistées d'EVA.
  22. Jupiter par Polo à la sauce artificielle...

    Lasagne s'installe avec conda comme indiqué plus haut : https://anaconda.org/toli/lasagne Idem pour tous les autres modules que tu ne trouves pas (ou qui ne sont pas à jour) dans ta distribution d'Anaconda.
  23. Jupiter par Polo à la sauce artificielle...

    Tu installes Anaconda pour Windows comme je te l'ai indiqué plus haut et après tous les modules sont dedans : Python, TensorFlow, SciPy, pillow. Si TensorFlow n'est pas installé, tu l'installes via la commande conda en tenant compte de la version demandée. Anaconda existe pour Windows, Mac et Linux.
  24. Jupiter par Polo à la sauce artificielle...

    C'est justement le risque que l'on prend quand on ne peut pas estimer le bruit. Certains essayent d'estimer un bruit hybride à partir de l'étude de zones homogènes de bruit d'une seul image naturelle. D'autres (comme moi) essayent d'estimer à partir d'une rafale d'images naturelles. Ce que tu ne mesures pas c'est le caractère fractal d'une image naturelle c'est à dire sa richesse en similarités à différents modes et à différentes échelles. L'algorithme qui m'intéresse le plus est multi-modes et multi-échelles car c'est de la richesse en zones homogènes de bruit que dépendent les performances de la chaîne en aval. Les images fabriquées par l'Homme ont un caractère fractal moins marqué que les images fabriquées par la Nature, de ce fait elles se prêtent bien aux algorithmes utilisant l'apprentissage profond. Les images naturelles traitées par EVA deviennent des images artificielles dépourvues de bruit et pauvres en similarités, elles deviennent alors un met de choix pour la super résolution par apprentissage profond. Une image devient vivante quand elle s'anime et pour donner au flot optique de bonnes chances de réussite, il faut estimer le bruit. Une image devient vivante quand le flou s'estompe et pour donner au dé-floutage de bonnes chances de réussite, il faut estimer le bruit. D'un autre coté, toi tu sembles dire qu'une image est vivante grâce au bruit.