Nebulium 1 436 Posté(e) 7 mars 2018 Il y a 6 heures, ms a dit : Ce truc ne traite que le bruit gaussien et le monochrome ! Il est loin d'être mûr et son suivi me semble bien approximatif, vues les réponses aux questions. En plus il est écrit en Python 2 et le "2to3" n'est pas parfait ! Marre de parcourir les doléances chez "Stackoverflow", et encore heureux que ce site existe pour les pauvres bidouilleurs non informaticiens ! En attendant de trouver mieux, ce n'est pas évident, j'ai déjà bien fouillé le GitHub, je vais me rabattre sur les filtres traditionnels de VDub et Avisynth, à moins que "ms" me dévoile quelques uns des appas d'EVA dont il nous parle tant ! Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 8 mars 2018 (modifié) En fusionnant les 10 premières images de la vidéo assistée (une image de la vidéo assistée est obtenue avec 100 images brutes consécutives) : C'est ce que l'on voit à l'écran en moins de 10s (1000/120=8,3s). L'image peut encore s'améliorer car on peut travailler sur 2,5minutes soit 18 images de ce niveau de qualité en entrée de TensorFlow pour obtenir une image super résolue. Avec une image super résolue toutes les 2,5 minutes, il est possible de faire une belle animation de Jupiter sur 5 heures (limite de mon système d'acquisition). EVA devrait commencer à produire des images comme ci-dessus pour l'opposition de Jupiter de 2018 soit 10 ans après le démarrage de ce projet. Traiter 120 images brutes 800x600 par seconde demande une puissance de calcul GPU équivalente à une GeForce GTX 1060 c'est en gros la puissance du NUC qu'Intel devrait produire le mois prochain ou du mini pc Asrock DeskMini GTX 1060 pour rester dans des configurations de moins de 2 litres de volume. Citation En attendant de trouver mieux, ce n'est pas évident, j'ai déjà bien fouillé le GitHub, je vais me rabattre sur les filtres traditionnels de VDub et Avisynth, à moins que "ms" me dévoile quelques uns des appas d'EVA dont il nous parle tant ! Il existe des solutions industrielles (par exemple pour la conduite par temps de brouillard ou pour la mesure de l'activité cérébrale) mais les industriels se gardent bien de mettre leurs algorithmes sur GitHub (ils sponsorisent des concours pour voir comment évolue le petit monde des algorithmes de vision). Au fait, est-ce qu'il existe une caméra couleur capable de produire dès l'acquisition des images brutes avec des couleurs plus fidèles ? Il semble qu'avec ces chinoiseries d'ASI ce ne soit pas possible. Tantôt c'est jaunâtre, tantôt c'est verdâtre et tantôt c'est rougeâtre. Modifié 8 mars 2018 par ms Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 8 mars 2018 Il y a 3 heures, ms a dit : Au fait, est-ce qu'il existe une caméra couleur capable de produire dès l'acquisition des images brutes avec des couleurs plus fidèles ? Il semble qu'avec ces chinoiseries d'ASI ce ne soit pas possible. Tantôt c'est jaunâtre, tantôt c'est verdâtre et tantôt c'est rougeâtre. Polo avait écrit : on règle wr à 63 et wb à 99 ,on ne peut régler wv !! donc c'est un peu vert mais ça se corrige ensuite ! En effet, si c'est sur une échelle de 100, on n'a pas de marge de manœuvre pour la balance des blancs qui iront du rougeâtre au verdâtre (film Jupiter) en passant par le jaune (film Saturne ). Bizarre, cette conception de caméra ! Il faudrait éplucher le mode d'emploi en chinois et non sa traduction par ordinateur en anglais... Et insérer le bon filtre Wratten bleu ne serait pas génial pour le bruit ! Il y a 4 heures, ms a dit : les industriels se gardent bien de mettre leurs algorithmes sur ... Hum, ce ne sont pas les seuls ! Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 9 mars 2018 Le 28/02/2018 à 17:39, polo0258 a dit : voila jean ! diamètre 300mm pixel 3.75 Bonjour Paul Si mes calculs sont exacts, : - le PS de ton instrument est d'environ 1/500 000 rad. - 3 pixels de la CCD occupent environ 10µ - La focale mini à utiliser serait autour de 10 x 500 000 / 1 000 000 µ = 5 m A combien travailles-tu ? Partager ce message Lien à poster Partager sur d’autres sites
polo0258 38 422 Posté(e) 9 mars 2018 à f/d de 20 pas le choix donc 6m de focale + adc ,un peu plus alors ! pour saturne ! polo Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 9 mars 2018 Il y a 4 heures, polo0258 a dit : f/d de 20 On est dans les clous, OK. C'est le cas du film de Juju, aussi ? Le 08/03/2018 à 06:42, ms a dit : 100 images brutes consécutives ms, peux-tu m'indiquer lesquelles ? Partager ce message Lien à poster Partager sur d’autres sites
polo0258 38 422 Posté(e) 9 mars 2018 jupiter t 225 pixel 3.75 focale 6.800 de mémoire! polo Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 9 mars 2018 (modifié) Avec des patchs de 32x32 on commence à obtenir une image assez détaillée à partir de 1.000 images brutes mais dans la pratique il vaut mieux utiliser des patchs de 16x16 avec 18.0000 images brutes qui correspondent à 2,5minutes à 120fps. Pour le stockage, je ne vais conserver que les images obtenues à partir de 120 images brutes consécutives. Pour 5 heures d'acquisition cela représente : 5 x 3.600 = 18.000 images d'une qualité équivalente à l'image ci-dessus soit 3,6Go d'images PNG dans un SSD de 500Go. EVA c'est la possibilité d'utiliser en post-traitement TensorFlow pour traiter des milliers d'images comme celle de droite pour construire une vidéo super résolue. La première vidéo de ce type sortira avec l'opposition de Jupiter puis suivront Saturne et Mars. Modifié 10 mars 2018 par ms Partager ce message Lien à poster Partager sur d’autres sites
Francis Adelving 0 Posté(e) 12 mars 2018 Bonjour à tous, Super intéressant ce sujet... Même s'il est à prendre avec des pincettes... Beaucoup même. J'y reviendrai dès que j'en aurai lu un peu plus. Au sujet de la question métaphysique sur le nom du "phare breton" ( "Pas vu cette tour au sommet caractéristique = une aiguille dans une botte de foin !") il fallait chercher à New-York plutôt qu'en Chine. C'est l'Empire State Building ;-) En effet en vue aérienne sous un angle peu commun.... Francis Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 13 mars 2018 (modifié) Il y a 23 heures, Francis Adelving a dit : Super intéressant ce sujet... Même s'il est à prendre avec des pincettes... Beaucoup même Hello Merci Francis ! Oui, l'amélioration des images astro par l'IA reste discutable essentiellement par le risque d'invention de nouveaux détails. Par contre l'amélioration de leur aspect est intéressant, même si cette étape n'est qu'un saut de puce comparée au grand bond en avant que fut la technique d'empilement. Et si le "deep learning" appliqué aux images classiques de test obtenues par réduction apporte de très légers résultats, pour l'astro je n'ai pas encore vu grand'chose. Comme l'a indiqué plus haut "ms" (et montré sur l'EVA grillagée), une piste plus prometteuse est la réduction du bruit des images individuelles. Le facteur majeur est l'amélioration de la technologie des capteurs, loin de cesser de progresser, il suffit de comparer les images sur les forums année après année. Complémentairement, nous autres astrams pouvons à peu de frais utiliser les possibilités des progrès des traitements et je me suis donc orienté maintenant vers l'utilisation de l'IA pour la réduction du bruit. En attendant un retour d'aide de développeurs dans ce domaine pour régler quelques problèmes basiques d'informatique qui me dépassent pour l'utilisation de leurs travaux, j'ai refait un tour des fondamentaux. L'ami Wesley continuant de faire évoluer son Ninox, j'ai retesté sur le film Jupiter" par Polo ci-dessus quelques fonctions que j'avais trouvé intéressantes il y a bien longtemps déjà, pour améliorer les images individuelles avant empilement par AS3 : - 1. Le centrage de la planète - 2. La réduction du bruit - 3. Le morphing De mes premiers essais, il s'avère que les points 1 et 3 sont quasiment intégrés dans AS3. Pour le 2, l’algorithme basiques utilisé n'est pas à négliger, mais les limitations de ce logiciel expérimental (images monochromes, limitation de largeur à 360) obligent à des manœuvres multiples que je n'ai pas encore effectuées, mais un premier essai sur la luminance m'incite à y procéder. Ce travail sera à compléter avec les filtres VirtualDub et AviSynth, plus faciles à utiliser. ____________________________________________________________ à New-York plutôt qu'en Chine. C'est l'Empire State Building Merci Francis J'avais fait une confusion dans ma tête avec le "Chrysler". Voici donc un comparatif (améliorable !) avec le 3D de GE. On peut y vérifier les détails, par exemple : et constater que plusieurs autres immeubles ont disparus ou été construits sur cette zone très convoitée ! Modifié 13 mars 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 13 mars 2018 (modifié) Citation Le facteur majeur est l'amélioration de la technologie des capteurs, loin de cesser de progresser, il suffit de comparer les images sur les forums année après année. Des capteurs plus sensibles, moins bruités et plus rapides. Cela permettra à EVA d'aller plus vite et d'augmenter son champ d'exploration mais cela changera très peu la qualité de l'image résultante. En // les cartes graphiques seront plus puissantes et consommeront moins. EVA construit un capteur virtuel (capteur CMOS + GPU) qui va assez loin dans la recherche des détails. Citation Voici donc un comparatif (améliorable !) avec le 3D de GE. Je suis pas trop mauvais dans le rendu. Modifié 14 mars 2018 par ms Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 14 mars 2018 (modifié) Le 13/03/2018 à 21:03, ms a dit : Je suis pas trop mauvais dans le rendu Certes, pour le rendu colorimétrique, je te trouve bien meilleur que GE ! Mais alors, me chercherais-tu sur un nouveau terrain ? PS : Je viens de faire un traitement conventionnel (AS3, ap16, 40% des 8618 images, pas de drizzle) du film de Polo, suivi d'un post-traitement musclé, pour voir et comparer les ultimes détails avec ta dernière EVA grillagée Pour autant que l'on puisse en juger à travers sa résille, finalement son rendu, bien que plaisant au premier abord, me semble sentir un peu le lissage au Neat . Même algorithme ??? Faudra que j'y passe la mienne ! Modifié 15 mars 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 15 mars 2018 (modifié) Citation Je viens de faire un traitement conventionnel (AS3, ap16, 40% des 8618 images, pas de drizzle) du film de Polo, suivi d'un post-traitement musclé, pour voir et comparer les ultimes détails avec ta dernière EVA grillagée Tu utilises 40% des 8618 images donc il te faut environ 8618 images avec AS3. Je n'utilise que les 1000 premières images, pour comparer il me faudra appliquer la super résolution à 8 images de ce type. D'autre part avec des patchs plus petits 16x16 ou 8x8, je devrais obtenir des images plus fines. Tout cela est encore en développement mais je devrais être prêt pour l'opposition de Jupiter puis Saturne puis Mars. En un peu plus contrasté : Modifié 15 mars 2018 par ms Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 15 mars 2018 (modifié) Ho Il y a 2 heures, ms a dit : En un peu plus contrasté : Honnêtement : BEURK ! Et tu ne pourrais-pas ôter cette grille ? Il y a 2 heures, ms a dit : Je n'utilise que les 1000 premières images OK, je vais faire pareil : AS3 montrant une sévère chute de qualité vers la 650ème, j'ai fait aussi un essai avec les 625 premières seulement. De g. à d. : - avec les 3347 meilleures (= image précédente) - avec les 1000 premières - avec les 625 premières - et la 625 avec un très léger peaufinage au Neat nouveau (il faut que je joue un peu plus avec, il a fait des progrès) . Pour ajouter l'apprentissage profond, j'attend des renforts promis depuis la Chine et les USA Modifié 15 mars 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 15 mars 2018 (modifié) Tu ne crois pas que ta version avec les 1000 premières manque de détails ( bon la mienne à droite faite cette fois-ci avec des patchs 16x16 n'est pas encore parfaite mais on commence à apercevoir plus de détails ) ? Avec des patchs de 8x8 et quelques corrections ça devrait encore s'améliorer. Dans la pratique, je devrais pouvoir travailler sur Jupiter avec 18 images (2,5mn x 60s x 120 ips / 1000) du type de celle de droite. Pour ensuite, voir évoluer les configurations nuageuses sur 5 heures à l'aide de 120 images (5h x 60mn / 2,5mn). Le passage par exemple de la GTR d'un bord à l'autre. Tu prends quel pourcentage de RGB ? Modifié 16 mars 2018 par ms Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 16 mars 2018 (modifié) Il y a 20 heures, ms a dit : Tu ne crois pas que ta version avec les 1000 premières manque de détails Certes, elle est probablement encore améliorable (car vite faite) avec les outils classiques en essayant des tas de combinaisons, mais j'espère être en mesure bientôt d'estimer les pouièmes que pourrait apporter l'IA sans se prendre la tête quelques corrections ça devrait encore s'améliorer. Il faudrait pour en juger sainement que tu vires d'abord cette f...ue grille ! Il y a 20 heures, ms a dit : Tu prends quel pourcentage de RGB ? En fait, je m'aligne en un plus chaud sur le rendu ci-dessous de Christopher qui me semble très recevable comme base de départ : Il faut faire TRÈS ATTENTION au rendu du navigateur utilisé, voir ce fil En particulier avec Chrome, mettre dans la barre du navigateur : La méthode sûre dans tous les cas est de travailler sur l'enregistrement (qui se fait en 100%) de l'image publiée. Pour ce film de Polo (en fait, sa balance n'est pas si mauvaise, malgré l'absence de réglage du V sur la caméra), il convient de : 1. Réduire la dynamique globale RVB de 10% au moins pour se donner de la marge de manœuvre sur R et V 2. Remonter linéairement le R avec le curseur haut selon le modèle d'histogramme 3. Remonter linéairement un peu moins le G avec le curseur haut selon le modèle d'histogramme Ensuite un minipoil de gamma général pour assombrir l'image peut s'avérer plaisant. Modifié 16 mars 2018 par Nebulium 1 Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 17 mars 2018 Citation malgré l'absence de réglage du V sur la caméra Est-ce qu'il existe des caméras couleur qui permettent de faire un réglage correcte dès la saisie ? Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 17 mars 2018 (modifié) Il y a 11 heures, ms a dit : Est-ce qu'il existe des caméras couleur qui permettent de faire un réglage correcte dès la saisie ? Il est quand même étrange qu'une caméra ne soit pas à peu près équilibrée au départ pour des prises de vue en lumière du jour. Ce serait facile pour l'un de ses propriétaires de mesurer les résultats sur une charte de gris 18 %. Polo a dit sur la page précédente pour sa Juju : "on règle wr à 63 et wb à 99, on ne peut régler wv !! donc c'est un peu vert mais ça se corrige ensuite !" Cadrée dans un rectangle, les mesures sur le film donnent en moyenne pour une dynamique maximale de100 : - Sur le film R = 32 G = 37 B = 28 - Sur mon empilement de 1000 images réajusté en rendu R = 35 G = 33 B = 28 - Sur l'image de Christopher avec sa GTR R = 35 G = 36 B = 32 L’interprétation de ces chiffres nécessite leur relativisation par rapport à un même total (resp. 97 96 103), donc pour Christopher une réduction de 6-7%, soit approximativement : R = 32 G = 32 B = 29 Pour moi, dans ces conditions, le mieux que pourrait faire Polo avec le bleu déjà en butée et le vert coincé, serait d'augmenter le wr à 70-75 environ (soit +10 à 15%) pour obtenir une Juju plus jaunâtre que verdâtre dont il suffirait en post-traitement de pousser le bleu de quelques % pour arriver à mon rendu ou celui de Christopher. Mais tout ça c'est de la bidouille de rattrapage, la méthode sérieuse est le calage sur une charte grise. Et alors, comme le dit notre Christophe P. national, on intégrera du coup l'effet de la hauteur de la planète dans le ciel, plus importante en Indonésie que vers chez nous Modifié 17 mars 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 17 mars 2018 Merci pour les infos, je demandais cela parce que je vais faire l'acquisition d'une caméra couleur prochainement et s'il existe un modèle qui règle ce problème alors je suis preneur. Le but d'EVA c'est justement de n'avoir à faire aucun réglage, de gérer la hauteur de la planète par un ADC logiciel, de corriger un éventuel vignetage, ... Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 17 mars 2018 (modifié) il y a une heure, ms a dit : je vais faire l'acquisition d'une caméra couleur prochainement et s'il existe un modèle qui règle ce problème alors je suis preneur. Ben vite fait par exemple, demande à Gogo, tu auras des pistes, tiens une CP et planétaire, et ses manuels "Quick start" et "User", tous Dans le "Quick start" ci-dessus, je vois : Il faudrait détailler la liste déroulante de "Color Space", en RAW, la balance se traitera à la debayerisation... Modifié 17 mars 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 17 mars 2018 J'avais remarqué l' ASI385 color qui travaille à 120fps en Full HD. Comme j'ai adapté la puissance de calcul par le GPU à 120fps en Full HD, cette caméra me semble intéressante. Reste le problème du rendu des couleurs avec cette caméra. Partager ce message Lien à poster Partager sur d’autres sites
polo0258 38 422 Posté(e) 17 mars 2018 bonsoir jean et ms ! je note tes réglages wr 70 et wb 99 après la hauteur de la planète joue ! pour la cadence ms de 120 img/s il faut voir avec quel instrument tu vas travailler ,diamètre et focale ,sans trop pousser le gain on descend souvent en dessous de ces cadences théoriques ! polo polo Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 17 mars 2018 (modifié) Il y a 2 heures, ms a dit : Reste le problème du rendu des couleurs avec cette caméra https://astronomy-imaging-camera.com/manuals/ASI Cameras software Manual Linux OSX EN.pdf Modifié 17 mars 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites
-ms- 2 Posté(e) 18 mars 2018 Citation je note tes réglages wr 70 et wb 99 après la hauteur de la planète joue ! Pour la hauteur de la planète, j'utilise un ADC logiciel donc si la balance des couleurs est correctement étalonnée alors la hauteur ne devrait plus jouer. Citation pour la cadence ms de 120 img/s il faut voir avec quel instrument tu vas travailler 120ips c'est la limite avec le GPU traitant une image Full HD. Neb, effectivement R est réglé sur 60 et B sur 99 pour cette ASI071MC. EVA ne passe pas par un logiciel d'acquisition, comme tu le dis plus haut, il est possible d'étalonner l'image reçue lors du dé-tramage. J'ai vu qu'une API était fournie pour les principaux systèmes d'exploitation dont Linux. Partager ce message Lien à poster Partager sur d’autres sites
Nebulium 1 436 Posté(e) 18 mars 2018 (modifié) Il y a 4 heures, ms a dit : R est réglé sur 60 et B sur 99 pour cette ASI Valeurs par défaut, modifiables... Il y a aussi - et c'est bizarre- deux cases à cocher "Auto". De toute façon, ce pilote me semble commun à toutes les caméras couleurs ASI. Puisqu'il tourne sous Linux, je pense aussi que le mieux pour EVA est d'être alimentée en RAW et ce ne devrait pas être bien difficile pour toi d'écrire un utilitaire rapide de débayérisation si les divers existants en ligne de commande ne sont pas assez rapides pour le temps réel. PS vois aussi ceci (par un compatriote ?). Modifié 18 mars 2018 par Nebulium Partager ce message Lien à poster Partager sur d’autres sites