ms 302 Posted August 11, 2017 Contrôle de la qualité des 4800 trames (algorithme Ninox) : Rafales de 10 trames (480 trames), les pics correspondent aux meilleures conditions de turbulence : Rafales de 20 trames (240 trames), les pics correspondent aux meilleures conditions de turbulence : L'oculaire électronique affiche en général une trentaine de rafales de 10 images (300 images brutes), la correction du flou de l'image affichée tient compte des conditions de turbulence (en corrélation avec la courbe).Dans le cas présent, 80% des bursts de 10 images sont exploitables pour construire une image haute résolution.[Ce message a été modifié par ms (Édité le 11-08-2017).] Share this post Link to post Share on other sites
Advertising By registering on Astrosurf, this type of ad will no longer be displayed. Planetary Astronomy Observing, imaging and studying the planets A comprehensive book about observing, imaging, and studying planets. It has been written by seven authors, all being skillful amateur observers in their respective domains. More information on www.planetary-astronomy.com
Nebulium 1065 Posted October 3, 2017 (edited) Hello Citation Il est où Neb ? A des mois-lumières ! Il est vrai que je ne vais pas spontanément sur ce forum pratique, faute de moins en moins pratiquer ... Un hasard nommé Gogo )m'a conduit ici en recherchant ton site (pas encore retrouvé !) pour ton tuto sur l'installation de Linux. Mais avant d'y reconvertir une bécane qui vient de partir à la retraite, je vais dépieuter ce présent fil qui me paraît super-intéressant ! Et à propos de retraite : Citation Je vais pouvoir bientôt m'attaquer à la Corse vue depuis le massif de l'Estérel (l'heure de la retraite approche). Tiens, tu atterrirais dans le secteur ? Edited October 3, 2017 by Nebulium Share this post Link to post Share on other sites
ms 302 Posted October 3, 2017 Salut Neb, La retraite c'est pour la fin du mois donc je vais pouvoir me consacrer à plein temps à l'OE. L'Estérel, je connais bien surtout du coté de Théoule. Je vais refaire un site à partir du mois prochain parce que le site srapplis ne correspond pas à l'OE et parce que la sortie du labyrinthe approche. Le terme Oculaire Électronique est finalement bien choisi parce qu'il permet de voir la planète mais aussi ses satellites comme c'est le cas avec un oculaire classique. Suivre une planète basse sur l'horizon (correction de la dispersion atmosphérique) puis remonter pour voir un objet du ciel profond (accumulation de trames) puis retourner vers une nouvelle planète ... tout cela en AltAz (dérotation de champ). Share this post Link to post Share on other sites
Nebulium 1065 Posted October 3, 2017 il y a 2 minutes, ms a dit : La retraite c'est pour la fin du mois donc je vais pouvoir me consacrer à plein temps à l'OE Salut ms Laisse-moi rire ! Mais même à temps partiel, c'est toujours bon à prendre ! Tu opérerais vers N-D d'Afrique ? Share this post Link to post Share on other sites
baroche 6367 Posted October 3, 2017 La retraite à 62 ans? vous avez vachement de la chance en France! ... Share this post Link to post Share on other sites
Nebulium 1065 Posted October 3, 2017 il y a 43 minutes, baroche a dit : La retraite à 62 ans? vous avez vachement de la chance en France! ... Hello P-A Le modo va nous jeter pour HS, mais tu es mal informé ! Share this post Link to post Share on other sites
ALAING 32243 Posted October 3, 2017 Il y a 2 heures, baroche a dit : La retraite à 62 ans? vous avez vachement de la chance en France! ... Hé oui Pierre-Alain Et même qu'une certaine catégorie de fonctionnaires l'ont à 50 ans L'est pas belle la vie cheu nous ? Amicalement, AG Share this post Link to post Share on other sites
pulsar67 8 Posted October 4, 2017 Le résultat est impressionnant (surtout sur Jupi je trouve). Bravo, beau travail!! Share this post Link to post Share on other sites
ms 302 Posted October 4, 2017 (edited) Ce qui est intéressant c'est que l'OE va finalement sortir embarqué dans une carte de 120mm x 85mm pour un coût matériel inférieur à 300 euros. Ce système est capable de générer des images corrigées des effets de la turbulence sur plusieurs heures. Dans l'exemple suivant, en haut à gauche une image brute et en haut à droite une des images de la vidéo obtenue avec l'OE . Après quand on fusionne 16 images de la vidéo OE (courbe jaune), on obtient une image haute résolution en bas à droite (courbe rouge) : Je n'ai pas trouvé plus parlant que ces 3 courbes obtenues avec Fitswork : -> en blanc, les images brutes -> en jaunes, les images de l'OE -> en rouge, une image haute résolution. L'algorithme de fusion des images de l'OE fonctionne en arrière plan, l'image HR et/ou la vidéo HR sont accessibles en cours d'acquisition. Edited October 5, 2017 by ms Share this post Link to post Share on other sites
ms 302 Posted October 4, 2017 (edited) Pour obtenir une vidéo avec des images un peu plus homogènes, on peut ne retenir que les images dont le déplacement maximum n'excède pas 1 pixel par exemple (dans le cas présent 293 / 400), mais la différence reste faible : Edited October 5, 2017 by ms Share this post Link to post Share on other sites
ms 302 Posted October 6, 2017 (edited) Autre possibilité, effectuer un recalage subpixel (image du bas), la différence est imperceptible à l’œil humain mais les images de la vidéo deviennent plus homogènes et la composition finale est meilleure : Edited October 6, 2017 by ms Share this post Link to post Share on other sites
exaxe17 2840 Posted October 6, 2017 Salut MS Penses tu que cet OE peux gérer des images avec un histogramme très sombre, genre ciel profond mais en exposition rapide (200 à 500ms voir 1s)? Share this post Link to post Share on other sites
ms 302 Posted October 6, 2017 (edited) C'est ce que je suis en train de faire à 3x14ms sur la vidéo de Saturne de polo (qui ne devrait plus tarder) que j'adapte au ciel profond (Watec utilise une base de 40ms dans ses caméras vidéo ultra sensibles c'est à dire en gros 3x14=42ms dans la vidéo de polo). Ensuite, il faut compositer des images parfaitement alignées (à 0,2 pixel comme ci-dessus) sinon on obtient de gros pâtés comme dans les essais faits avec AS2 ou AS3. Pour l'utilisation de l'OE en ciel profond, il faut faire comme Watec (adapter la focale et augmenter le gain en fonction de l'objet recherché) mais en corrigeant en plus les distorsions, le flou et bien sûr le bruit, aujourd'hui, on peut faire cela en couleur. A l'époque (en 2008), l'OE embarquait une batterie, un écran et un enregistreur, c'était du monochrome sans correction des distorsions, du flou et du bruit, le calculateur (rudimentaire) était dans le boitier Watec : Aujourd'hui (2018) , l'OE sera en couleur et muni d'une carte permettant le calcul intensif par le GPU. Il sera capable d'envoyer ses vidéos directement sur un site internet dédié, ainsi chaque observation (diurne ou nocturne) pourra être consultée en temps réel. Edited October 6, 2017 by ms Share this post Link to post Share on other sites
Nebulium 1065 Posted October 8, 2017 (edited) Hello ms Le 06/10/2017 à 12:29, ms a dit : Aujourd'hui (2018) , l'OE sera en couleur et muni d'une carte permettant le calcul intensif par le GPU. Il sera capable d'envoyer ses vidéos directement sur un site internet dédié, ainsi chaque observation (diurne ou nocturne) pourra être consultée en temps réel. A part pour ce que tu annonces ci-dessus, comment ton OE se situera-t'il par rapport à ce produit ? "Le tour de force se trouve également dans son logiciel fait-maison qui permet un empilement des images en temps réel : la première image, posée quelques secondes, vous apparaîtra bruitée, mais la seconde vous paraîtra meilleure, la troisième encore moins bruitée, etc... " Une démo (parmi d'autres) avec la version couleur : Edited October 8, 2017 by Nebulium Share this post Link to post Share on other sites
ms 302 Posted October 8, 2017 Neb, ceux qui ont déjà une caméra, ils font quoi ? Ils déboursent 1095 euros pour faire ce que faisait déjà une Watec en monochrome, il y a 10 ans ? Et pour le planétaire, ils font comment ? L'OE c'est une application embarquée de calcul intensif par GPU. En 2018, je vais présenter l'OE et ses différentes façons de l'utiliser (astronomie planétaire et ciel profond, surveillance longue distance, vidéo sous-marine, imagerie calcium, ...). Un site internet montrera les différentes possibilités de ce système et ce site sera alimenté en temps-réel. Share this post Link to post Share on other sites
lyl 2893 Posted October 8, 2017 Elle est cramée cette Orion. Rien à voir avec la perception de l'oeil humain (ou inhumain comme les miens) Share this post Link to post Share on other sites
DOLGULDUR 117 Posted October 8, 2017 Super projet ! dans le cas ou on n'est pas interesse par le gadget materiel, j'imagine que logiciel ne sera pas opensource ? Merci en tout cas pour le lien sur le papier "RPCA and Quasiconformal Maps", pas mal de contenu que je ne connaissais pas, et qui m'interesse au plus haut point Concernant la deconvolution, ducoup quelle solution a ete retenue, celle du papier en mode completement aveugle, ou alors il y a une estimation de PSF via une autre methode, telle que celle evoque a l'aide d'une image de reference ? Share this post Link to post Share on other sites
ms 302 Posted October 9, 2017 (edited) Pour ceux qui veulent se lancer dans l'aventure, cet article est important car il reprend les travaux faits ces 10 dernières années dans le domaine : http://arxiv.org/pdf/1704.03140v2.pdf Toute la complexité est dans l'image d'Orion présentée par Neb ci-dessus et jugée par lyl. L'OE est capable de faire la part des choses entre la zone surexposée et le reste de l'image. Pour cela il doit traiter en // des centaines de patchs d'où la nécessité de faire appel au calcul intensif par le GPU. Concernant la reconstruction de l'image, j'ai bien sûr testé les différents algorithmes (SobLap, Centroid, Two-stage, NDLM, RPCA) et bien d'autres. L'idéal c'est une synthèse en temps-réel de SobLap avec Centroid ou RPCA qui sont très proches afin de se rapprocher de l'image du terrain. Hors mis à part SobLap, les 2 autres sont inexploitables en temps-réel. L'intérêt de l'OE c'est d'avoir fait aussi bien que Centroid ou RPCA mais en temps réel. La meilleure façon de présenter l'OE sera de montrer en 2018 ses possibilités sur le terrain et de l'utiliser dans les différents domaines pour lesquels il a été imaginé. Les cartes embarquant les technologie CUDA et OpenCL que gère l'OE vont se multiplier dans les prochaines années, elles vont se banaliser et de ce fait notre façon de naviguer parmi les étoiles va changer. J'ai toujours rêvé d'avoir un petit coin de Lune dans mon jardinet pour regarder le ciel. Quand j'étais adolescent c'était bien sûr impossible mais aujourd'hui le rêve commence à prendre des allures de réalité. Edited October 9, 2017 by ms 2 Share this post Link to post Share on other sites
lyl 2893 Posted October 9, 2017 il y a une heure, ms a dit : oute la complexité est dans l'image d'Orion présentée par Neb ci-dessus et jugée par lyl. L'OE est capable de faire la part des choses entre la zone surexposée et le reste de l'image. Alors là chapeau bas, c'est souvent l'ergonomie qui pêche dans ce genre de produit, mais si tu y penses... Share this post Link to post Share on other sites
ms 302 Posted October 10, 2017 C'est pas très complexe de comparer une rafale de patchs à ses voisines après avoir effectué quelques opérations élémentaires (somme, moyenne, minimum, maximum) pour en déduire le traitement le mieux adapté, il est alors possible de détecter simplement les zones surexposées. Une approche plus fine ferait appel aux réseaux de neurones mais là c'est plus coûteux en temps de calcul à moins d'utiliser une carte spécialisée. C'est ballot de fournir un logiciel qui crame la zone centrale d'Orion alors que quelques lignes de code permettent de résoudre le problème de façon automatique sans passer par une IHM. Share this post Link to post Share on other sites
CPI-Z 647 Posted October 10, 2017 Pour moi la meilleure explication est celle de Christophe Pellier. D’ailleurs on constate que la division est plus fine sur les bruts de qualité que sur les résultats compilés. Cela provient du traitement ondelette final (d’IRIS). MS je t’ai envoyé des séries de Saturne pour 20000 images, l’idée était de voir cet été si d’autres divisions étaient perceptibles, autres que celles crées artificiellement par le traitement ondelette. Il y avait aussi une série de CP de 135 images, ... mais jusqu’à aujourd’hui tu n’as pas poster de ces résultats avec le soft de l'OE. Share this post Link to post Share on other sites
ms 302 Posted October 10, 2017 (edited) Il y a 4 heures, CPI-Z a dit : Il y avait aussi une série de CP de 135 images, ... mais jusqu’à aujourd’hui tu n’as pas poster de ces résultats avec le soft de l'OE. Même remarque que pour la nébuleuse d'Orion pour le noyau de M51. J'ai converti l'image en monochrome parce que c'est plus parlant. Avec l'OE, on verrait une image avec le noyau bien résolu et des étoiles un poil plus rondes en cumulant par exemple des poses de 40ms comme le font les caméras vidéo Watec. Pour comparer, en planétaire ce sont des poses unitaires de moins de 10ms. Ci-après une des 135 images brutes (les noyaux sont bien cramés) : Pour les images de Saturne, j'ai tes 2 vidéos de 10.000 images et celle de polo de 21.000 images, je n'ai pas tout à fait terminé. Edited October 10, 2017 by ms Share this post Link to post Share on other sites
Nebulium 1065 Posted October 10, 2017 ms, je suis allé voir ton document RCPA. Toutes ces maths n'étant plus de mon âge, j'en ai lu le résumé et regardé les images. J'ai l'impression que le bruit qui accompagne toutes nos prises astro n'est pas de la partie ??? Share this post Link to post Share on other sites
Jijil 269 Posted October 10, 2017 Si j'ai bien compris, ce n'est pas le bruit le souci, mais le rapport signal/bruit, qui devient favorable au signal en empilant les images. Ces algorithmes servent à améliorer le signal en superposant *correctement* toutes les portions d'images. ms, c'est correct? Share this post Link to post Share on other sites
CPI-Z 647 Posted October 10, 2017 Merci MS pour l’exemple sur M51 (135 images) ton résultat est probant. Serai-il possible d’avoir ce résultat en version x1 pour le comparé au résultat IRIS ? Share this post Link to post Share on other sites