Nebulium

Membre
  • Compteur de contenus

    9 339
  • Inscription

  • Dernière visite

  • Last Connexion

    Soon available - 43358

Tout ce qui a été posté par Nebulium

  1. J'ai vendu mon âme à TOPAZ Denoise

    Hello Celui-là est gratuit, euh, pardon, libre et paraît-il très performant dans le genre : https://darktable.fr/presentation/
  2. Soleil en un clic

    Après non, quatre (sans compter celles sur mon écran) Comme dit Valère, il faut agiter l'image pour voir les ultimes détails !
  3. Soleil en un clic

    Faudrait nettoyer ton capteur Paul, ya une pétouille ! Bon Noël et bravo ! Ici ya pluie !
  4. J'ai vendu mon âme à TOPAZ Denoise

    Hello Le résultat est plaisant, du beau travail ! Pourrait-t'on avoir l'image pour test, en 3x16 si possible ? Merci
  5. fake ?

    J'ai repris mon précédent message en essayant d'expliquer ce que je crois comprendre en ce moment, je pense que c'était une source de confusion de parler d'une image de bruit initiale à la place d'une image aléatoire. La théorie du "Deep Image Prior" dépasse mes capacités d'entendement : https://sites.skoltech.ru/app/data/uploads/sites/25/2018/04/deep_image_prior.pdf Le début de l'article peut donner une idée de la chose qui s'applique à divers problèmes. Nous autres astrams sommes concernés au premier titre par la super-résolution et le débruitage. L'illustration adjacente au résumé concerne la super-résolution. Le principe général est de dégrader une image de référence "Ground truth" et de la restaurer par différentes méthodes "Classique" (ici redimensionnement bicubique), "IA avec entraînement", "Deep prior sans entraînement". Cette dernière donne un résultat légèrement inférieur, mais sans invention possible de faux détails. Cette page : http://www.arxiv-sanity.com/1707.05425v3 montre l'état de l'art en matière de super-résolution, j'avais indiqué plus haut une page sur celui du débruitage. https://github.com/wenbihan/reproducible-image-denoising-state-of-the-art Pratiquement parlant, il est très facile d'aller jouer ici : http://www.ipol.im/pub/art/2019/226/ dans l'onglet "Demo". Voir aussi "Archive" à partir de la p. 11 http://ipolcore.ipol.im/demo/clientApp/archive.html?id=226&page=11 Et quelques essais sur le fofo ici.
  6. fake ?

    Suite .... J'ai retrouvé le site qui traite la restauration des images SANS APPRENTISSAGE, donc sans risque d'introduction de détails empruntés, comme dans cet exemple, un gag de bleusaille : Donc c'est bien là : https://dmitryulyanov.github.io/deep_image_prior Il n'a pas beaucoup bougé en 2 ans, avant de m'y remettre, je vais voir s'il y a des travaux plus récents, comme celui-ci peut-être (peu documenté !): https://github.com/ShaofengZou/A-CNN-Based-Blind-Denoising-Method qui en serait une amélioration en rapidité. J'avais donc essayé sur Saturne le débruitage. Le site montre l'effet du traitement sur cette image : L'image aléatoire de départ est ici la version couleur : J'ai mis en GIF la séquence montrant chaque 50 itérations sur un processus de 2000 l'évolution de l'image traitée, avec un instant de repos sur l'image finale. De manière simpliste, on peut dire que l'on part d'une image aléatoire donc totalement désorganisée. Confrontée à une image réelle comportant une partie organisée (l'image propre) mêlée à une partie aléatoire (le bruit), Itération après itération , on transfère vers l'image aléatoire uniquement les structures organisées, ce qui donc élimine le bruit.
  7. fake ?

    Hello Valère Tu rigoles ? Oui, mais il s'est EVAnoui (du forum) A torts partagés...
  8. fake ?

    En effet, il faut utiliser au mieux ces milliers d'images pour en obtenir une "bonne" en : - 1. Combattant le bruit - 2. Gérant la turbulence #2a : les déformations et déplacement locaux #2b : les défocalisations locales La solution classique d'empilement traite les points 1 et 2a mais imparfaitement de par les méthodes actuellement connues. De nouvelles méthodes font l'objet de nombreuses recherches, englobant le point 2b. La démo ci-dessus de Saturne dont malheureusement je n'ai toujours pas retrouvé le lien dans mes archives ni encore sur Gogo montre que l'on peut traiter le bruit au niveau des images brutes individuelles (il reste à voir quid des détails effectivement captés) et prépare le terrain pour les 2a et 2b, mettant en oeuvre des techniques genre "morphing" et super-résolution par exemple au niveau de dalles élémentaires triées en qualité. Ces idées ont déjà été développées dans des fils antérieurs comme : http://www.astrosurf.com/topic/115805-la-saturne-de-polo-du-6-août-retraitée-au-filtre-neuronal/ PS : Je viens de trouver ce lien https://github.com/wbhu/DnCNN-tensorflow proche de celui que je cherchais, enfin retrouvé : https://github.com/DmitryUlyanov/deep-image-prior Il me paraît moins performant de prime abord : la perte de certains détails est manifeste ce qui requiert un empilement localement sélectif : https://github.com/wbhu/DnCNN-tensorflow/blob/master/img/compare.png
  9. fake ?

    Oui, il y a plein de trucs nouveaux sur le Github, ça prend bcp de temps déjà pour les évaluer en fonction de ses besoins personnels. J'ai du mal à retrouver le lien /CNN sur lequel j'avais investi [EDIT] Ayé, ça doit-être celui-ci : https://github.com/DmitryUlyanov/deep-image-prior Celui-ci lui ressemblerait : https://github.com/ShaofengZou/A-CNN-Based-Blind-Denoising-Method [/EDIT] Je viens de tomber sur ce truc généraliste : https://towardsdatascience.com/how-to-perform-image-restoration-absolutely-dataset-free-d08da1a1e96d Et je rajoute 2 liens "frais" sur la super-résolution, à éplucher : http://www.arxiv-sanity.com/1707.05425v3 https://github.com/jiny2001/dcscn-super-resolution Avec apprentissage, attention ! : https://github.com/idealo/image-super-resolution
  10. fake ?

    Il n'y a aucune corrélation entre l'image aléatoire à l'origine du processus et celle utilisée pour corrompre Saturne, tu pourrais faire des essais par toi-même quand j'aurais retrouvé le lien Github de la manip. Celle-ci n'utilise pas l'apprentissage à partir de bases de données d'images, donc risque moins d'inventer de faux détails. Je crains que oui... Tu peux déjà consulter le fil d'où j'ai extrait ces images : http://www.astrosurf.com/topic/124233-saturne-traitée-par-cnn/ Et aussi celui-ci: http://www.astrosurf.com/topic/115805-la-saturne-de-polo-du-6-août-retraitée-au-filtre-neuronal/ Le plus ancien où j'avais abordé la question : http://www.astrosurf.com/topic/116499-jupiter-par-polo-à-la-sauce-artificielle/ En retrouvant ces liens, je m'aperçois que je devrais déjà moi-même les relire avec attention, il y a plein de choses intéressantes dans les discussions que j'ai oubliées depuis le temps ! Le sujet du débruitage abonde de recherches : https://github.com/wenbihan/reproducible-image-denoising-state-of-the-art J'ai laissé de côté le Github depuis 2 ans, je vais m'y remettre, au profit de l'IPOL qui permet des tests immédiats en ligne, par exemple, le traitement par HOVSD proposé sur l'IPOL par Fabien Feschet : Implementation of a Denoising Algorithm Based on High-Order Singular Value Decomposition of Tensors, Image Processing On Line, 9 (2019), pp. 158–182. https://doi.org/10.5201/ipol.2019.226 http://www.ipol.im/pub/art/2019/226/ Avec cet exemple personnel : http://www.astrosurf.com/topic/130094-débruitage-par-lalgorithme-hovsd-essai-sur-une-vieille-m42-argentique/ Polo a fait aussi des essais sur Saturne, il me faut retrouver le lien
  11. fake ?

    Oui, voici un exemple de ce que peuvent faire quelques traitements novateurs sans apprentissage tant que l'information est présente dans le bruit : http://www.astrosurf.com/topic/124233-saturne-traitée-par-cnn/ En monochrome, à partir d'une Saturne HST redimensionnée et décolorée (à gauche), copieusement corrompue (à droite) en la multipliant par la sortie d'un générateur de bruit aléatoire (au centre) : Credits: NASA/HST En moulinant quelques milliers de fois dans le CNN l'image corrompue avec l'image aléatoire, on obtient le résultat ci-dessous, où je ne vous dis pas où sont l'original de référence ( image à gauche ci-dessus) et le résultat : Credits: NASA/HST
  12. fake ?

    Hello Je reviens pour vous parler d'une méthode basique pour petit faussaire débutant. Bien sûr, il faut déjà être compétent dans le traitement d'images véridiques ! 1. Pour commencer, d'abord obtenir une image publiable qui devrait normalement se suffire à elle-même pour plaire telle quelle à la communauté, on la nommera "l'authentique." Mais certains affectionnant les "like" comme d'autres les fraises "Tagada" vont en vouloir encore plus. 2. Alors, le petit œuf à voler, avant de s'attaquer au bœuf sera par exemple : "Piquer une image idoine pour améliorer le piqué de la sienne". Facile, il suffit de demander à Gogo en lui montrant l'authentique et de choisir la mieux résolue. 3. On en extrait la luminance que par des opérations géométriques de rotation, redimensionnement et détourage on rend superposable à l'authentique. Ca donne une idée de la résolution finale du "faux" 4. Un passage au "StarNett" bien dosé lui enlèvera les étoiles => la Greffe_L 5. On passe l'authentique au StarNett pour lui enlever les étoiles => Nébuleuse 6. On soustrait la Nébuleuse de l'authentique => Etoiles 7. On peaufine les étoiles : Au minimum les réduire, facultativement introduire des effets spéciaux (aigrettes, ,etc. ) 8. On reprend la nébuleuse, on en extrait les chrominances a, b 9. On synthétise la Greffe_L, a, b 10. On rajoute les étoiles peaufinées. Bien conduite, l'opération ne devrait pas faire apparaître le grossier collage démasqué plus haut, indigne d'un tripoteur de brutes HST Si le résultat ne plaît pas assez, on peut réajuster les dosages dans certaines étapes, même se lancer dans un passage en "super-résolution", mais au point où on en est, on peut plutôt alors sans scrupules "toshopper" ad libitum. Mon conseil en final : Restez-en à une jolie "authentique" !
  13. conjonction pour participer ;)

    Bravo Paul ! A main levée, c'est le pied pour shooter léger
  14. fake ?

    Hello Débarqué récemment sur ce fil, je n'ai pas tout lu, non conditionné, je pars à froid sur le lien donné au tout début : - Paramètres de prise de vue : Lunette 127 mm, focale 952 avec réducteur 0,7 => 666 mm, ps sur base 120/D =0,95" Caméra 4656x3520 pixel 3,8µ donc pixel = 1.,5" - Mesures sur cette image en orientation équatoriale 3233x2254 donc détourée. Confirmation sur distance d'étoiles que le pixel occupe environ 1,15" En principe, on ne devrait pas s'étonner en contrôle à la loupe 10x de voir les étoiles les plus fines occuper 1 à 2 pixels, c'est également le cas de la largeur des filaments les plus fins. On serait alors au taquet théorique, une belle performance ! Mais rien n'exclut une réduction après superrésolution 2x ni la pratique de l'érosion, opération très simple et dosable. Pour s'en assurer, iI faudrait trouver des étoiles faibles doubles serrées. Pour ceux qui veulent en chercher (dans le bruit ?), voici un échantillon de carte qui va jusqu'à m=19 environ (sans garantie pour le rendu des variables...): A noter, en passant, un confetti noir en dessus du centre de l'objet, de diamètre 20 pixels. visiblement, il occulte une étoile parmi les plus brillantes du champ , m=7.5 Une autre de m=7.2 au bord et au dessus est "normale" Une autre de m=8.15 au bord à gauche vers le haut est bizarrement affaiblie en luminosité, pas en diamètre ! Une comparaison avec une carte détaillée laisse apparaître un bon nombre d'anomalies dans le rendu des étoiles intérieures au périmètre de l'objet... - Pour découvrir le lézard (le varan ?, le crocodile ?) je vous invite à analyser en ligne l'image sur ce site : https://29a.ch/photo-forensics/#pca et en particulier selon la rubrique "Principal Component analysis" - Input = Color - Mode = projection - Component = 1 - Enhancement = Equalize histogram Yapafoto ! Je vais revenir pour indiquer une méthodologie possible pour la réalisation de ce fake PS : Objet apodisé plusieurs fois, la dernière: https://apod.nasa.gov/apod/ap160610.html Et bien sûr l 'authentique (version "full") HST pour l'ami Valère : https://www.spacetelescope.org/images/opo0023a/
  15. fake ?

    Hello Déjà, compte-tenu des paramètres de l'image en question, est-ce qu'il existe des détails linéaires contrastés par rapport au fond (genre par exemple fils électriques dans le lointain...) reconnus vrais qui sont montrés plus fins que la limite de diffraction théorique de l'instrument ?
  16. fake ?

    Hello Au départ, probablement plus ou moins comme ceci : https://www.wikihow.com/Process-Your-Own-Colour-Images-from-Hubble-Data Pour récupérer les brutes, il y a aussi, par exemple : https://opus.pds-rings.seti.org/opus/#/insthost=Hubble&instrument=Hubble+WFC3,Hubble+WFPC2&planet=Mars&target=JUPITER,Mars&cols=opusid,instrument,planet,target,time1,observationduration&widgets=instrument,insthost,planet,target&order=time1,opusid&view=browse&browse=gallery&cart_browse=data&startobs=71&cart_startobs=1&detail= Pour être plus général (autres sondes, il existe d'ailleurs des forums où officient des spécialistes): https://opus.pds-rings.seti.org/opus/#/mission=New+Horizons&cols=opusid,instrument,planet,target,time1,observationduration&widgets=mission&order=time1,opusid&view=search&browse=gallery&cart_browse=gallery&startobs=1&cart_startobs=1&detail= Le prises HST sont sous-échantillonnées, il faudra jouer avec le drizzle : https://www.stsci.edu/scientific-community/software/drizzlepac Pour tout faire au mieux Il te faudrait apprivoiser le Python , ce n'est pas très difficile ! Pas exactement, mais pour les publications grand public de la NASA, le "pro" est parfois soumis à des contraintes commerciales, le contribuable américain aime que ses impôts aient l'air de lui profiter directement
  17. Hello Merci Anne, Paul, PetitOurs pour votre visite et appréciation Oui pour les amateurs de Topaz nocturne ! C'est à l'un d'eux que l'on doit la célèbre face de Mars, apodisée le 22/07/1995 : obtenue avec un version ancestrale du logiciel cité par J-LD dans cette page Pour redevenir sérieux, une simulation de perspective montre que l'image "de référence" aurait été prise à environ 3000 km de la surface de Mars :
  18. Bonjour à toutes et à tous Suite à divers échanges en p. 18 dans ce fil : http://www.astrosurf.com/topic/141126-mars-du-24-octobre-c2pu-calern-au-top/?page=18 En contribuant à ce fil de CPI-Z, http://www.astrosurf.com/topic/142140-mars-2020-au-t1m-résolution-bruit/?page=2 p. 2, je suis tombé sur diverses images de Mars dans le domaine public : http://www.pioneerastro.com/nasa-2017-small-business-innovation-research-sbir-program-phase-i/ Celle-ci dont je recherche encore la source précise à la NASA avec ses conditions d'obtention m'a semblé particulièrement instructive car possédant un éclairage "d'opposition". Pour commencer, je l'ai comparée à la plus grosse HST "finie" trouvée (12 Mai 2016) : https://hubblesite.org/image/4061/gallery/62-mars Il en en existe une version "Full Res. 3000x2400 TIFF, 2.32 MB " https://imgsrc.hubblesite.org/hvi/uploads/image_file/image_attachment/30210/STSCI-H-p1729a-f-3000x2400.tif Les prises HST étant sous-échantillonnées cette image a bénéficié du "Drizzle" ,13 poses (au moins) étaient disponibles. Pour les brutes HST antérieures, du genre : Avec la WFPC2, voir les TIF dans les ZIP : https://opus.pds-rings.seti.org/downloads/pdsrms-2020-11-26T14-03-56-829959-data-b.zip https://opus.pds-rings.seti.org/downloads/pdsrms-2020-11-26T14-04-34-311037-url-z.zip Avec la WPCF3: https://opus.pds-rings.seti.org/opus/#/insthost=Hubble&instrument=Hubble+WFPC2,Hubble+WFC3&planet=Mars&target=JUPITER,Mars&cols=opusid,instrument,planet,target,time1,observationduration&widgets=instrument,insthost,planet,target&order=time1,opusid&view=browse&browse=gallery&cart_browse=data&startobs=78&cart_startobs=1&detail= et encore ici : http://hla.stsci.edu/moving_targets_2018_Jan_05_acs.html Lignes 125 à 143 ... Alors voilà : Avec des extraits en 100% : et vu différemment en 38% et 100% : En passant pour ceux qui veulent jouer avec les brutes HST : https://www.wikihow.com/Process-Your-Own-Colour-Images-from-Hubble-Data
  19. Doublon ! :-(

    Doublon !
  20. fake ?

    Bonsoir Alors j'espère pour toi qu'il est encore sous garantie !
  21. fake ?

    Oui, je remontre cette référence citée par J-L D dans le gros fil sur Mars au C2PU : https://petapixel.com/2020/08/17/gigapixel-ai-accidentally-added-ryan-goslings-face-to-this-photo/
  22. fake ?

    Pas trop près, peut-être ? Les araignées sont loin des miroirs !
  23. fake ?

    Hello Occupé tout récemment par les préoccupations évoquées, je viens seulement de parcourir rapidement cette intéressante discussion J'ai vu que certains voulaient essayer quelques-unes des techniques mirifiques signalées. Alors je propose à ceux qui veulent bien de jouer avec ces images : A gauche une réduction Lanczos de 38% d'une prise : https://phys.org/news/2020-05-uae-arab-probe-mars.html A droite un extrait en 100% de la plus grande TIF HST trouvée sur le net pour l'instant https://hubblesite.org/image/4061/gallery/62-mars Plus de détails et les originaux dans ce fil : http://www.astrosurf.com/topic/142140-mars-2020-au-t1m-résolution-bruit/?page=2 Et plus modestement, améliorer le petit eskimo de Penn à la vieille lulu ED de 80 mm à l'aide du T1m du C2PU aux bons soins de SuperFulgur et Jeffbax : http://www.astrosurf.com/topic/142553-les-aventures-de-petit-eskimo-ep2-face-au-t-1m/ Merci pour votre coopération PS1 : pour revenir à l'objet principal, je pense que tout détail final non saturé, linéaire ou étoile mérite un examen de crédibilité s'il sa largeur devient inférieur à la limite de diffraction définie par le diamètre de l'objectif et les paramètres de l'image... PS2 : StarNett+
  24. CP C8 Edge-HD vs C8

    Bsoir Julie :) Vois : https://www.amazon.ca/-/fr/Orion-Starseeker-altazimutale-montage-trépied/dp/B00ZY9K7LE/ref=sr_1_4?__mk_fr_CA=ÅMÅŽÕÑ&dchild=1&keywords=Orion+Starseeker+IV&qid=1608140405&s=electronics&sr=1-4
  25. Mars 2020 au T1m, résolution - bruit

    Oui, c'est bien le cas à cause du sous-échantillonnage ... Il faudrait déjà arriver à définir et mesurer un taux d'accentuation. Commencer par définir une dimension d'image en nombre de pixels LxH et une distance d'observation selon le pouvoir séparateur de l'oeil Les courbes FFT2D peuvent donner une idée... Encore faut-il se donner une référence recevable (*) et savoir à quelles images redimensionnées appliquer les FFT sachant que (HST contre T1m ): - la planète :18" contre 21" - Le ps : 0.05" contre 0.12" - l'échantillonnage publié 0,01" (caméra 0,04") contre 0.05 (*) des exemples ? https://www.publicdomainpictures.net/en/stock-photos.php?hleda=mars Et ici: Credit https://www.reddit.com/r/BeAmazed/comments/edpjkg/the_clearest_image_of_mars_ever_taken_the_large/ https://i.imgur.com/q83Kto0.jpg et encore : Credit https://www.publicdomainpictures.net/en/view-image.php?image=86459&picture=mars Je suis en train de chercher la source initiale de cette dernière Peut-être un poil plus agressive que la "Marineris" elle présente un intérêt particulier: Crop 100% avec la TIF 100% HST : Une autre façon de voir les choses (38% / 100%) : Et comme ça, en ajoutant la C2PU (à gauche) Redim. Lanczos resp.42%, 20% 21% ? Les FFT2D sur ces images originales réduites : - Jaune C2PU - Blanc PB (PublicDomain) - Magenta HST La HST est relativement facile à aligner sur la PB, pour moi elle y gagne ! Pour la C2PU, c'est moins évident : Nota : Rappel pour info, selon les navigateurs, enregistrer les images pour afficher de vrais 100% !