frédogoto

image faible résolution et deep learning (extraordinaire)

Messages recommandés

ça produit une image assez nette mais les détails sont un peu "inventés", l'image reconstruite manque de fidelité avec l'original qui sert à fabriquer l'image floue à dépixeliser.

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonsoir

Il n'y a pas d'explication qui accompagne ces 3 images (je ne suis pas allé sur le site externe mis en lien).

Peux tu expliquer  pour le forum AS  ? Que doit on voir en fait ?

 

Christian

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Une bien jolie invention de détails sur cette série d'image !!! C'est bien pour un zozio, mais pour faire de la science, c'est autre chose !!!

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 1 heure, asp06 a dit :

ça produit une image assez nette mais les détails sont un peu "inventés", l'image reconstruite manque de fidelité avec l'original qui sert à fabriquer l'image floue à dépixeliser.

Oui c'est de la super résolution à partir d'une seule image. Pour éviter les inconvénients que tu signales, il faut utiliser plusieurs images et là ça devient très intéressant. ^_^

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est utilisé avec les satellites espions, cela permet de gagner encore quelques précieux centimètres :) 

Partager ce message


Lien à poster
Partager sur d’autres sites

Ouais, j'ai même vu des séries à la télé où par satellite y voient les plaques des bagnoles et même les reflets dans les rétroviseurs alors . . .

  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 47 minutes, capt flam a dit :

C'est utilisé avec les satellites espions, cela permet de gagner encore quelques précieux centimètres

 

Et capt flam aussi ? ^_^

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est un gadget intéressant, mais:

 

- Pour que ça marche il faut une image de référence en haute résolution aussi proche que possible de l'image basse résolution à traiter

- ça génère une sorte de "morphing" (en injectant des détails construits à partir de l' image HR dans l'image LR)

Du coup le résultat est excellent si l' image  de référence et l'image cible sont identiques (à l' exception de la résolution), et plus ou moins plausible selon que l' image cible et l' image de référence sont éloignées (au sens de la distance dans l' espace vectoriel des paramètres du réseau qui les modélisent)

 

J'ai l'impression que cette technique  permet de fabriquer une image de galaxie spirale plausible à partir d'une autre image de galaxie spirale, et aussi de fabriquer une image galaxie spirale plausible à partir d'un amas globulaire.

 

Ou de  faire une image d' un crocodile à plume, si vous préférez les trucs de la famille des zoziaux;

Non ?

Modifié par PascalD
  • J'aime 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Si j'ai bien compris, c'est bien pour tirer de belles affiches de la taille d'une façade au départ d'une image de smartphone, mais ca ne va clairement pas nous montrer des villes sur des exoplanètes ;) (sauf si c'est ainsi qu'on a paramétré l'algorithme de deep learning)

Modifié par Jijil
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Google avait présenté, il y a quelques mois, un système analogue mais un peu moins poussé coté 'texture'.

Je trouve les réseaux de neurones intéressant pour réaliser la fusion de différentes zones à partir de 2 ensembles d'images brutes.
Un premier basé sur la moyenne ou la médiane. Un second basé sur la somme.

Il devient alors possible de traiter des images complexes comme M42 où le réseau sera capable de fusionner 'intelligemment' les différentes zones.

Ce qui est en train de changer aujourd'hui c'est que ces traitements peuvent se faire en quasi temps réel.

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, PascalD a dit :

une image de galaxie spirale plausible

 

Exactement, mais l’image correspondra-t-elle à la galaxie réelle ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Et Fredo , faite de l'Uranus pour le faible contraste er resolution, cela changera un peu.

Il n'y a pas les lux et millers de lux pour mousser.

Uranus c'est 50mlux surfacique.

Une galaxie c'est ...

Quel est votre démarche ici, s'il y en a une.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, Kaptain a dit :

 

Exactement, mais l’image correspondra-t-elle à la galaxie réelle ?

Ben non. C'est juste du morphing plus malin que les algorithmes classiques, faut voir ça comme des ondelettes "on steroids" : plus tu pousses, plus tu as de détails qui sont des artefacts. ça ne peut pas inventer de l' information qui n'est pas là. Sauf qu'avec les ondelettes, il était facile à un oeil exercé de repérer les artefacts, là ça sera beaucoup plus difficile parce que les primitives sont beaucoup plus complexes.

Comme dit ms, la fusion d'images de résolutions ou S/B ou focus différents est une application potentielle. Pour du traitement esthétique de l' image ça semble intéressant. Pour de la science, faut voir, la difficulté étant d'auditer le bazar pour se convaincre que les détails sont bien des détails et pas des artefacts. 

Il existe des papiers qui montrent qu'il suffit de pas grand chose pour que le training d'un réseau de neurones semble correct, mais soit en fait complètement à la ramasse pour toute une (grande) classe d'images. Par exemple en modifiant un seul pixel de l'image : http://www.bbc.com/news/technology-41845878

 

Partager ce message


Lien à poster
Partager sur d’autres sites

L'apprentissage non-supervisé est intéressant pour le traitement d'une rafale d'images parce qu'il permet d'effectuer 3 opérations importantes :

- le partitionnement des patchs (clustering),

- la détection d'éléments atypiques (artefacts),

- la réduction de dimensions (analyse en composantes principales).

Tout cela se faisait de façon séparée par le passé mais les réseaux de neurones permettent aujourd'hui de le faire de façon intégrée et opportuniste.

L'estimation de la nature du bruit et du flou en amont permet de minimiser la deuxième opération qui est toujours source d'emmerdement.

En planétaire, l'apprentissage non-supervisé va permettre de révéler les satellites de la planète ainsi que d'autres objets faibles en arrière plan.

En ciel profond, l'apprentissage non-supervisé va permettre de fusionner correctement différentes zones brillantes et sombres, contrastées et peu contrastées (M42, M51, M16, ...).

C'est une ébauche du mécanisme de fusion qui dans notre cerveau est bien plus complexe :

visual_cortex.gif.b415c28b70f45e95659b3eae2114f7cc.gif

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Allez le chieur est de retour: Les principes de traitement de signal - c'est à dire de la déconvolution - font que ne peut pas inventer de nouveaux détails au delà de la possibilité de l'inversion de la fonction de transfert à moins d'avoir un processus d'apprentissage... Cela veut dire que l'on traite alors des images à l'aide de  types/familles d'images dans un super-calculateur, réseaux de neurones ou autres.  Les anglicistes distingués appellent cela de " l'apprentissage profond " , en bon français d'un francophone de base façon loi Toubon du "deep learning ":D Philosophiquement, cela veut dire qu'on est en train de regarder une représentation d'un objet/figure déjà connu de la base, donc on regarde du déjà vu!!  Bref un procédé révolutionnaire? bof et rebof.

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonsoir,

 

C'est sûr qu'avec l'exemple en haut,  on contourne allègrement les limites de la théorie de l'information :

à moins d'admettre qu'un pixel puisse comporter plus d'information qu'un pixel !

 

Lucien

 

 

Blague.jpg

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

donc on regarde du déjà vu!! 

On regarde pratiquement tout le temps du déjà vue car la nature de la plupart des images est fractale.

Dans le cas de l'aigle ci-dessus, on ne peut deviner les détails à l'échelle supérieure que par apprentissage. Ce qui est original c'est que cette équipe sort du vieux modèle PSNR pour évaluer la qualité du résultat.

Ce type de traitement qui sera intégré au processeur graphique va se banaliser dans les prochaines années.

Partager ce message


Lien à poster
Partager sur d’autres sites

"on" (l' algorithme en mode prédictif) ne regarde pas du déjà vu au sens strict: "on" regarde un truc pixelisé en fonction d'un "'contexte" appris.

Le cerveau fait pareil , c'est pour ça qu'on voit des tortues et des élephants dans les nuages.

Les réseaux de neurones, pour faire de l' image esthétique c'est vachement efficace. Pour faire de la science avec c'est beaucoup plus difficile, mais probablement possible. Par exemple, pour chercher des ondes gravitationnelles : https://arxiv.org/pdf/1701.00008.pdf

Partager ce message


Lien à poster
Partager sur d’autres sites

J'en ai un peu mare de ces traitements HR avec des nom très british dont je ne maîtrise pas la langue et les détails, alors je me suis livré à un petit exercice que chacun peut faire avec nos logiciels astro préférés (pour moi IRIS merci C Build ...).

 

Sur le site donné par capt flam :

https://medium.com/the-downlinq/super-resolution-on-satellite-imagery-using-deep-learning-part-1-ec5c5cd3cd2

 

Et j'ai fait une simple copie écran:

Capture-0.jpg.6f87a4fec9e8ba6ceac3bab1afb28a5b.jpg

 

J'ai pris l'image base résolution puis :

- un changement d'échelle x4 splin (doux)

- multiplier x32 (car c'est une image en 0-255 et manque de dynamique)

- un simple traitement ondelette.

- un restitution de l'échelle x0,25 bilinéaire

- réglage du seuil de visualisation

- savejpg

 

Voici le résultat:

zb1.jpg.ddfc0f97034e4b224bb393bce60432f0.jpg     zb2.jpg.536b94d3e96a511930c67f56718c0548.jpg

 

Mais je n'ai pas encore testé une méthode comparable avec l'oiseau.

Partager ce message


Lien à poster
Partager sur d’autres sites

OUI J-P Cazard sur ce lien on peut télécharger les images. Mais je ne comprends pas bien, quelle est l'image de départ et quelle est l'image d'arrivée. Peux-tu m'aider dans la compréhension ?

Partager ce message


Lien à poster
Partager sur d’autres sites

L'image de départ c'est l'image 4 fois plus petite qui est dans le répertoire "input" :

eagle.png.a934d1ff2dd888dc8610f377c056e6f1.png

 

Par la suite, tu as un script Python qui te permet d'utiliser l'algorithme ENet-PAT pour faire de la super résolution x4.

Si CUDA est installé sur ton ordinateur ça va assez vite sinon c'est plus lent.

Il y a d'autres recherches de ce type en cours mais ce travail est intéressant dans le traitement des textures.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Blink
      Bonsoir,
       
      J'ai cherché sur pas mal de forums, et il semble qu'appairer un A7S avec l'ASI AIR Plus n'était pas chose évidente. Cependant, ça marche maintenant, je suppose suite à la dernière mise à jour de l'Asi Air (firmware 11.01)
       
      Voici la recette :
       
      1. Je pense qu'il faut que la dernière mise à jour  (firmware 11.01) ait été effectuée.
       
      2. Sur le Sony A7S :
       
      USB : sur PC remote
      USB LN : sur unique
       
      Se mettre sur M
      Pour le temps d'exposition sur mettre sur BULB
       
      Lier le A7S par son port micro-USB à l'Asi Air, via son port USB (1 cable)
       
       
      Lancer l'ASI AIR : il doit reconnaitre le A7S et afficher les ISO du A7S.
      Cocher l'appareil proposé :  " A7S SONY"
      Par contre : laisser "Exposition with shutter cable" décoché
       
      Si les ISO du A7S n'apparaissent pas, ça ne fonctionnera pas ; éteindre et rallumer le A7S, bien enfoncer les fiches du cable...
       
      A partir de là :
      le PREVIEW fonctionne : il déclenche l'A7S et une image apparait sur l'ASI AIR
      l'AUTO RUN fonctionne : sur une série de poses de 30 secondes (pas plus sinon déclenchement du star-eater de ce cher A7S 😑) : l'appareil se déclenche et récupération des clichés sur Asi Air.
      Il ne me reste plus qu'à attendre une belle nuit pour voir si la mise en station (Polar alignment PA) par "plate solving" peut fonctionner ; il n'y a pas de raison que non.
       
      Bonne soirée,
       
    • Par Julien Cadena
      Bonjour à tous,
       
      Désolé d'avance pour ce post qui sera long .
       
      Avec un peu de retard, voici le retour du séjour que j’ai eu la chance de faire début février avec mon club astro le GAAC (62).
       
      Pour ceux que cela intéresserait, une revue trimestrielle réalisée par le club est consultable ici :
      https://www.astrogaac.fr/productions/le-journal/les-numeros-61-a-70
       
      C’est un numéro spécial « aurores » avec notamment un article sur le matériel vestimentaire/photo à prévoir pour ce type de voyage.
       
      Nous avons passé l’essentiel du séjour à Abisko, une petite localité de 85 habitants au nord de la Suède et proche de la frontière norvégienne.
       
      Abisko est situé dans un parc national. Nous logeons un peu en dehors dans un complexe proposant un restaurant, des chambres d’hôtels et chalets individuels.
      Les chalets que nous avons réservé sont situés dans un cadre magnifique:
       

       
      Ces chalets surplombent une forêt de boulots enneigés qui donne un peu plus loin sur les rives du Tornetrask, un immense lac gelé l’hiver, recouvert de neige et entouré de montagnes aux sommets arrondis:
       

       

       

       

       
      Mais passons à ce qui nous intéresse : les aurores !
       
      Nous arrivons en début de séjour sous la grisaille et les chutes de neige avec une température assez douce pour la période (-6°).
       
      Durant le séjour, nous allons vite nous rendre compte que nous ne pouvons pas nous fier aux sites de prévisions météos et même aux sites de prévisions aurorales.
      Par chance, Abisko est équipée d’une webcam extérieure permettant la surveillance du ciel bien au chaud. Nous décidons de veiller à tour de rôle chaque nuit.
       
       
      1ère nuit:
       
      Le ciel se dégage vers 1h du matin et la webcam montre quelques lueurs verdâtre.
      Nous nous habillons et décidons de sortir.
      Nous décidons de descendre en bordure du lac et de réaliser quelques clichés dessus. Les aurores sont bien là (ou plutôt une arche aurorale de faible intensité). C'est ma première aurore et j'en profite pour me mettre en scène  . Il y a pas mal de passages nuageux. Le ciel se couvrira définitivement vers 4h du matin nous obligeant à rentrer.
       

       

       

       
      2ème nuit:
       
      le ciel, encore couvert à 21h, se dégage progressivement vers 23h.
      Nous nous préparons et à peine sortis du chalet, nous apercevons un immense filament auroral vertical (et ce malgré les lumières des chalets environnants!).
      Nous descendons rapidement dans la forêt vers des spots que nous avons repéré dans la journée: 
       

       
      A peine le temps de s'installer et c'est l'explosion durant 15 min environs! du vert, du rouge dans le ciel. Quelle montée d'adrénaline! des cris, des jurons fusent parmi nous! un véritable feu d'artifice. Il y en a partout et on en oublie presque de déclencher les appareils pour profiter de ce moment magique.
       

       

       
      Le ciel s'est tellement embrasé que le paysage et la neige se couvre de vert:
       

       

       

       
      Puis, le phénomène se calme mais il restera une activité de plus faible intensité durant toute la nuit:
       

       

       

       

       

       
      3ème nuit:
      Le ciel a été couvert une partie de la journée et comme la nuit précédente, il se dégage en début de soirée. Il reste cependant des voiles d'altitude. Cela donne un aspect Akira Fujii à nos images. L'aurore ne démarre jamais vraiment; rien à voir avec ce que nous avons vu la veille. Mais l'arche aurorale permet de faire des compositions sympas avec notamment de la glace qui prend la couleur de l'aurore!
       

       

       

       
      4ème nuit:
       
      Sortie vers 22h avec des voiles assez présents; on retrouve un peu la touche "akira fujii" comme la veille. Nous observons des piliers de lumière qui sont formés des lumière d'Abisko ou de véhicules passant sur la route. Ce phénomène est dû à des cristaux de glace en suspension dans l'air:
       

       
      5ème nuit:
       
      Nous décidons de prendre la voiture et de faire 15 min de route plus au nord. Nous avons vu un spot sur le lac gelé qui devrait être bien sympa et nous changer de nos spots habituels. Le thermomètre de la voiture annonce -25°. On ne sera pas aussi bien protégé que dans la forêt du vent donc cela devrait piquer! (c'est notre sortie la plus fraiche avec un ressenti de -32°!)
      Une arche aurorale est bien présente et s'active de temps en temps; c'est superbe!
       

       

       

       
      6ème et dernière nuit:
       
      Une arche aurorale est bien présente en début de soirée mais plus brillante et remuante que la veille! A l'extrémité de l'arche, il se passe des choses bien visibles à l'œil nu,  avec des volutes qui grimpent jusqu'à 40° de hauteur.
      Le rouge est bien présent comme lors de la 2ème nuit. La nature nous gâte pour notre dernière nuit sur place:
       

       

       
      Toutes les images d'aurores ont été réalisées avec un canon 6d astrodon/objectif tt artisan 11 mm à fd2.8/objectif sigma art 20 mm à fd 1.4 sur trépied Vanguard.
       
       
      Malgré une activité calme du soleil durant le mois de février, nous avons eu à chaque sortie un phénomène à observer et la météo nous a été plutôt favorable!
       
      De superbes souvenirs et l'envie de repartir avant que l'activité solaire ne baisse.
       
      Bon ciel à tous
       
       
       
       
    • Par FrancoisGAP
      Bonsoir à tous, 
       
      Après la comète j'ai profité des belles nuits sans lune pour faire une image que je trouve sympa du trio du lion
       
      Les détails sont sur mon site web : https://planetediy.fr/index.php/2024/03/23/le-trio-du-lion/
       

       
      Détail du matériel utilisé :
      TS-ONTC HYPERGRAPH 10″ 254/1000 (Fd4)
      Correcteur Réducteur 0,85×3″ soit 863mm (Fd3,4)
      EQ8R-Pro sur Pilier Acier DIY
      ZWO ASI2600MC DUO + Optolong Clear 2″
      ZWO EAF
      ZWO EFW 5 positions 2″
      Temps intégration total de 7h
      27x120s Gain=100 (-20°C)
      14x180s Gain=100 (-20°C)
      59x180s Gain=100 (-20°C)
      49x180s Gain=100 (-20°C)
      40 Darks Gain=100
      40 Darks Flat Gain=100
      40 Flats Gain=100
      Traitement PSD / Pixinsight
       
      NGC3628 : 
       

       
      M65 & M66:
       

       
       
    • Par Astramazonie
      Salut amis astros,
       
      une petite photo / video de la pleine lune de ce mois en Guyane, toujours au ZWO Seestar S50
       
      Bonne semaine à vous. 
       

       
       
    • Par soleil rouge
      La lune au foyer de la lunette avec camera altair grand champs , puis histoire de pousser la lunette dans ses retranchements, voici quelques photos lunaires réalisés avec la 
      lunette apo de 185 mm et barlow 5x et 3x 
      camera Player one !
       
       








  • Évènements à venir