jmr

Ajustement des flats

Messages recommandés

Le 10/02/2018 à 10:29, ms a dit :

Le cas où la nébulosité se confond avec le vignetage relève de l'intelligence artificielle, il est donc du ressort des post-traitements, on est au 21ieme siècle Thierry.

et il y a déjà des softs disponibles avec ce genre d'algo ou il va falloir attendre que le 21eme siècle soit un peu plus avancé? il y a des gens qui bossent là-dessus ? :)

ps : je ne parle pas de softs expérimentaux mais de softs couvrant toutes les fonctions nécessaires en astro et utilisables par tout le monde, genre dss, prism, iris, pix...

Modifié par Thierry Legault

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 23 heures, chonum a dit :

Dans un newton avec un Wynne par exemple, c'est mort car la première lentille du Wynne affleure le chemin optique dans un télescope très ouvert, et prend la lumière directe de l'écran.

Oui mais avec un flat sur le ciel la lumière est aussi susceptible d'arriver de toutes les directions et donc le correcteur peut aussi prendre de la lumière directe non ? Et lors de la prise des brutes il peut aussi prendre de la lumière céleste (Et donc de la pollution lumineuse) en direct non ? O.o

 

S'il y a eu des études comparatives entre flat sur écran et flat sur le ciel j'aimerais bien en voir les résultats chiffrés et si vraiment la différence est significative :) Beaucoup d'observatoires ont des écrans à flats sur la face interne du dôme et je n'ai jamais lu de mise en garde par rapport aux flats avec écran de la part des cadors des applications scientifiques : photometrie, astrometrie, spectro...

 

Christian (Buil) si tu passes par là...:)

Modifié par Thierry Legault

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon,

 

Les pros et les dômes qui peuvent d'ailleurs êtres COURBES...passons.

 

Sur la problématique de l'écran à flat qui serait posé sur le tube :

j'ai demandé à mon ami Jean-Pierre de réfléchir à la question sans faire de calculs si possible, et voici son constat avec les données que je lui ai fournies (il n'est pas spécialement astronome).

A chacun de se faire son idée. Je n'avais pensé à cet aspect des choses.

 

Lucien

Untitled-1.jpg

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 14 heures, Lucien a dit :

j'ai demandé à mon ami Jean-Pierre de réfléchir à la question sans faire de calculs si possible, et voici son constat avec les données que je lui ai fournies (il n'est pas spécialement astronome).

A chacun de se faire son idée. Je n'avais pensé à cet aspect des choses.

 

Je pense qu'il est erroné de prendre en compte simplement la "distance" de la source lumineuse. On le voit très bien avec Mars par exemple : le temps de pose est identique quelle que soit sa distance à la Terre. On pose pareil, que Mars soit en opposition favorable (56 millions de km) ou défavorable (plus de 100 millions de km). La lumière émise par unité de surface du sol martien diminue certes avec la distance, mais comme cette unité de surface est vue plus petite (à cause de la distance plus grande), les deux effets se compensent exactement car c'est le carré de la distance qui joue sur les deux facteurs. Même chose pour la Lune : le temps de pose est le même qu'elle soit à l'apogée ou au périgée, et même sur place pour les astronautes qui ont foulé son sol, le temps de pose aurait été le même pour eux que pour nous si nous avions eu le même appareil photo entre les mains.

 

Par contre, ce qui est vrai c'est que le bord du miroir "voit" l'ouverture de manière oblique, donc plus sous forme d'un disque mais d'un genre d'ellipse, plus petite que le cercle sur ses deux dimensions. Ce phénomène est bien connu en photo avec, pour certains objectifs, une pupille en "oeil de chat" vue depuis le bord du capteur. C'est une des causes géométriques du vignetage, et c'est une des raisons pour lesquelles aucun objectif ou instrument astro ne peut être exempt de tout vignetage, quelle que soit la formule optique. Mais on a le même phénomène avec un flat sur le ciel, et avec le fond de ciel pour les brutes (peut-être pas exactement dans les mêmes proportions cependant, si l'écran à flats ne coïncide pas avec la pupille d'entrée).

 

Donc je ne suis toujours pas convaincu de la non-représentativité pratique des flats sur écran :)

Modifié par Thierry Legault

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

et il y a déjà des softs disponibles avec ce genre d'algo ou il va falloir attendre que le 21eme siècle soit un peu plus avancé? il y a des gens qui bossent là-dessus ? 

Le dévignetage est traité comme un problème inverse au même titre que le le débruitage, le défloutage, la super-résolution, l'inpainting, la suppression des artefact de compression et le defogging.

Le modèle de mélange gaussien (GMM) permet par exemple d'obtenir d'assez bons résultats dans le traitement des problèmes inverses ci-dessus.

Je m'intéresse aux méthodes basées sur des patchs car elles donnent les meilleurs résultats actuellement.

Le logiciel EVA qui sortira cette année traite en temps réel tous les problèmes inverses énumérés ci-dessus. Ils ne sont pas tous propres à l'astronomie (le dernier sera utilisé dans un prototype de conduite par temps de brouillard). Il y a cependant quelques cas qui demandent un apprentissage et pour ceux là, EVA sera complété par des post-traitements réalisés avec TensorFlow.

Partager ce message


Lien à poster
Partager sur d’autres sites

Pfff ! Va falloir avoir bac + 12 maintenant pour faire des photos du ciel !!!

Mais bon, je continuerai à faire mes images mer ... iques avec mon matos préhistorique :oxD:P

épiçétou !

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, ALAING a dit :

Pfff ! Va falloir avoir bac + 12 maintenant pour faire des photos du ciel !!!

 

Effectivement,  je suis entièrement de ton avis :D .
Il va falloir que certains nous écrivent et continuent de nous écrire  des bouquins et pas uniquement des tutos histoire de comprendre un peu ce qu'on fait :P

  • J'adore 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonsoir,

 

Faute de temps, je réponds rapidement.

 

Il y a des années, j'utilisais un Newton 200mm F4 pour le ciel profond. Et j'avais constaté que je n'obtenais pas le même résultat (fichier flat) si :

- je plaçais l'écran de flat de marque "Aurora Gerd Neuman" :

1) à l’extrémité du tube optique ou bien

2) au bout d'un pare-soleil de 50/60 cm environ de longueur utile. ( prolongement du tube )

Les écarts étaient faibles mais bien mesurables avec un Nikon D70 format APSC.

Par je ne sais quel raisonnement, j'en avais conclu en discutant avec d'autres, qu'il était théoriquement préférable d'éloigner l'écran : SI ON POUVAIT LE FAIRE FACILEMENT.

 

Je pense avec  le recul que ces écarts peuvent passer inaperçus suivant la configuration optique, car assez faibles et/ou noyés dans d'autres phénomènes :

- diffusion interne, directivité de l'écran, taille du capteur etc.

Mais de là à dire que ça n'existe pas...

 

**** DONC PAS D’INQUIÉTUDE :  ****

On peut très bien ignorer tout ces détails s'il s'agit de faire de belles images.

Car on pourra toujours ajouter après coup, un soupçon de sel ou de sucre, en plus ou en moins.

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, Lucien a dit :

Les écarts étaient faibles mais bien mesurables avec un Nikon D70 format APSC.

ce n'est pas forcément surprenant surtout pour un newton qui a son po près de l'entrée. Je pense que la vraie question est : est-ce qu'un flat écran au bout du pare buée est moins bon qu'un flat céleste pour corriger des images faites en config pare buée ? Et même question en config sans pare buée. Pour moi l'important est d'être cohérent entre les flats et les images du ciel : avec pare buée pour les deux, ou sans pour les deux.

Modifié par Thierry Legault
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Ca ne doit pas changer grand chose sur le résultat final...

Si le seul but est de faire une belle image (numérique, pas argentique).

Dans ce cas, les flats servent surtout à enlever les traces des poussières sur l'optique proche du silicium du capteur. L'informatique fera facilement le reste.

Ou alors on tombe dans la tentative de procréation de diptères. :)

  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites

******************************************************************************************************************

La poussière insignifiante que nous dispersons dans l'air d'un revers de la main, est un univers pour d'autres.

Et que de mondes sont 'bousillés' à chaque fois que l'on pose son pied à terre.

******************************************************************************************************************

 

Regardons la graduation des magnitudes ici :

 

Lucien

var.png

Partager ce message


Lien à poster
Partager sur d’autres sites

Puisqu'on parle du vignetage, j'ai fait un rapide essai avec EVA : ^_^

vignetting.png.007e8117f2710fcacb59a6ac8bc1b1b9.png

devignetting.png.4d0682b052ef28caa6ea18a08db641b1.png

ref.png.c0cf3828b703f23967f02a53072d6002.png

 

1 : vignetage (PSNR=22dB)

2 : dé-vignetage (PSNR=44dB ce qui est excellent)

3 : référence

 

Celui-ci est peut-être plus parlant (il y a une zone assez compliquée dans le nuage de fumée qui est parfaitement restaurée, c'est le genre de problème qui peut se rencontrer en astro dans la Voie Lactée) :

vignetting.png.81f9d7c94cb12b1ace71c518f152ee9e.png

devignetting.png.a31e45555ec6f12d5e6c5be84037439d.png

ref.png.d7b8f6ad4cc291a8d148ac89d833fb72.png

 

1 : vignetage (PSNR=11dB)

2 : dé-vignetage (PSNR=36dB l'écart est énorme)

3 : référence

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Un autre problème inverse traité avec EVA, le flou de mouvement : ^_^

motion_blur.png.19bce091c25f7cdbcbad35736ebfd842.png

de_motion_blur.png.8d9f824b2c21c8c0787d0909334d56e4.png

ref.png.62ba2341a6390c521ab454379be2253b.png

 

1 : flou de mouvement

2 : dé-floutage (PSNR=40dB ce qui est encore excellent)

3 : référence

 

L'intérêt de la chose c'est qu'il devient possible de détecter à l'aveugle un perturbation hybride qui serait un mélange gaussien de bruit, de flou et de vignetage par exemple.
On va donc bien plus loin que la détection d'un bruit hybride avec EVA. ^_^

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Le flou que l'on rencontre en astro, c'est celui ci : ^_^

blurring.png.0815be3d054f04b24a74c3569892a7c8.png

deblurring.png.322b8eac65df0e461bcae6d7c755338a.png

deblurring_den.png.628960c91c99beb1c871c69be4760e41.png

ref.png.ed17a0735355e5c6292ad242c4816470.png

 

1 : flou astro

2 : dé-floutage astro

3 : dé-floutage hybride (EVA)

4 : référence (Réf.)

 

Graph_2.png.cf11b2a3a2660bd740612daa0a96d00a.png

 

C'est avec une image, avec une dizaines d'images la courbe blanche tend vers la courbe jaune.

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonsoir Michel,

 

Il y a quelque chose qui ne va pas avec l'image du train : ce n'est pas possible en pratique d'avoir un vignetage aussi peu centré sur l'image.

Ou alors l'optique est dans un étal que je n'imagine pas.

 

Lucien

Untitled-1.jpg

Partager ce message


Lien à poster
Partager sur d’autres sites

vignetting.png.93ed9d9a6c152317966bf60ce7b5127a.png

devignetting.png.b3abb0bbe9450d62268706823b257ec8.png

ref.png.0a0efd01727689a8b4bdbf61a673cd52.png

 

1 : vignetage (PSNR=11dB)

2 : dé-vignetage (PSNR=37dB l'écart est énorme)

3 : référence

 

Cela ne change rien au résultat et l'opération prend moins de 1/100s. ^_^

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci Michel.

 

Ce vignetage est vraiment extrême !

La solution pour le corriger est ici de créer un flat "circulaire" et de l'appliquer avec un calque de réglage et un ratio réglable à vue.

 

******************************************************************************************************************

Ensuite il faut : soit abandonner l'imagerie astronomique, ou bien ne pas être conseillé par un PLOMBIER pour ce faire.

******************************************************************************************************************

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

@ms Tres impressionnant ces exemples de correction du vignetage et blind deconvolution, tu utilise quelles formulations/methodes pour arriver a ces resultats ?

Si c'est un processus iteratif, c'est assez impressionnant de pouvoir obtenir le resultat en temps reel.

Modifié par DOLGULDUR

Partager ce message


Lien à poster
Partager sur d’autres sites

J'ai envie de faire tourner EVA avec le nouveau processeur Ryzen 5 2400GE (35W) dans le but d'obtenir un boîtier sous Linux à refroidissement passif de moins de 2 litres.
Après quelques optimisations sans grande influence sur la qualité, j'obtiens le traitement de différents problèmes inverses en moins de 1s pour des images 512x512 sur une seule tâche et sans l'aide du processeur graphique. Pour des images Full HD le processeur Ryzen 5 2400GE devrait donc suffire.

L'intérêt de l'approche est dans l'estimation d'un ensemble de problèmes inverses par mélange gaussien, poissonnien ou autre.

Il est ainsi possible d'estimer en temps réel le mélange de bruit, de flou, de vignetage et de dispersion atmosphérique que l'on rencontre en astro puis de restaurer l'image.

Pour la conduite par temps de brouillard qui sera présentée l'an prochain, c'est le problème inverse du defogging qui est utilisé.

Dans le domaine médical, d'autres mélanges sont possibles.

Pour la photo animalière à longue distance, le bruit, le brouillard et le flou de mouvement sont les problèmes inverses à résoudre.

Pour la vision sous-marine, le bruit et le flou de mouvement sont les problèmes inverses à résoudre.

Bref, EVA c'est un système embarqué qui permet de traiter en temps réel tout un tas de problèmes inverses dans tout un tas de domaines. ^_^

A titre de comparaison, l'écart entre EVA et le plus rapide des systèmes intelligents utilisant TensorFlow est de l'ordre de 300x.

 

Le cas de l'ADC logiciel peut aussi être vu comme un problème inverse, c'est sur celui là que je travaille actuellement car Mars approche.

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

@ms Modele GMM ca reste assez vague.

Qu'est ce qui est estime comme un melange de gaussienne ?

  -le noyau de convolution dans la blind deconvolution ?

  -Le modele de bruit, comme une somme de plusieurs bruits gaussiens ? (pas adapte aux distribution leptokurtiques donc je doute que ce soit cela pour modeliser le bruit hybride).

Partager ce message


Lien à poster
Partager sur d’autres sites

L'idée c'est de trouver une méthode de restauration d'images brutes suffisamment versatile mais aussi rapide.

De nombreux essais ont été faits avec l'algorithme BM3D qui est servi à toutes les sauces mais au prix chaque fois d'un effort de codage important.

D'autres essais ont été faits avec l'algorithme EPLL qui donne de bons résultats en terme de PSNR mais au prix d'une complexité plus élevée que BM3D.

Et d'autres encore : K-SVD, NL means, NL-Bayes, RNLF, ...

EVA a exploré ces différents chemins du labyrinthe pour pouvoir tracer son propre sillon basé sur des patchs, le résultat de ce travail sera encapsulé dans un système embarqué sous Linux.

 

Le principal problème reste l'estimation comme par exemple cette estimation du bruit d'une rafale de 10 images brutes de polo en utilisant la méthode plus générale (multiframe et multiscale) que celle décrite dans RNLF (première et cinquième image de la série, les patchs sont de 4x4)  :

0.png.58011c5292b436e83d06a66f1e7a786b.png

4.png.5b0d0fdfdf6fb569477a8d83dfc5a9f6.png

 

Il faut une dizaine d'images brutes pour avoir une estimation fiable du bruit.

 

Il est possible d'estimer dans la même boucle le bruit (voir ci-dessus en rouge), le flou, le vignetage et la dispersion atmosphérique c'est ce qui sera nécessaire lors de l'opposition de Mars en juillet 2018. ^_^ 

 

Il ne restera plus qu'à embarquer la résolution de problèmes inverses dans un instrument automatique utilisable aussi bien pour l'observation terrestre à longue distance que pour l'observation céleste. ^_^

 

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Je reviens au sujet.

 

D'abord ce qui compte, c'est la position de la pupille d'entrée. Qui n'est pas forcément la première lentille dans le cas des flats, mais l'endroit où l'on contraint l'entrée de lumière, pour ce cas c'est le pare buée.

 

Donc intuitivement, on se dit que si l'on pose l'écran sur le dit pare buée, cela doit fonctionner dans le même régime que sur le ciel car les rayons suivent le même trajet. Oui. C'est vrai. Mais non, c'est différent en terme de flux.

Prenons un éclairage rasant qui arrive sur l'objectif : la pupille d'entrée est ovale (avec deux axes tangentiel et sagittal qui sont aussi la source des aberrations de champ effectivement). Donc lorsqu'on est sur le ciel, la contribution au flat va être sujette à cette réduction de la pupille d'entrée (car ovale).

MAIS avec un écran non, la quantité de lumière rasant est la même dans tous axes car tous les points de l'écran émettent dans toutes les directions de manière isotrope (sinon l'écran n'est pas bon).

Je ne sais pas si c'est clair...

 

Bref bottom line je n'ai jamais pu faire un flat correct sur la FSQ106ED avec un écran, mais ça marche avec le CN212.

Le newton, avec son Wynne maudit, je n'ai même pas essayé...

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Oui Frédéric,

 

J'ai pratiquement le même constat.

 

Avec les Mewlon (FD12), le flat fait avec l'écran posé sur le tube ou bien sur un fond de ciel gris et nuageux, sont très proches :

> 1.5% d’écart sur les intensités relatives mesurées sur la grande largeur du capteur APSC Canon au foyer.

Avec la lunette, je fais les flats sur le mur si je ne peux le faire sur le ciel !

En pratique, chacun pourra faire ses essais en fonction de sa configuration et de sa taille capteur.

Et de son niveau d'exigence.

 

Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites

Par contre j'ai un soucis aussi avec les flats sur le ciel avec le newton.

En broadband, c'est bon, ils sont beaux et comme attendus.

En bande étroite, quelque soit le filtre, j'ai des variations bizarres, voire même ce qui me fait penser à des interférences.

Je ne sais pas si c'est le capteur de  l'ASI1600 ou la formule optique, ou le correcteur, bref, cela m'échappe :)

J'ai vérifié le sens des Astrodons et il est bon.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par Astramazonie
      Bonjour les Astros, 
       
      Petite prise du "CASQUE DE THOR" qui date d'une semaine, que je pensais perdu dans les abysses des clichés mais qui a pu être récupérée, toujours au Seestar 20 minutes de pose.
       
      Merci à @Bob Saint-Clar pour son aide pour le traitement ... et le sauvetage de cette photo.
       

       

    • Par Chani11
      Bonjour,
      Après beaucoup de faux pas, d'hésitations et d'erreurs en tout genre, je pense commencer à maitriser le B A BA de NINA et de PHD2 associé. En gros, je fais la mise au point manuelle grâce aux valeurs HFR (mieux que le bahtinov), le pointage et le centrage de la cible se font correctement grâce à l'astrométrie, le suivi PHD2 une fois calibré est plutôt bon (l'amplitude des oscillations se situe dans une gamme inférieure à +/- 1 ". Faire une séquence est alors un jeu d'enfant.
      Cependant, au vu des résultats, mon enthousiasme est plus que modéré.
      J'ai choisi pour mes trois nuits d'essai (trois nuits sans vent, c'est exceptionnel) M101, cible facile, brillante et bien placée en ce moment.
       
      Ce qui me frappe immédiatement, c'est le fort vignetage de la caméra. Mon APN,  APS-C et nombre et taille de pixels comparables à la 2600, n'avait pas de vignetage visible. Bien sûr ça se corrige plus ou moins avec les flats, mais ce n'est pas top pour ce genre de capteur.
      Deuxième déception, le bruit. Les images sont très bruitées, même après traitement : dark, flat, 75 poses de 2 minutes sur T200/1000. J'ai choisi le gain donné par défaut par NINA pour cette caméra, à savoir 421/600 et un offset de 1. Est-ce trop élevé ?
      Avec ce gain, durant deux minutes de pose, la galaxie n'apparait pas sur les brutes, ce qui me surprend énormément pour une caméra dite sensible.
       
      Voici le résultat avec un traitement classique Siril
       
       

       
      J'ai dû lisser un max pour atténuer le bruit. C'est très en deçà de ce que j'obtenais avant.
       
      Pour info, une brute, réduite en 2k
       

       
      A votre avis, quelles sont les pistes d’amélioration ?
      Merci
       
    • Par Romain Guillou
      Prise d'hier soir (en charente) , M104, galaxie pas si facile, car très basse sur l'horizon, et toute petite (j'habite un corps de ferme qui me bouche la vue quasi 15° au dessus de l'horizon sur 360°)
       
      "M104, également connue sous le nom de galaxie du Sombrero, est une galaxie spirale située dans la constellation de la Vierge, à environ 65,8 millions d'années-lumière de la Terre. Cette galaxie doit son surnom à son apparence distinctive qui ressemble à un large chapeau mexicain."
       
      Exifs :
       80x120s à 800iso  DOF (20 chacune) + Autoguidage Lunette 60mm  Canon 60D Défiltré  SW Quattro 250P et EQ6 r pro  Traitement Siril + PS

    • Par XavS
      Bonsoir tout le monde,
       
      Enfin, je peux poster quelques images.
       
      Première sortie de l'année sur mon site de l'été à 1 000 M d'altitude. Malgré un voile présent en altitude je ne me suis pas gêné pour photographier le ciel
       
      La cible était la galaxie NGC 4051. C'est une galaxie spirale intermédiaire située dans la constellation de la Grande Ourse. NGC 4051 a été découverte par l'astronome germano-britannique William Herschel en 1788. Elle est située à environ ∼44,5 millions d'A.L.
       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 70 x 300s
      Darks : 7 x 300s
      Offsets : 29 x 1ms
      Flats : 29 x 120ms
      Total : 5 h 50
      Traitement : Sirilic, Siril et Gimp
       
      Et comme à mon habitude, voici un joli quartier de Lune présenté en deux versions.
       

       

       
      Les données de la prise de vue :
       
      Matériel : C9 + réducteur Starizona sur EQ6 + caméra 1600MC et filtre antipollution IDAS LP3
      Suivi : Lunette TS 80D + caméra 120 mini
      Lights : 57 sur 231 x 1s
      Traitement : AS4, Astrosurface et Gimp
       
      La galaxie ne me plaît pas trop. Je ne saurais dire pourquoi. Par contre pour mon quartier de Lune, je l'adore
       
      Vos commentaires sont la bienvenue.
       
      Bon ciel à toutes et tous.
       
      XavS
       
    • Par Romain Guillou
      Un ciel laiteux, mais que cela ne tienne, on voit quand même les étoiles, donc s'est repartie pour une cible bien connue :

      M81 et M82, La galaxie de Bode et du Cigare.

      Exifs :
       
      145x120s à 1025iso DOF (20 chacune) + Autoguidage Lunette 60mm Canon 60D Défiltré + CLS SW Quattro 250P et EQ6 r pro Traitement Siril + PS
        Faite à Ronsenac (Charente) depuis mon jardin le 13/04/24


  • Évènements à venir