jldauvergne

Correction de la turbu par PSF.

Messages recommandés

Jupiter est un sujet de choix car Aida permet de faire ressortir des détails faiblement contrastés. Il faudrait même commencer par des images IR pour faire encore plus ressortir la puissance d'Aida.

Pour le ciel profond sortir une image corrigée de la turbulence toutes les 4 minutes me semble du domaine du possible. Après, il faudra rendre cet exercice plus 'temps réel' en augmentant la puissance de calcul.

Partager ce message


Lien à poster
Partager sur d’autres sites
Tu as aussi le logiciel "Tria Image Processing" qui utilise SeDDaRa (un voisin d'AIDA) :

Je te mets le lien vers leur demos en ligne : http://www.quarktet.com/TriaDemo/

Pour ma part, je reste dans la direction AIDA, SeDDaRa, ... mais je suis passé pour une question de performance :
- à Java (Java7/Swing/...),
- au processeur core d'Intel.

[Ce message a été modifié par ms (Édité le 06-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour

Merci pour ces liens, je vois que c'est reparti
Mes essais plus haut images "Demo mode" (avec la grille) étaient justement faits avec Tria, on y trouve aussi un filtre d'accentuation intéressant.

La bonne nouvelle de la semaine, c'est qu'après six mois de silence, l'auteur de BiaQIm vient de me recontacter et me donne maintenant en temps réel un sacré coup de main sur les déconvolutions myopes.
Au programme, les images du Pic au T1m et au C14 de PhilTo ...

Stay tuned

[Ce message a été modifié par Nebulium (Édité le 14-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
As-tu passé en revue toute la famille des DeconBMI, DeconBRP, DeconIB, DeconMB, (il doit y en avoir une demi-douzaine) ... ?
Bia est très bien documenté et son auteur poursuit son projet depuis de nombreuses années (c'est pas toujours le cas pour les autres projets).

Pour ma part en 2012 je resterai sur AIDA et SeDDaRa qui sont déjà suffisamment complexes à manipuler après je reviendrai peut-être vers Bia si les résultats ne sont pas à la hauteur de mes espérances.

As-tu un jeu de test (image+PSF) qui permettrait une comparaison des différents algorithmes (sur Jupiter et M57 par exemple) ?

Les algorithmes c'est bien mais la pertinence des données c'est encore mieux.

Bonne continuation pour ton projet.

Partager ce message


Lien à poster
Partager sur d’autres sites
Hello ms

Pour l'instant, je travaille sur DeconBMI, avec un support remarquable du Dr Tadrous.
L'application astro l'intéresse fortement, et il souhaite qu'on lui communique les comparaisons avec AIDA & cie.
Je manipe sur des RGB 1k x 1k du Pic 2010 (lien en début de ce fil), simplement stackées avec RGX6, sur lesquelles je m'étais fait la main avec Winjupos.
J'ai rodé les réglages d'abord sur la G, 41 h de traitement par test en dualcore 1,6 GHz.
Je devrais avoir demain matin un résultat "beta", j'attends ensuite des conseils du dr. sur cette beta pour optimaliser la PSF de départ au vu de l'évolution du graph d'erreur (il a une sacrée expérience, le dr. !) , et je ferai peut-être donc encore un tour de G avant de traiter les R et B et publier les premiers résultats.

PS Au fait, d'où vient ta Juju /Tria juste au dessus et qu'as tu fait comme traitement?

[Ce message a été modifié par Nebulium (Édité le 19-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Je crois qu'il y a 2 cas de figures (et que ceux qui empruntent le deuxième ne sont pas sortis de l'auberge) :

a) Traitement normal :
- traitement 1 = image brute traitée par AIDA (ou SeDDaRa ou DeconBMI) avec une PSF réaliste (facile à calculer ou possible à mesurer), ce traitement est indépendant de la tâche d'Airy,
- traitement 2 = composition des images AIDA (ou SeDDaRa ou DeconBMI) avec renforcement éventuel (ondelettes ou autres), ce traitement dépend de la tâche d'Airy.

b) Traitement périlleux :
- traitement 1 = image compositée traitée par AIDA (ou SeDDaRa ou DeconBMI) avec une PSF diluée (difficile à calculer ou impossible à mesurer),
- traitement 2 = renforcement par les ondelettes.

Il faudrait des jeux d'essais pour des objets comme le Soleil, Jupiter, Uranus, M57, ... c'est à dire une centaine (ou un millier) d'images brutes avec leur PSF prêtes à passer à la moulinette AIDA, SeDDaRa ou DeconBMI.

Pour l'image de Jupiter : http://www.quarktet.com/SeDDaRA.html

Pour le calcul, je trouve que les processeurs i5 ou i7 d'Intel se débrouillent pas mal sous Windows 7 quand les logiciels prévoient de répartir la charge de calcul (SeDDaRa et DeconBMI).

Tu peux faire un test pour le Dr Tadrous (impressionnant son travail depuis des années) avec le jeu d'essai Titan (tu remarqueras qu'il y a de petites différences dans la détection des faibles contrastes).
Je ne poste pas tout de suite mes résultats car il faudrait comparer à une même date les résultats obtenus par un échantillon représentatif de 5 ou 6 astrams.
Il faut résister à la tentation de vouloir faire systématiquement du renforcement et se focaliser sur la recherche des détails ténus.

Sans oublier d'indiquer le temps de traitement pour chaque algorithme utilisé.

Bonnes manips à tous les curieux d'Aida, Tria et Bia et vive le ciel sans turbulence.

[Ce message a été modifié par ms (Édité le 16-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Tu as tout bien exprimé, merci

J'ajouterai :

Pour a2) :

1. Dérotation pendant la durée des films (c'est du calcul de géométrie en passant par une projection cylindrique) pour les objets comme Jupiter et Saturne
2. Morphing avant compositage.
J'en rappelle le concept de base :
- On crée d'abord une image simplement compositée classique donc statistiquement crédible.
- On déforme les images individuelles pour qu'elles "collent" à l'image cible

Ces traitements sont possibles en gratuit avec le Ninox d'A. Wesley. La dernière version de Winjupos permet peut-être une mise en oeuvre plus aisée de la dérotation.

Pour b1) : Je n'ai pratiquement pas fait grand chose avec AIDA (voir p 3), j'ai SEDDARA (merci pour le lien Jupiter )sous le coude depuis longtemps, je ne me souviens plus pourquoi je n'ai pas creusé, il est couplé avec Tria chez Quarktet, les versions d'évaluation sont limitées, j'avais trouvé intéressant le filtre d'accentuation Caron de Tria (Demo Mode avec grille un peu plus haut)

A la même époque, j'avais aussi regardé DeconBMI, je m'étais heurté à un gros zombie en transposant les exemples, j'avais contacté l'auteur à ce sujet qui m'a répondu qu'il était très occupé en ce moment mais reprendrait contact, ce qu' il a fait spontanément il y a quelque jours avec une interactivité remarquable.

Avec ses conseils et ses explications de réglages, je crois commencer à entrevoir les principes mis en oeuvre. Il ne s'agit pas d'une unique déconvolution au sens classique avec une psf improbable, mais d'une série d'itérations successives basées sur les algos connus de déconvolution (que l'on peut choisir et paramétrer à volonté) qui font évoluer alternativement image et psf dans un cadre de contraintes prédéfinies (c'est le plus difficile !) selon des critères de mesure d'erreurs (des histoires de gradients multiples, là j'ai décroché).
La principale contrainte est évidemment la conservation du flux lumineux, une autre par exemple est l'exclusion de toute transition sans rapport avec l'image (il faut "limer" les bords des images détourées, rembourrer en couture invisible les pseudo-fonds de ciel quand on égalise les dimensions de diverses images alignées) et c'est in fine l'expérience du chef qui décide du fignolage des multiples paramètres au vu du graph d'erreur et autres fichiers de log.
Mais il ne faut pas quand même pas surestimer la distance à la porte de l'auberge


Donc avant de me lancer dans une campagne de jeux d'essais comparatifs, qui reste l'objectif final, je souhaite me faire la main :
1. en méthode b) sur cette Juju 1k en RGB, avec comme base de comparaison les traitements qui en ont été publiés.
2. en méthode a) sur des prises unitaires de films Pic 2011 au C14 par PhilTo (dont je crains qu'ils ne soient malheureusement affectés d'un défaut de contrainte du secondaire) pour évaluer l'incidence du bruit et regarder ensuite le morphing[ (pour la dérotation, d'autres ont déjà bien défriché le terrain)
3. en trouvant une coopération avec un détenteur de PC musclé, parce qu' avec mon dualcore à 1,6 GHz ...

Après, on pourra passer aux tests comparatifs;
Mais bon, tout ça se discute.
Pour l'instant, j'attends l'approbation de mon professeur (sans doute vers 23 h) sur les derniers réglages G pour lancer R et B, presque 4 jours en biprocesseur non stop.


quote:
Il faut résister à la tentation de vouloir faire systématiquement du renforcement et se focaliser sur la recherche des détails ténus.

Pour moi, l'idéal est d'avoir une image à l'aspect naturel, comme une "vraie" photo.
Je trouve que les images planétaires publiées sont souvent trop agrandies donc molles sinon floues tout en étant plus ou moins vilainement suraccentuées, comme certaines images de la TV N & B dans l'ancien temps.

[Ce message a été modifié par Nebulium (Édité le 16-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut à tous,

Trés bon résumé ms, je pense malgré tout que le traitement b1) est envisageable sur un petit nombre d'images, dès que ces dernières sont sélectionnnées via un algo de type bestof et triées de la meilleure a la moins bonne. La psf de ce lot d'image sélectionné sera celle qui sera la moins diluée et a priori la plus statique. Mais cela reste "touchy" car a partir de combien d'images doit on convenir que la psf est trop déformée ??


@ Neb :

>2. Morphing avant compositage.J'en rappelle le concept de base :
>- On crée d'abord une image simplement compositée classique donc >statistiquement crédible.
>- On déforme les images individuelles pour qu'elles "collent" à l'image cible

La il y a déjà dilution, l'image de référence pour le démorphing doit être une image brute il me semble (j'ai un essai qui confirme ca dans les images de jupiter au 150 fait par JL)
C'est ce que j'avais expliqué ici :
http://www.astrosurf.com/ubb/Forum2/HTML/036639.html

>Il ne s'agit pas d'une unique déconvolution au sens classique avec une >psf improbable, mais d'une série d'itérations successives basées sur les >algos connus de déconvolution (que l'on peut choisir et paramétrer à >volonté) qui font évoluer alternativement image et psf dans un cadre de >contraintes prédéfinies (c'est le plus difficile !) selon des critères de >mesure d'erreurs (des histoires de gradients multiples, là j'ai décroché).

C'est exactement ce que fait AIDA !! si tu regarde le fichier de sortie des calculs que ms à postée en page 2 de ce poste, AIDA alterne entre une itération sur l'image et une itération sur la psf de manière à réduire des fonctions d'erreur un peu complexe a saisir, je l'admet.

J'ai enfin un petit script qui permet de traiter sous AIDA des séquences entières (un fichier bash qui re écrit le "Aida_settings.py" entre chaque images pour ceux que ca interesse), et j'ai quasiment terminé les essais sur les séquences video de Phil Tosi, en utilisant sa PSF originale contenant justement un gros "trefoil". Les résultats sont interessants, mais j'ai encore quelqeus soucis sur la couche bleue..... Dans tout les cas, l'amélioration est sensible entre une psf calculée (donc circulaire), et celle issue d'une acquisition originale contenant le trefoil.
Si JL passe par la, je lui avait aussi renvoyé un ou deux traitements sur des images du 1m
Mais pour le moment j'ai pas le temps de poster, étant sur un sujet en relation directe avec ce dont on parlait en page 1. J'en parlerai une de ces 4 quand j'aurais des résultats.

Bernard

Partager ce message


Lien à poster
Partager sur d’autres sites
Failli oublier, mon proc pour faire le boulot :

processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 23
model name : Intel(R) Core(TM)2 Duo CPU T9900 @ 3.06GHz

met environ 5 minutes en deconv myope sur une image fenetrée en 1024x1024

[Ce message a été modifié par brizhell (Édité le 16-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Est-ce qu'il vaut mieux une image N/B avec une turbulence parfaitement maîtrisée (type a1) ou une image couleur avec une turbulence parfaitement approximative (type b1) ?

Le bestof (type b1) c'est les trous de turbulence c'est à dire que tu vas jeter plus de 80% de tes acquisitions, dans ces conditions la PSF peut être effectivement calculée parce que l'écoulement est pratiquement laminaire.

L'avantage du traitement normal (type a1) c'est que tu peux traiter plus de 80% de tes acquisitions. L'inconvénient c'est que ça demande de la puissance de calcul mais les processeur Intel actuels sont sur la bonne voie.

Les 2 algorithmes AIDA et DeconBMI travaillent de manière itérative (sur l'image mais aussi sur la PSF) et incrémentale (n rounds d'optimisation pour AIDA).

La structure du programme d'AIDA est intéressante en batch parce qu'elle permet de placer des points d'arrêts au début de chaque round d'optimisation et donc de vérifier les itérations effectuées sur l'image et sur la PSF.

SeDDaRa est une méthode non itérative c'est à mon avis la méthode idéale pour traiter mes images monochromes en temps réel (type a1) et ouvrir ainsi la voie du "lucky imaging" à la vidéo-astronomie.
http://www.quarktet.com/pdfs/Quarktet-ConfocalMicroscopy.pdf

Mon objectif c'est de comparer AIDA et SeDDaRa, puis d'utiliser SeDDaRa en temps réel si les résultats entre ces 2 produits sont proches.

Partager ce message


Lien à poster
Partager sur d’autres sites
Re Salut,

>Le bestof (type b1) c'est les trous de turbulence c'est à dire que tu vas >jeter plus de 80% de tes acquisitions, dans ces conditions la PSF peut être >effectivement calculée parce que l'écoulement est pratiquement laminaire.

La je te trouve optimiste :-), 90 à 95 % a jeter me semble judicieux !
Christian Buil dans ses pages parle de 4%, le graphe de la page de Cyril Cavadore sur la turbulence est même en fonction du diamètre, beaucoup plus pessimiste...
Ca colle quand l'objet est peu étendu, et que la source est connue (c'est pour cela que ca marche bien sur les étoiles doubles.

>L'avantage du traitement normal (type a1) c'est que tu peux traiter plus de >80% de tes acquisitions.

A la condition d'avoir la PSF mesurée pour chaque image, et là c'est beaucoup, beaucoup plus dur à faire.

De plus si ton objet est étendu, tu sera limité par l'angle d'isoplanétisme, plutot que la PSF.
Je suis en train de plancher la dessus d'ailleurs (c'est pour cela que j'ai mis la déconvolution en sommeil dans mes activités... Je pense avoir une solution pour la détermination de l'angle d'isoplanétisme. Mais on en reparlera plus tard.

Bernard

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
De plus si ton objet est étendu, tu sera limité par l'angle d'isoplanétisme, plutot que la PSF.

Voir le lien donné par asp06 en page 1 à ce propos.

En vidéo, je ne dois pas avoir de problème de capture lié à l'isoplanétisme en dessous de D/r0=4 (280/70).
L'idéal serait de pouvoir traiter par déconvolution (traitement a1) jusqu'à 25 images par seconde et d'afficher les images compositées (traitement a2) toutes les 10s par exemple pour des objets comme M57 ou NGC40.

Pour des objets plus étendus comme M13 par exemple, il faut essayer avec des valeurs plus faibles de D/r0.

[Ce message a été modifié par ms (Édité le 17-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut

>Voir le lien donné par asp06 en page 1 à ce propos.

Suis en train de travailler sur quelque chose d'approchant, mais utilisant la scintillation comme indicateur de l'angle d'isoplanétisme.

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonsoir

Bernard, j'ai vu que tu avais pu récupérer l'un des films de Philto, celui avec le secondaire malmené , cas intéressant par ailleurs.
Il m'a envoyé par snailmail un DVD avec d'autres films que je n'ai pas encore eu le temps d'évaluer, je peux éventuellement les mettre en ligne chez Cédric, son site marche bien.

Pour l'instant je continue à tester la voie b pour les (presque) nuls sur la vieille Juju 1k, couche G.
J'ai un 1er jeu de 64 résultats intermédiaires de PSF et image en traitement.

Voici une 1ère comparaison, croppée pour publication.
.

Pour info, je montre l'évolution du graph d'erreur :
.

.
En ce moment, je refais un run avec la PSF dotée d'une large "jupe" par le Dr. simulant l'intégration de la turbu pendant le film.
Résultat après-demain matin...

Partager ce message


Lien à poster
Partager sur d’autres sites
quote:
En ce moment, je refais un run avec la PSF dotée d'une large "jupe" par le Dr. simulant l'intégration de la turbu pendant le film.

C'est fou cette volonté de moyenner la turbulence alors qu'il est plus logique d'appliquer une PSF réaliste à chaque image brute (en ayant vérifié avant la condition d'isoplanétisme).
D'un autre coté cela permettra de comparer les différentes approches.

Autre remarque : le mieux est l'ennemi du bien. Les systèmes itératifs c'est bien mais c'est très très long. Sur une image brute, un système mono passe permet de reconstruire 90% de l'image en un temps très court alors qu'un système itératif permet de reconstruire 99% en un temps très long. D'un coté c'est des jours de calcul (tu es en train d'en faire l'expérience) et de l'autre c'est quasiment du temps réel.

A mon avis, il faut partir d'images brutes, puis calculer une PSF réaliste pour chaque image brute, puis appliquer une déconvolution aveugle à chaque image brute, puis compositer l'ensemble et éventuellement faire un renforcement à la fin.

Si vous avez des AVI ou autre avec des images brutes (la couche L), je suis preneur.

Partager ce message


Lien à poster
Partager sur d’autres sites
Ms, à part le "c'est fou", je suis d'accord à 100 % avec toi.
Demain je montrerai un comparatif d'extraits d'une G 1k x 1k du T1m du Pic et peut-être un mouseover avec les full :

- Départ depuis un .avi traité en tout par défaut avec RGX6 (sans dérotation, sans morphing)

- Déconvolution "one shot" (quasi instantanée) avec Fitswork, PSF ajustée à la main pour un résultat arbitraire mais qui me plaît.
- Déconvolution en 6 itérations avec ImageAnalyzer, modèle "circular blur", PSF "guessed" (moins d'une minute pour l'ensemble du process)
- DeconBMI avec une PSF taillée et retouchée à la main pour une belle 2DFFT en 64 itérations (en quelques minutes, mais il faut que je refasse la finale) avec les paramètres du tuto BiaQIm (41 h)
- DeconBMI avec la même PSF mais dotée d'une large jupe par le Dr Tadrous, (mais qui pourrait être un peu trop haute, à ajuster, dixit le dr. )

Comme cela a été dit plusieurs fois, les essais sur le T1m ne sont pas transposables directement sur des scopes plus petits.
Je souhaiterais les refaire sur un melon de 250, + dérot + morphing.

Je vais voir sur le DVD de PhilTo s'il y a ce que tu cherches.

Partager ce message


Lien à poster
Partager sur d’autres sites
Ce qui est transposable c'est le rapport "D/r0" (un r0 de 80mm en plaine ou de 280mm dans un site exceptionnel comme le Pic du Midi) :
1000 / 280 = 280 / 80 = 3,5

Dans le meilleur des cas, un rapport de 2 est même possible.

Ce qui est intéressant c'est que chacun aille dans une direction différente et que l'on puisse comparer les résultats dans quelques mois.

Un diamètre de 250mm à 300mm et un r0 autour de 70mm me semble être le minimum syndical en plaine.

Partager ce message


Lien à poster
Partager sur d’autres sites
Sur le DVD de PhilTo, il n'y a "que" des R G B IR, avec deux caméras de tailles de photosites différentes et une PSF monochrome (trefoil)
Il faudrait vérifier avec Phil quand il a réajusté son secondaire.
Un jeu RGB + PSF avec scope déréglé sont en ligne, il a servi à Bernard.

Concernant les L que tu cherches, il faudrait qu'elles aient été faites avec un ADC.

Le test avec la PSF du dr. est à 2/3 de parcours.
L'étude de l'évolution des PSF, image et graph d'erreur est intéressante.
Le graph d'erreur est plus régulier que le précédent, pour l'instant sans remontées.
Les premières images avaient une meilleure netteté mais étaient surcorrigées, avec un vilain rebond, enfin pas vraiment plus vilain que ce que l'on voit couramment par ici.
A 18:00 HL, au km 38/64, le rebond a disparu et l'image reste pêchue. Le graph avait commencé à plonger sec à 35, un peu comme le précédent, il me faudra regarder si c'est dû à un changement de paramétrage en route.
De toute façon je me fais la main, car c'est la pratique et l'expérience qui comptent.

Mon objectif final reste quand même de voir si des astrams soigneux pourraient arriver avec un scope relativement modeste, 200 à 250 mm, et la turbu de M. Toulemonde 90% du temps, à sortir autre chose que des bouses par nécessité...

les dernières nouvelles à 23:27 HL :

1. Au km 40, brutale remontée du graph d'erreur.
Le Dr. m'a dit qu'il était à échelle variable entre min et max. Pour estimer les choses, j'ai regardé le log, pénible, tout est en flottant, je me demande s'il n'y a pas une histoire de changement d'échelle d'affichage quand le graph rampe vers le zéro, à voir dans la doc ou avec le doc, car l'image reste jolie, meilleure que la finale avec la psf sans jupe et la psf est de plus en plus ponctuelle . 6 itérations avec l'erreur à peu près stabilisée, suspense pour l'arrivée prévue vers 9 h demain matin.

2. L'ami J-Y tente de nous passer une superbe L de Saturne avec ADC au melon de 250.
Croisons les doigts pour l'upl de 1 Go en http chez frite !
5 h sans coupure, ce serait un record


[Ce message a été modifié par Nebulium (Édité le 18-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Des brutes L de chez brutes sans ADC ou autres dispositifs.
Des brutes IR ce seraient pas mal aussi.

L'objet de la reconstruction d'une image brute L ou IR avec sa PSF c'est justement de corriger les effets atmosphériques et surtout de ne pas en rajouter d'autres.

C'est une manip 3 paramètres seulement :
- l'intensité de la turbulence (D/r0),
- la PSF,
- l'image brute.

Pour ceux qui s'intéressent à des objets étendus (page 58) ou à des images longue pose (page 75) :
http://le2i.cnrs.fr/IMG/publications/lemaitre_these.pdf

Très pédagogique cette thèse (en laissant de coté certaines formules) avec ses applications pratiques réalisées avec MATLAB.

[Ce message a été modifié par ms (Édité le 19-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci pour le lien vers la thèse, ms.
Mais s'il y a de nombreuses décennies, j'y aurais compris quelque chose, maintenant, à part les images et quelques courbes...

J'ai terminé mon dernier run en deconBMI.
.

De gauche à droite, PSF juppée, avi stacké RGX 6 de départ , PSF non juppée
Je n'ai pas (encore) refait la déconvolution classique avec la PSF non juppée, ni regardé ce que donnaient des ondelettes ou équivalent ensuite.
J'attends quelques infos du doc avant de commenter et montrer plus.
Je peux te passer les RGB.avi si tu veux jouer.

[Ce message a été modifié par Nebulium (Édité le 19-01-2012).]

Partager ce message


Lien à poster
Partager sur d’autres sites
La première est pas mal et ce qui est très bien c'est que tu ne cherches pas à tout prix le renforcement. A mon avis, il faut chercher les faibles contrastes comme sur cette image puis passer au renforcement tout à la fin.

Est-ce que tu aurais les brutes de cette image ?
Combien d'images sont composités ?

Registax 6 est à la traîne mais ça, je le savais déjà.

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant