ms

Retinex : balance des blancs automatique

Messages recommandés

Du coup le sujet c'est balance des blancs ou autre chose ?

... ça peut se changer dans le forum

Partager ce message


Lien à poster
Partager sur d’autres sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com
Citation

Du coup le sujet c'est balance des blancs ou autre chose ?

Revenons à la balance automatique des blancs.
Il semble que le dernier algorithme utilisé donne un résultat plus fidèle.

 

Citation

Plus sérieusement, avec un gain fort c'est sûr que tu peux passer 400 ou 500 fps, mais pas à plus de f/10, ou alors tu as une image soit ultra granuleuse soit ultra sous-exposée. . 

Je ne sais pas trop à quel jeu joue notre monsieur je sais tout de l'astro mais il semble que cet astram allemand ait bien obtenu un résultat à 500fps et à f/12, voir ci-après son image ultra granuleuse et/ou ultra sous-exposée : :)

 

image.png.6920ff22a272b25f13ba56a09f33277e.png

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, ms a dit :

Je ne sais pas trop à quel jeu joue notre monsieur je sais tout de l'astro mais il semble que cet astram allemand ait bien obtenu un résultat à 500fps et à f/12, voir ci-après son image ultra granuleuse et/ou ultra sous-exposée

Je parle de sous ex à l’acquisition, au traitement tu gères les seuils comme tu veux, tu ne démontres donc pas qu'il était bien réglé au départ, et si tu observais Jupiter de temps en temps tu saurais que ces réglages ne conviennent pas. 

Son image est gentille mais j'en vois autant si ce n'est plus avec un 210, donc c'est bien sous échantilloné même si il a tiré sur le fichier pour l'agrandir fortement au traitement. 
 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 16 heures, jldauvergne a dit :

Déjà à 100 fps, lorsque c'est peu stable, ce qui limite c'est plus souvent la taille de l'angle d'isoplanétisme que le temps de cohérence des images. Et plus l'angle d'isoplanétisme est petit et moins on a intérêt à avoir de bruit pour récupérer ça au traitement, tout est question de compromis, et 400 fps on est loin de faire dans le compromis.  

 

Bonjour à toute et tous,

 

En termes simples, qu'est ce que  :

 

- "la taille de l'angle d'isoplanétisme" 

- "temps de cohérence des images"

 

je vous remercie 

bonne journée

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, bulot a dit :

- "la taille de l'angle d'isoplanétisme" 

- "temps de cohérence des images"

Ça c'est une question pour @brizhell, je ne voudrais pas faire une définition trop imprécise. 
;)

Partager ce message


Lien à poster
Partager sur d’autres sites

Une dernière vidéo de polo traitée avec EVA (11400 images traitées en 57s) avant de poster mes propres vidéos la semaine prochaine : ;)

 

sat_11400.gif.9f6bc695995da1419661b9661a5afef6.gif

 

A partir de 6000 images brutes, la qualité augmente très peu.

 

Le dé-bruitage est facultatif (ici algo BM3D) :

 

sat_11400_den.png.7035834a65b8ab349b7b94238d43dad0.png

 

Avec EVA, je peux contrôler le nombre de "lucky" patchs à l'acquisition ce qui permet d'optimiser les paramètres d'acquisition.

La qualité d'une image ce n'est pas le traitement mais l'acquisition. C'est toute la différence entre l'approche temps réel d'EVA et les approches traditionnelles (R6, AS3, ...) qui ne permettent de savoir si tout c'est bien passé qu'à posteriori. ;)

 

Et cela ce n'est que l'aspect "lucky imaging" d'EVA que l'on retrouve dans d'autres logiciels (R6, AS3, ...) mais quand la vitesse augmente les choses se corsent car le bruit limite la détection de bons patchs alors l'estimation du bruit par détection de zones homogènes (voir par exemple les travaux de Camille Sutour) intervient. ;)

 

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 50 minutes, ms a dit :

qui ne permettent de savoir si tout c'est bien passé qu'à posteriori.

Pas vraiment, l'aspect des brutes donne quand même une bonne idée de même que ce que tu vois à l'oculaire avant de mettre la caméra. Ce qui compte c'est la qualité de l'image finale, et pour le moment on est loin de remplacer les logiciel de traitement à posteriori. 
 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 14 heures, ms a dit :

C'est expliqué par exemple dans le lien suivant :

 

http://physique.unice.fr/sem6/2013-2014/PagesWeb/PT/Turbulence/theorie/theorie_param.html

 

L'angle d'isoplanétisme c'est l'angle où la turbulence ne varie pas.

Le temps de cohérence c'est la durée durant laquelle le front d'onde turbulent ne varie pas.

Euh c'est un peu variable tout ça, r0 n'est pas constant (cf le lien), la moyenne c'est 70mm et le temps plutôt à 3.5ms (lambda=550nm)

Je sais, pas mal de monde est passé sur les principes statistiques de base proposé par Kolmogorov mais ça n'a pas tant changé que ça.

Vérifier les vents d'altitude ça aide à évaluer r0 et ce qui en découle. (et j'avais lu plutôt des angles supérieurs à 2" d'arc)

 

Bref ça change rien à la méthode proposée qui s'adapte à l'image.

Ça aide plutôt à paramétrer les prises de vue.

Si tu ne peux pas moduler le gain pour atteindre le temps idéal bof bof, ça ne permettra pas les meilleures images. C'est pas simple de descendre aussi bas que 4ms... et plus tu en es loin, moins tu as de chance de tomber sur un speckle/chatoiement stable sur le temps de pose donné. A traiter, je suppose que ça complique beaucoup pour en extraire quelque chose.

Dans l'autre sens si tu pousses le gain, c'est l'électronique qui va apporter de la perturbation.

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Ce qui compte c'est la qualité de l'image finale, et pour le moment on est loin de remplacer les logiciel de traitement à posteriori.

En utilisant dans EVA uniquement l'étape "lucky region" comme dans les logiciels classiques actuels, j'obtiens cela :

 

sat_11400_4.png.e0a5c01cb8c6473e04fd83cf68970ccc.png

 

Ce n'est pas encore ce qu'obtient Avani Soares au Bresil avec des conditions d'acquisition meilleures :

 

sat_avani.png.3a6df569eeb76eb37d39417af05afcb9.png

 

Mais comme dit lyl plus haut en modulant en temps réel les paramètres d'acquisition (toutes les 600 images brutes par exemple) alors on peut obtenir à partir de  20 x 600 = 12000 images, une amélioration des approches à posteriori ou de l'étape "lucky region" d'EVA.

 

Citation

Euh c'est un peu variable tout ça, r0 n'est pas constant

r0 varie tout le temps ,mais je suis obligé d'avoir une base de 100 à 600 images brutes pour capturer suffisamment de zones homogènes pour estimer le bruit, c'est ce qui permet d'atteindre des vitesses supérieures à 100fps.

 

Citation

Je sais, pas mal de monde est passé sur les principes statistiques de base proposé par Kolmogorov mais ça n'a pas tant changé que ça.

Cela reste toujours un problème de statistique, si j'utilise une méthode me permettant d'estimer le bruit avec une fiabilité suffisante (90% par exemple) alors je peux me rapprocher de meilleures conditions d'acquisition. Ce ne sont pas les traitements qui amélioreront la qualité des images mais l'acquisition. EVA n'est pas un logiciel de traitement c'est un logiciel d'acquisition d'images en temps réel.

Modifié par ms
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Moi, je dis chapeau pour le travail fait ms... Je laisse aux autres le soin de juger de la rigueur

Et merci à Lyl pour le lien intéressant. Il y a des étudiants qui se sont bien passionnés par leur sujet...

 

Les étudiants notent qu'ils font des acquisition à 4ms mais sans dire que c'est le temps adéquat...

ma petite observation sur une étoile : à 1ms j'avais des portions de cercles de diffraction, au delà de 3 j'avais des "grumeaux"... D'où ma recherche constante du temps de pose le plus court possible...

 

En photo classique et depuis l'arrivée du numérique je prend comme temps de pose 1/2 à 3 fois la focale (en argentique on était plutôt à 1/focale mais le numérique a d'autres exigences)

En astro, cela donnerait 1/6000 = 0.16 ms 9_9

Partager ce message


Lien à poster
Partager sur d’autres sites

Le lien c'est pas moi, c'est ms mais effectivement, je vais en mettre un pour ceux qui veulent se prendre un peu la tête.

 

https://www.telescope-optics.net/induced.htm

 

Attention ça a évolué depuis, on découpe plutôt en 3 zones : le ras du sol , le km et au-delà.

http://hmf.enseeiht.fr/travaux/CD0001/travaux/optemf/bei_eol/pa_22.htm

http://eric.rouland.free.fr/CLA.pdf

 

{fin de la digression}

Modifié par lyl
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour les courageux : http://brizhell.org/physique_de_la_turbulence.htm

J'avais fait un masque particulier pour mesurer soi même le temps de cohérence basé sur les interférences :

http://brizhell.org/physique_de_la_turbulence.htm#Vitesse de variation du Tip/tilt

http://brizhell.org/physique_de_la_turbulence.htm#BLISMM

 

Et des mesures sur site :

http://brizhell.org/mesures_de_sites.htm

On y voit que 70mm et 4ms sont quand même des quantités optimistes pour certains sites.

Modifié par brizhell
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
On 14/09/2018 at 4:02 PM, jldauvergne said:
On 14/09/2018 at 3:58 PM, ms said:

Il y a 2 possibilités :
1) obtenir plus d'images brutes par des poses courtes (gain plus élevé) ce qui améliore le rapport signal sur bruit (racine carrée du nombre de trames)

2) obtenir un meilleur rapport signal sur bruit de base par des poses plus longues (gain moins élevé)

Non, à temps d'intégration égaux ces deux possibilités ne se valent pas. Fractionner plus n'augmente pas le rapport signal sur bruit. 

 

En fait la première affirmation n'est vraie que pour une condition particulière, à savoir que le gain de la chaîne d'acquisition n'amplifie pas en même temps le bruit de lecture.

Ce n'est vrai que dans le cas des EMCCD (on augmente le nombre d'électrons à convertir avant d'arriver sur le convertisseur), et là on est dans un régime ou le bruit des poses unitaires est le bruit de fond de ciel.

Pour une chaîne d'acquisition ou le gain de l'ampli agit en même temps sur le bruit et sur le signale, ça ne marche pas.

J'en avais fait la démonstration aux RCE 2010 ici (transparent 7 et 8) : http://brizhell.org/presentation3.pdf

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Tout ce que vous dites est parfaitement exact mais ce n'est qu'une partie du sujet. :)

 

Dans une image, il y a du signal et il y a du bruit.

Dans une image, on peut envisager de traiter des zones uniformes de signal (lucky regions) mais aussi (quand la turbu devient forte) des zones uniformes de bruit (estimation d'un bruit hybride).

Si je décide d'obtenir plus d'images brutes par unité de temps alors l'acquisition sera guidée par les zones uniformes de bruit présentent dans chaque image.

Si je décide d'obtenir moins d'images brutes mais de meilleure qualité alors l'acquisition sera guidée par les zones uniformes de signal présentent dans chaque image.

Quand la turbulence devient forte, j'ai le choix :
1) soit d'estimer des zones uniformes de bruit pour extraire des lucky region baignant dans le bruit (c'est ce que fait EVA),

2) soit d'attendre de meilleures conditions comme les astrams le font aujourd'hui (cela AS3 le fait aussi bien qu'EVA).

 

Pour revenir à la balance automatique des blancs. Cette opération devrait se faire sur les brutes lors du dé-matriçage et non en bout de chaîne.

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
15 hours ago, ms said:

des zones uniformes de bruit (estimation d'un bruit hybride).

Si je décide d'obtenir plus d'images brutes par unité de temps alors l'acquisition sera guidée par les zones uniformes de bruit présentent dans chaque image.

 

Heu, sans vouloir ouvrir une polémique, j'espère que tu a conscience que ce que tu écrit là ne veut absolument rien dire....

Tu peut préciser ta notion de bruit hybride stp ?

Merci d'avance.

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Écoutes, fais un mail à Camille Sutour, Charles-Alban Deledalle et Jean-François Aujol pour leur dire que leur publication "Estimation du niveau de bruit par la détection non paramétrique de zones homogènes" ne veut absolument rien dire : ;)

 

https://hal.archives-ouvertes.fr/hal-01241209/document

 

5ba205c85737f_Capturedu2018-09-1910-15-29.png.8e02990c91d8be945b83c2b182014f04.png

 

Dans le cas qui nous intéresse, une image bruitée ressemble à ceci :

5817.png.c48b1e54e59a743175cf1bde3c71a197.png

 

Plutôt que d'affirmer des âneries, le plus simple c'est de faire un essai avec cette image bruitée puis avec n autres images bruitées.

 

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Le lien de publication que tu donnes ne définit pas de notion de bruit hybride. 

 

L'exemple que tu donnes avec Lenna, tirée du Playboy de novembre 1972 que j'ai dans ma bibliothèque (oui j'ai des lettres), n'est pas très impressionnant, le processus de dé-bruitage que tu montres élimine énormément de détails que l'oeil perçoit : coutures du chapeau par exemple. Pire à l'arrière plan, la poutre blanche se retrouve avec un contour en forme de vague au lieu d'être droit, ce que l'oeil perçoit très bien aussi. On note une foule d'autres artefacts qui me font vraiment tiquer dans la mesure où ce que l'on veut à la fin c'est produire une image fidèle de la réalité. 

 

En passant je note que l'on arrive à mieux dans un outil très grand public : photoshop

5ba21aab9b783_Sanstitre-1.jpg.df3e50ac3a43374c79a5ab063892fb00.jpg

 

Et je crois qu'il y a dans les tuyaux des algo de débruitement vraiment plus impressionnants que ce que tu évoques et ce qui est pour le moment disponible (même photoshop ce n'est pas ce qui se fait de mieux). 

Bref, cette source bibliographique ne me semble pas super solide, on dirait qu'il s'agit surtout d'une bonne bande de fripons et de friponnes :) 

Plus sérieusement, c'est un travail de thèse pour améliorer la vision de nuit des pilotes d'hélico militaires. Certains thésards révolutionnent un domaine, mais c'est rare quand même. Là je ne suis pas très impressionné. 

image.png.2bc9bab60725c663666ebc60b39dc8ae.png

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Le lien de publication que tu donnes ne définit pas de notion de bruit hybride. 

C'est dans sa thèse qu'il est défini (à la page 160) :

https://tel.archives-ouvertes.fr/tel-01225612/file/SUTOUR_CAMILLE_2015.pdf

 

Dans EVA, je m'inspire de la détection, pour le dé-bruitage j'utilise un algorithme plus performant que NLF-means. L'exemple donné c'est pour comprendre le principe.

Si tu veux aller plus loin, tu peux me dé-bruiter l'image brute de Saturne avec PhotoShop ... pour me faire rire un peu. :)

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 43 minutes, ms a dit :

Si tu veux aller plus loin, tu peux me dé-bruiter l'image brute de Saturne avec PhotoShop ... pour me faire rire un peu.

Je serai bien content de te faire rire, mais ce que l'on fait en imagerie planétaire c'est de réduire le bruit par des méthodes scientifiques, par addition des images. 
Pas avec des algorithmes cache misère. Plusieurs personnes t'ont déjà signalé que dans les exemples que tu donnes les images sont dénaturées et pleines d’artefacts. 

 

Je ne dis pas que la réduction du bruit sur les images brutes soit forcément une mauvaise approche, mais il faut des outils plus solides qui ne détruisent pas l'information présente dans l'image brute. Hors c'est très clairement le cas dans l'image que tu donnes en exemple. 
Mais produire une image plus lisible pour de la vision de nuit ne présente pas les mêmes contraintes et les même objectifs que de produire l'image fidèle d'une planète.  

Typiquement en astro, ce qu'il faut faire c'est tenir compte de l'info présente dans la vidéo pour mieux analyser le bruit. En sommant 200 images on peut mieux discerner ce qui est bruit de ce qui est information. C'est un peu ce que fait autostakkert avec l'approche Double Stack. Cette approche est par essence incompatible avec du temps réel, sauf si tu laisses au système le temps de se calibrer. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

En sommant 200 images on peut mieux discerner ce qui est bruit de ce qui est information.

C'est là que je vois que tu n'as pas bien compris mais ce n'est pas grave. :)

Prends 200 images brutes et 200 images dont le bruit a été estimé par la méthode décrit précédemment.

Compte tenu des conditions de turbulence (faible, moyenne, forte), plus la turbulence sera marquée et plus la différence sera visible.

Dans les exemples de polo (Jupiter et Saturne), c'est peu visible parce que les brutes correspondent à une turbulence comprise entre moyenne et faible.

Par contre quand les images brutes commencent sérieusement à se dégrader (comme lundi soir) alors il n'y a pas d'autre alternative.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, jldauvergne a dit :

Lenna, tirée du Playboy de novembre 1972

 

Mais c'est terrible tout ça, Lenna a aujourd'hui en gros 66 ans !

Photoshop sera-t-il suffisant pour sauver les formes ? 9_9

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
3 hours ago, ms said:

Écoutes, fais un mail à Camille Sutour, Charles-Alban Deledalle et Jean-François Aujol pour leur dire que leur publication "Estimation du niveau de bruit par la détection non paramétrique de zones homogènes" ne veut absolument rien dire : ;)

 

Salut ms :),

marrant que tu cite cette équipe, j'ai pas besoin de leur écrire un mail pour leur dire qu'ils ont tord (ce qui n'est pas le cas d'ailleurs, mais je précise plus bas), depuis que j'ai quitté l'ENS et que je suis descendu dans le sud, leur labo est juste en face du mien à l'Université de Bordeaux (mon labo s'appelle le LOMA).... :D

 

Bref je me demande encore si tu comprend vraiment ce que tu lit (surtout en ce qui concerne ta dernière intervention)....

je cite :

13 minutes ago, ms said:

c'est peu visible parce que les brutes correspondent à une turbulence comprise entre moyenne et faible.

Par contre quand les images brutes commencent sérieusement à se dégrader (comme lundi soir) alors il n'y a pas d'autre alternative.

 

L'idée ici reste d'avoir une estimation de la forme du bruit sur un minimum d'image, et ce sans à priori sur la distribution du bruit aléatoire de chaque pixels ou groupe de pixels.

La turbulence génère pour l'image une dégradation spatiale étalant les détails donc faisant disparaître les structures apparentes de l'image. Nous sommes donc dans les conditions que stipule le papier que tu cite et la thèse à savoir que l'on décorrèle spatialement le signal du bruit dans une région uniforme). Jusqu'ici, pas de soucis, pour se représenter la chose, il suffit d'imaginer un fond uniforme sur lequel on a ajouté un bruit par pixels, dont la distribution est Gaussienne, Poissonienne, ou hybride (c'est à dire une combinaison linéaire de différentes distribution de bruit possible, c'est la définition que je te demandait et que tu ne m'a pas donnée).

Tu obtient donc une estimation du bruit par zone (coefficient de Kendall) sous condition que les détails de l'images aient disparu. Cette estimation est conditionnée par un critère de convergence (minimisation de l'erreur sur les coefficients du polynome de l'estimateur ) menant à évaluer les moments d'ordre 1 et 2 de la variable aléatoire caractérisant le bruit sur chaque zone avec ce polynôme d'ordre 2. L'estimation obtenue est alors retirée de chaque pixels considérés.

C'est séduisant, comme méthode, nouveau sur l'indépendance de la méthode aux présupposés sur la nature du bruit, mais il y a deux écueils.

La première est, je cite le papier :

"En supposant seulement que le bruit est décorrélé spatialement" ou plus loin : "Nous proposons en première contribution une méthode de détection non paramétrique des zones homogènes qui requiert seulement que le bruit soit non corrélé spatialement".

Si cela marche sur l'image de la jolie Léna, c'est parce que le bruit ajouté de manière synthétique a été choisi de manière à justement ne pas être spatialement corrélé (autrement dit chaque pixels est traité indépendamment de manière aléatoire sans s'intéresser au bruit de son voisin).

Or sur une image réelle, en planétaire notamment, le bruit est spatialement corrélé pour deux raisons : sur une source ponctuelle, l'étalement des intensités se fait sur plusieurs pixels adjacents (speckles) or le bruit de la source ponctuelle si il est gaussienne, est en racine de l'intensité. Comme l'intensité est étalée sur plusieurs pixels, il y a fort a parier (en fait cela se calcule) que le facteur de corrélation n'est pas nul :) Et sachant que l'image d'une planète est la convolution de la fonction d'appareil (tache d'airy) par l'objet, ben la corrélation à plusieurs pixels adjacent n'a aucune raison d'être nulle aussi....

Deuxième écueil, c'est la prétention que tu prête à cette méthode de converger plus rapidement avec des poses plus courtes, que ne le ferait l'augmentation les temps d'exposition (poses plus longues). J'ai parcouru la thèse de Camille Sutour en long et large et en travers (bon rapidement, car je suis au boulot), je n'ai trouvé nulle part une quelconque affirmation que le critère de convergence statistique qui en découle était plus rapide que la moyenne temporelle dudit signal (ce que tu sous entends en disant que ces méthodes permettent en courte pose de réduire le bruit aussi bien qu'une pose plus longue). Bien au contraire, au chapitre 3.3, tu à une estimation de la valeur de l'erreur obtenues avec cette méthode en fonction des natures de bruits, et pour lequel l'augmentation du nombre d'échantillon (ou si tu préfère du nombre d'images qui est nécessaire pour augmenter le S/B) n'amène pas d'amélioration sur le bruit inférieure à 7% du signal d'origine. Et pour cause, si c’était le cas, cela violerai un principe simple que l'on appelle l'hypothèse d'ergodicité (je te laisse cherche sur le net). Ce principe veut que pour une variable aléatoire, la moyenne statistique est égale à la moyenne temporelle. En clair, même avec un grand nombre de poses très courtes, tu n'obtiendra pas mieux en rapport S/B qu'une pose unique dont la pose sera égale à la somme de toutes les poses courtes.

Cet algo a l'air pas mal pour diminuer le bruit et rendre les images intelligibles, mais pas pour en restaurer la finesse autrement qu'avec des patchs locaux façon AS3

 

3 hours ago, ms said:

Dans EVA, je m'inspire de la détection, pour le dé-bruitage j'utilise un algorithme plus performant que NLF-means. L'exemple donné c'est pour comprendre le principe.

Si tu veux aller plus loin, tu peux me dé-bruiter l'image brute de Saturne avec PhotoShop ... pour me faire rire un peu. :)

 

plus performant ?? comment ? quelle méthode ?? quel code ??

Ben là, je constate un truc, c'est que lorsque JLD t'annonce un débruitage en photoshop sur Léna, il joint le geste à la parole (l'image est dans son post).

Lorsque tu annonce faire ça avec EVA, on attend toujours de voir un résultat qui ne soit pas bidonné..... suis pas sur que ce ne soit pas a nous de rire en définitif.. :)

 

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, ms a dit :

Par contre quand les images brutes commencent sérieusement à se dégrader (comme lundi soir) alors il n'y a pas d'autre alternative.

Tu persistes à tenter de faire croire que tu peux sortir de bonnes images par mauvais seeing, ... je préfère ne pas commenter, je ne trouve pas de formulation respectueuse de la bienséance. 

Mais tu as raison, je ne comprends rien à ce que tu dis, d'autant plus que tu n'as fait aucune démonstration de cette affirmation que tu distilles sur ce forum depuis des années. Au contraire tu te retrouves à truquer tes traitements lorsque l'on te propose un traitement comparatif avec une autre méthode. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Ben là, je constate un truc, c'est que lorsque JLD t'annonce un débruitage en photoshop sur Léna, il joint le geste à la parole (l'image est dans son post).

Ok, fabriquons l'image de Lena correspondant au paramètres a, b et c donnés plus haut à partir de l'image de référence suivante (fichier PNG 512x512) :

lena.png.78caaf1aa556dd2e00e55eec6ba968fe.png

 

En suite, dé-bruitons cette image avant de passer à une image planétaire et aux éventuels écueils.

 

Citation

Tu persistes à tenter de faire croire que tu peux sortir de bonnes images par mauvais seeing, ...

Par mauvais seeing, tu obtiens plus de zones où les détails ont disparus, la méthode utilisée permet d'estimer le bruit dans ces zones (patchs de couleur rouge).
Cela permet déjà de dégrossir le problème en rendant l'image brute "plus lisible".
En suite, il va falloir extraire l'image à partir d'un nombre plus important d'images brutes corrigées (18000 images à 200fps par exemple).

Dans la vidéo de polo, tu vois bien que 3000 images suffisent pour obtenir un résultat quand les conditions ne sont pas trop mauvaises, ici il en faudra 6 fois plus parce que les quelques lucky regions disponibles sont noyées dans le bruit.

 

Citation

suis pas sur que ce ne soit pas a nous de rire en définitif..

Rira bien qui rira le dernier. :)

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant