Sign in to follow this  
Nebulium

Jupiter au T 1m du Pic. 2010. Le retour.

Recommended Posts

La dernière ci-dessus est surtraitée à mon goût.
La précédente me plaît mieux.
Le contour des deux demanderait un passage chez WJP
La jR_15__ (un extrait ci-dessous à gauche) est pour moi la meilleure du moment, voir si on peut lui retirer un peu de bruit.
J'ai commencé à regarder ce que je peux tirer des j*_15_, ci-dessous à droite un extrait de la jR_15_2
.

On est dans la subtilité, je vais essayer d'autres outils d'accentuation.

[Ce message a été modifié par Nebulium (Édité le 09-09-2015).]

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com

Puis j'ai celle-ci obtenue avec un algo extrêmement rapide :


Share this post


Link to post
Share on other sites
Voir la petite structure nuageuse en forme de cœur dans la GTR (en RGB ça devrait rendre encore mieux) :

Je pense qu'en combinant l'estimation d'un flot optique global-local à l'estimation du flou dans une même pyramide (algorithme de la famille MB-CLG), on doit parvenir après suppression du bruit à une image un poil meilleure.

[Ce message a été modifié par ms (Édité le 10-09-2015).]

[Ce message a été modifié par ms (Édité le 10-09-2015).]

Share this post


Link to post
Share on other sites
Bon, on commence à s'acheminer vers une évaluation sérieuse de tes avancées.
En effet la zone de l’œuf au plat se prête bien à l'investigation des fins détails comme le cœur dans la GTR et la virgule dans l'ovale au dessus.
Pour garder les pieds sur terre :
En oct 2010, Juju faisait 45" et l'image du Pic mesure 880 pixels.
Dans l'hypothèse de circonstances parfaites (optique et turbulence) si on table sur un pouvoir séparateur de 120/1000 = 0,12",
si on dit que le PS doit s'étaler sur 3 pixels pour être décelable quand on regarde l'image à la distance qui va bien, ça fait 0,04 " par pixel
et donc 1125 pixels pour le globe.
Comme cela a été dit dans le temps, l'image du T1m est sous-échantillonnée dès la prise de vue (comme le HST).
Donc l'objectif d'une netteté
comme celle d'une bonne photo classique est réaliste pour 880 pixels.
Agrandir l'image présentée à 1125 implique d'augmenter la distance d'observation, à moins que les traitements aient permis de contourner le
sous-échantillonnage (drizzle & cie). Plus fort encore si l'on sait aussi faire mieux que le PS, mais sans crier victoire pour la visibilité
photographique de détails genre fils électriques dans le lointain ou tout simplement étoiles, Lucien avait dans le temps déjà traité du sujet.

Tout ce discours pour conclure qu'à mon avis, il est bien de rester dans une taille de globe de 880 pixels pour comparer les résultats.
Reste à débattre si l'on garde l'orientation originale ou si l'on met l'équateur à l'horizontale (la "jupmorphed3" de JLD a aussi été réduite à 89%).
Au niveau de pinaillage où l'on se situe, ce n'est pas forcément anodin, mais je pense que ça reste du second ordre.

Alors maintenant, on attend des RGB aux sauces ms pour les confronter visuellement aux autres images de ce fil.
Après, on pourra passer
aux mesures objectives selon les diverses méthodes évoquées ça et là.

[Ce message a été modifié par Nebulium (Édité le 10-09-2015).]

Share this post


Link to post
Share on other sites
Quand tu photographies la surface d'une planète comme Jupiter, le problème qui se pose (le quoi) est le suivant :

Ce problème peut être résolu (le comment) par une estimation précise du flot optique image après image (et sûrement pas par lucky imaging comme vous faites) :

Si j'extrais la couche R de l'image que vous aviez obtenu par morphing (jupmorphed3.jpg), je n'obtiens pas les détails souhaités pour la simple raison qu'ils ont été détruits par votre mode de fabrication de l'image haute résolution.

L'algo que j'explore actuellement permet de se rapprocher de ce type d'image :
http://photojournal.jpl.nasa.gov/jpegMod/PIA09253_modest.jpg

Share this post


Link to post
Share on other sites
quote:
L'algo que j'explore actuellement permet de se rapprocher de ce type d'image

Yesse, indeed , j'avais écrit p 7 :

"pour voir ce que l'on pouvait tirer de ces prises et l'on pensait être au taquet, pas encore arrivés au rendu des sondes et du HST"

Share this post


Link to post
Share on other sites
L'estimation du flot optique d'une image pourrie est tout à fait possible alors que le traitement d'une image pourrie par une méthode directe est quasiment impossible. Dans le cas d'une image pourrie, le nombre de trames est représentatif des conditions de turbulence. L'image de Marc est un bon exemple pour montrer que la qualité finale n'est fonction que du nombre de trames. Les approches de type "coarse-to-fine" sont intéressantes parce quelles permettent de traiter avec une seule pyramide : l'estimation du flot optique, l'estimation du flou et l'estimation du bruit. A partir de là, il devient plus facile de retrouver l'image d'origine.

La révolution ne viendra pas des capteurs qui seront de plus en plus rapides et sensibles mais de toutes ces méthodes indirectes qui permettent de retrouver l'information d'origine. Les capteurs permettront juste d'utiliser moins de trames ce qui est déjà pas mal.

Share this post


Link to post
Share on other sites
Salut

La on tombe dans le délire le plus total du point de vue mathématique.....

quote:
Ce problème peut être résolu (le comment) par une estimation précise du flot optique image après image (et sûrement pas par lucky imaging comme vous faites)

ou encore, la suite (qui montre que .... Ben rien, que c'est juste du n'importe quoi...) :

quote:
Si j'extrais la couche R de l'image que vous aviez obtenu par morphing (jupmorphed3.jpg), je n'obtiens pas les détails souhaités pour la simple raison qu'ils ont été détruits par votre mode de fabrication de l'image haute résolution.

Je suis désolé ms, mais visiblement ici, a mon sens (peut être ai-je tord), tes affirmations sont proprement irrecevables. Et je n'ai pas besoin d'aller très loin pour l'affirmer. Un coup de google suffit pour faire sortir ceci sur la définition du flot optique (c'est le premier lien qui sort) :
http://www.cmap.polytechnique.fr/~bernard/these/chap3-fr.pdf

paragraphe 3.1 on peut lire :

Le modèle mathématique standard utilisé pour trouver des
équations qui définissent le flot optique est basé sur un hypothèse d'illumination constante.

Ca veut dire quoi ? En clair, que l'image originale que l'on souhaite restaurer ne bouge pas. Autrement dit que l'éclairement résultant de chaque point au foyer du télescope, en l'absence de turbulence, est identique quelque soit t (en référence à ton schéma sur l'évolution temporelle de l'image dans le cadre de la définition d'un flot optique).

L'équation de contrainte du flot optique (notée OF dans le document précité) peut être modifiée en OFL mais ne change pas la structure de l'équation différentielle qui régit une solution de la forme de celle qui est solution de l'équation OFL.

En clair, à éclairement constant, le flot optique se caractérise principalement par son champs de vitesse (déplacement de l'éclairement en X et en Y). Chose que l'on voit en effet dans ton post de ce jour à 18h33.

Par contre ce que tu affirme sur ta deuxième assertion ("et sûrement pas par lucky imaging comme vous faites") est tout bonnement une connerie. en étudiant l'évolution temporelle de la structure de l'image, au sens du morphing, on retombe sur les équations du champs de vitesse (que tu appelle "motion v"). Le démorphing utilisé (comme l'avais fait JLD avec qui nous en avions discuté d'ailleurs à l'époque du traitement de ses images du 1m) consiste tout bonnement a estimer le déplacement inter-images et aussi par rapport à l'image de référence que constitue l'image à éclairement constant.

Dans l'exemple que tu montre, on a d'ailleurs l'impression que ce sont les détails propres de la planète qui bougent, ce qui est faux à l'échelle du temps de prise de vue. L'apparition d'un champs de vitesse (et donc par intégration d'un champs de déplacement) ne dépend que des caractéristiques de la turbulence. le démorphing, contrairement à ce que tu affirme, n'est pas destructif, puisque dérivant du champs de vitesse que l'on peut extraire soit par le flot optique, soit par l'écart a une image de référence.......

En second lieu, l'affirmation suivante est aussi aberrante (pour ne pas dire autre chose) :

quote:
L'estimation du flot optique d'une image pourrie est tout à fait possible alors que le traitement d'une image pourrie par une méthode directe est quasiment impossible

L'estimation du flot optique constitue une information non pas associée a une image unique, mais à au moins 2 images. Mathématiquement le flot optique d'une image optique n'existe pas. Affirmer de plus que le traitement direct est quasiment impossible est faux, il suffit de se référer à ma remarque précédente concernant le démorphing sur le flot optique.

En conclusion, l'introduction du papier précité est parfaitement explicite, concernant le fait que l'approche du champs de position de l'éclairement (en X,Y au foyer du télescope) ou de son champs de vitesse (dX, dY) par le flot optique nécessite de se placer dans un contexte multi échelle. Or l'outil par excellence permettant de résoudre cette approche reste celui des ondellettes ! En X,Y les ondelettes ont fait leur preuve. En utilisant le flot optique, on ne contraint que la turbulence (d’où la dépendance on nombre de trames, qui dépend de l'intégrale de la turbulence).

La limite ultime (et Neb l'a bien compris dans son dernier post), reste la diffraction en deçà de laquelle les détails sont plus que sujets à caution....

Pour l'anecdote, ms, ce n'est pas parce que tu a trouvé un joli nom dans les publis (le flot optique) que tu peut considérer que c'est une révolution par rapport à des méthodes ayant déjà fait leurs preuves sur le terrain. Même si les traitements que tu as déjà appliqué semblent montrer des détails intéressants, ils ne montrent pas leur "écrasante supériorités" par rapport à ce que l'ont est en droit d'attendre de tes affirmations....

Bernard

Share this post


Link to post
Share on other sites
quote:
Or l'outil par excellence permettant de résoudre cette approche reste celui des ondellettes !

C'était certainement vrai il y 20 ans, mais la Terre tourne Bernard, le petit extrait suivant est issu d'un document de Julien Marzat :
quote:
la corrélation de phase donne des pics locaux du flot et donc un résultat non dense et les méthodes par filtrage (spatiotemporel, ondelettes...) effectuent un lissage trop important et sont soumises à un réglage de paramètres conséquent.

http://julien.marzat.free.fr/Publications/IAEM2008_FlotOptique/Marzat_Julien_Estimation_tps_reel_flot_optique.pdf

Pour le reste, continues tu es sur la bonne voie.

Share this post


Link to post
Share on other sites
quote:
Alors maintenant, on attend des RGB aux sauces ms pour les confronter visuellement aux autres images de ce fil.

La couche G qui est plus sensible à la turbulence confirme les détails observés dans la couche R :

Share this post


Link to post
Share on other sites
Rapidement

Je suis aussi les publis de l'ONERA (pour raison pro), mais ton extrait de ce papier de Julien Marzat sorti de son contexte ne sous tend pas que le traitement aux ondelettes est dépassé, bien au contraire Le paragraphe complet :

"Le cahier des charges impose comme au résultat d'être dense, le plus précis possible (subpixelique), dépourvu de paramétrisation du flot et de filtrages excessifs. Du fait de ces contraintes, les méthodes fréquentielles ne sont pas retenues. En effet, la corrélation de phase donne des pics locaux du flot et donc un résultat non dense et les méthodes par filtrage (spatiotemporel, ondelettes...) effectuent un lissage trop important et sont soumises à un réglage de paramètres conséquent.
Les approches répondant au cahier des charges sont donc les méthodes variationnelles (globales et locales) et les techniques de block matching. "

Le cahier des charges est une application rapide à paramètres réduits pour des applications à des systèmes de visions temps réel automatique.

Le lissage excessif des méthodes par filtrages (ondelettes en tête), dépend du nombre de dimensions auxquelles tu t'intéresse (autrement dit le nombre de niveau de ta pyramide si tu l'entend comme cela) et sous condition de sur échantillonnage si tu veut atteindre le régime de super résolution.

Les méthodes de Block Matching sur images sur-échantillonnées ont pour seul avantage le temps de calcul et le nombre de paramètre réduit (on voit l'effet de la subjectivité du réglage des coefficients des ondelettes dans les différents traitements de chacun).

Ce qui ne fait pas d'ailleurs du block matching une méthode absolue car elles ont aussi leur contraintes (citées dans le même papier), à savoir qu'elles sont limitées par les déplacements maximum tolérables et donc parfois sur contraintes.

L'autre limitation du block matching, est qu'elles perdent leur précision en particulier sur les zones à faible contrastes, ce que l'on voit sur le limbe de Jupiter sur les dernières images que tu a posté.

Au mieux on retrouve des résultats identiques entre le bloc matching et les ondelettes (5 ou 6 niveaux c'est pas forcément suffisant, mais au dela ca deviens fastidieux).

Dans tous les cas, sous le critère de diffraction (sur échantillonnage), les résultats sont tout aussi hasardeux dans les deux approche.

quote:
Pour le reste, continues tu es sur la bonne voie.

T'inquiète, je t'ai pas attendu pour cela...


Share this post


Link to post
Share on other sites
Bernard : pas de méthode fréquentielle, pas de Block Matching mais une méthode variationnelle de type MB-CLG (méthode globale + méthode locale + estimation du flou) comme dans le document suivant :
http://users.soe.ucsc.edu/~daraei/mbclg/thesis.pdf

Sur le dernier GIF, on voit effectivement une perte de contraste sur le limbe, c'est lié à la méthode globale de type Horn-Schunck que j'ai utilisé. Dans la version finale de type MB-CLG (global+local+flou) ce problème est résolu.

Enfin quand je disais que tu étais sur la bonne voie, je pensais à ce type de traitement qui montre les limites des ondelettes et du lucky imaging :
http://www.dropbox.com/s/2dbl5ugc5iqrgo2/jRGB.gif?dl=1

[Ce message a été modifié par ms (Édité le 11-09-2015).]

Share this post


Link to post
Share on other sites
Premier essai comparatif : jp1, luc1, luc2, luc3, michelR1, michelR2, ms1, neb1, plw1, polo1, wil1, xavi1, xavi2, yann1.

Couche R : ms1, polo1.
Couche G : ms1, luc2.
Couche B : ms1, wil1.

Création de l'image plw1 (polo/luc/wil).

Ce premier essai permet de comparer les résultats obtenus avec une première méthode dont :
- le recalage est basé sur l'estimation du flot optique global,
- le défloutage et le débruitage sont traités indépendamment.

Les 14 images par ordre alphabétique :
http://www.dropbox.com/s/xirb05gfma5zlw4/jup_jp1.png?dl=1
http://www.dropbox.com/s/jtaff1owaq369sx/jup_luc1.png?dl=1
http://www.dropbox.com/s/lj0usowr4qgzqjm/jup_luc2.png?dl=1
http://www.dropbox.com/s/qgw833tbobq0w8q/jup_luc3.png?dl=1
http://www.dropbox.com/s/34jzelej74qzq39/jup_michelR1.png?dl=1
http://www.dropbox.com/s/ygt073ruufxisu4/jup_michelR2.png?dl=1
http://www.dropbox.com/s/yx2d4x94ri0lf72/jup_ms1.png?dl=1
http://www.dropbox.com/s/elrrai6wuk2g2ut/jup_neb1.png?dl=1
http://www.dropbox.com/s/nms8pgda644qdhy/jup_plw1.png?dl=1
http://www.dropbox.com/s/2qvykl03ywlmobe/jup_polo1.png?dl=1
http://www.dropbox.com/s/wvqols95syzh326/jup_wil1.png?dl=1
http://www.dropbox.com/s/o04xb4fb4gw10qc/jup_xavi1.png?dl=1
http://www.dropbox.com/s/5yu639aolrvqg09/jup_xavi2.png?dl=1
http://www.dropbox.com/s/0q0mn8xmfe2t5ff/jup_yann1.png?dl=1

Dans des conditions de turbu bonnes, cette première méthode donne des résultats légèrement supérieurs aux méthodes actuelles. La différence se fera par contre quand la turbu dégrade plus les images.

Une deuxième méthode (jup_ms2.png) est en cours. Elle donne déjà des résultats plus précis et plus fins que la première méthode (jup_ms1.jpg).


Share this post


Link to post
Share on other sites
Woooow ! Quel déluge d'images ! Merci ms

Essayons d'y voir clair.
Si j'ai bien compris :

- Toutes les images sont présentées avec l'orientation et les dimensions originales des prise de vues.
Perso, je les trouve d'un rendu relativement homogène.
ms ???
- Pour une comparaison plus aisée, voici ci-dessous côte à côte un (lourd, désolé pour les bas débits ) panneau d'extraits 256x256 dans l'ordre alphabétique englobant la GTR et l'ovale au-dessus.

- La plw1 serait synthétisée par ms à partir des couches RVB de trois traiteurs différents
- L'image ms1 n'est pas celle qui nous a été proposée par ms en milieu de p 5
Elle résulte d'un traitement "nouveau", alors que les 13 autres de la liste ci-dessus ont bénéficié de traitements "classiques" (dérotation, RGX6, AS2, ondelettes et autres)
De plus, elle pourrait avoir été obtenue à partir d'un nombre plus réduit d'images.
- [Edit] On attend une ms2 annoncée comme surpassant la ms1.
On va voir, il reste une place dans le panneau comparatif à côté de l'image Voyager (voir plus bas) [/Edit]

.


[Ce message a été modifié par Nebulium (Édité le 13-09-2015).]

Share this post


Link to post
Share on other sites
C'est bien d'avoir laissé une place pour jup_ms2.png

La n°7 me semble moins bruitée que les autres ou ce sont mes lunettes qui me jouent des tours.

[Ce message a été modifié par ms (Édité le 12-09-2015).]

Share this post


Link to post
Share on other sites
quote:
ce sont mes lunettes qui me jouent des tours

Non, pas de verres filtrants à suspecter, mais juste comme si passée au Neat

Perso, je suis un nostalgique du TriX, ça donne du peps aux images, comme le tramage de la photogravure d'imprimerie sur papier glacé.

Mais on pourrait pondérer les images 7 et 8 .
Chiche ?
.

De gauche à droite :
- 100% de 7
- 50% de 7, 50% de 8
- 33% de 7, 67% de 8
- 25% de 7, 75% de 8
- 20% de 7, 80% de 8
- 100% de 8

Tous comptes faits, j'aime bien le mix 20-80

[Ce message a été modifié par Nebulium (Édité le 12-09-2015).]

Share this post


Link to post
Share on other sites
On dirait du Neat Image mais en moins violent. En fait l'estimation du bruit fait appel à une pyramide tout comme le flot optique. Dans la dernière mouture le flot optique, le flou et le bruit partageront la même pyramide.

C'est vers ce type d'image bien contrastée que je voudrais tendre et le dernier algorithme étudié va dans cette direction :

Comme dit Bernard plus haut, il faut rehausser les zones à faible contraste comme le limbe, c'est toute la différence entre le traitement global effectué aujourd'hui (voir image jup_ms1.png ci dessous) et le traitement global-local à venir (jup_ms2.png) :

[Ce message a été modifié par ms (Édité le 13-09-2015).]

Share this post


Link to post
Share on other sites
Pour l'aspect des détails, on peut se fier à cette vieille image:
Une version dopée est ici
Toutes les explications
J'en déduis que l'objectif de la version "msn.png" devrait être ainsi, mais en moins flashy :
.

Crédits : NASA/JPL & Björn Jónsson


Mais je viens d'en trouver une autre moins flashy.

Je pense qu'elle constitue un asymptote valable pour l'image du Pic, je vais la coller en dernière case du panneau, à droite de la case vide qui attend la prouesse finale (du moment ) de ms :
.

Crédits : NASA/JPL & Björn Jónsson

On peut constater qu'en réduisant le panneau à 40-50%, la finesse de la plupart des images rejoint celle de l'asymptote.
Autrement dit, il faudrait arriver à multiplier la résolution par 2 à 2,5 pour être rendu au top !

PS : Cerise sur le gateau

[Ce message a été modifié par Nebulium (Édité le 13-09-2015).]

Share this post


Link to post
Share on other sites
Ce qui peut être intéressant c'est de trouver les trames intermédiaires à l'aide du flot optique pour faire ce type d'animation :

L'autre application c'est peut-être le ciel profond quand je dispose d'images séparées par exemple de 100 ms ... est-ce que je peux trouver les trames intermédiaires de 10 ms ?

Share this post


Link to post
Share on other sites
L'original comporte 256 images, et je le trouve bien fluide, alors que la conversion en GIF l'a massacré !
Je vois donc mal ici l'utilité de créer des images intermédiaires, mais je saurais t'en faire très simplement, par exemple, avec 512 images en 25 ips.
Et pour le CP, que veux-tu faire ,
Fluidifier les time lapse de traînées d'étoiles ,

Mais si tu nous montrais plutôt ta "jup_ms2.png", au lieu de faire de la fuite en avant ?

[Ce message a été modifié par Nebulium (Édité le 13-09-2015).]

Share this post


Link to post
Share on other sites
quote:
Mais si tu nous montrais plutôt ta "jup_ms2.png", au lieu de faire de la fuite en avant ?

Est-ce que tu as remarqué qu'il y a des pixels présents dans la trame n-1 et absents dans la trame n (j'ai gardé une trame sur 10 pour accentuer la chose) ?
Estimer le flot optique est une chose et estimer l'occlusion (absence de pixels) en est une autre.
Un algorithme qui estime le flot optique, l'occlusion, le flou et le bruit dans un système multi-échelles c'est en gros ce qu'il faut pour réaliser "jup_ms2.png".
En plus avec ton image n°16, tu mets la barre à un niveau jamais atteint depuis la Terre, encore que celles qui s'en rapprochent le plus pour l'instant sont la n°7 et la n°1.

01 02 03 04
05 06 07 08
09 10 11 12
13 14 15 16

Share this post


Link to post
Share on other sites
quote:
Est-ce que tu as remarqué qu'il y a des pixels présents dans la trame n-1 et absents dans la trame n (j'ai gardé une trame sur 10 pour accentuer la chose) ?

??? De quoi parles-tu ? De ton GIF ?
Et je n'ai aucune idée de ce dont tu es parti et ce que tu as bidouillé...

quote:
Estimer le flot optique est une chose et estimer l'occlusion (absence de pixels) en est une autre.
Un algorithme qui estime le flot optique, l'occlusion, le flou et le bruit dans un système multi-échelles

Je ne te cacherai pas que bien qu'écrit en excellent français, ceci est de l'hébreu pour mes modestes neurones

quote:

En plus avec ton image n°16, tu mets la barre à un niveau jamais atteint depuis la Terre, encore que celles qui s'en rapprochent le plus pour l'instant sont la n°7 et la n°1.
01 02 03 04
05 06 07 08
09 10 11 12
13 14 15 16

L'extrait n° 16 est environ à 0,05" par pixel et correspondrait dans des conditions idéales à un 800 mm environ.
On sait que le T1m, déjà "défavorisé" de par sa situation au sol est aussi sous-échantillonné à cette échelle de diamètre 880 pixels
Le HST avec son "Costar" de correction optique est également sous-échantillonné en taille d'origine.
De par son élaboration, visuellement, on ne peut penser avoir une image plus définie que celles des Voyager 1 et 2.
Une accentuation toujours possible relèverait de l'arbitraire.

On peut observer que des détails ultrafins de l'image n°16 "Voyager" sont détectés mais logiquement élargis dans certains des divers traitements du panneau.
Par ailleurs , dans le panneau, on peut s'intéresser comparativement au rendu des chaînes de montagnes (malheureusement absentes chez Voyager) repéré ci-dessous arbitrairement dans l'image n°1 :
.

[Ce message a été modifié par Nebulium (Édité le 14-09-2015).]

Share this post


Link to post
Share on other sites
Ce carré de 256x256 pixels est intéressant à étudier parce qu'on pourra y voir les apports d'un traitement global (moins robuste au bruit) et d'un traitement local (plus robuste au bruit). A cela viendra s'ajouter l'estimation du flou qui est bien sûr variable d'une région à l'autre.

Il faut que je regarde ce qui se passe étage par étage (64x64, 128x128, 256x256) pour chaque couche pour mesurer l'évolution de jup_ms1 à jup_ms2.

Share this post


Link to post
Share on other sites
Je suis retourné voir les HST, en particulier cette page

Voici l'image de 2009 la plus résolue que j'y ai trouvée, réorientée et réduite à 36% :
.

En 2014, à 40% car la GTR avait rétréci et je l'ai remise à la même taille, pas forcément une bonne idée, mais c'était pour voir les poils dans le petit ovale clair... :
.

Sauf erreur, le HST et ses scientifiques n'ont pas fait mieux que le T1m en 2010 !

En continuant mes recherches, j'ai trouvé celle-ci, prise en 2008
.

et enfin celle-ci, prise en 2007, en 60%, là je m'incline et révise mon appréciation sur les HSTtifiques, à mettre dans le panneau, puisque ms ne veut pas utiliser la place qui lui est réservée
.

[Ce message a été modifié par Nebulium (Édité le 16-09-2015).]

Share this post


Link to post
Share on other sites
Entre la couche R et la couche G se sont écoulées 30s.
Idem entre la couche G et la couche B.

Un pixel R se déplace de combien de pixels en 30s ?

Entre la première image R et la première image B se sont écoulées 60s.

En fait, il faudrait recaler les flots optiques R et B sur la couche G avant de superposer les 3 couches.

Le problème est visible sur la tache brune foncée allongée (irisé rouge à droite et irisé violet à gauche).

Tu peux faire un zoom, toutes les images couleur ont cette particularité (la dérotation semble ne pas avoir d'effet ?).

A se demander s'il faudrait pas rester sur la couche R.
http://www.dropbox.com/s/2usyjez3r1imkjo/jR.gif?dl=1

Le contraste de "jR_ms1.png" est assez uniforme même dans les basses fréquences. L'écart avec les autres images me semble plus important quand on fait une analyse couche par couche.

[Ce message a été modifié par ms (Édité le 14-09-2015).]

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this