Hercules78

Qui veut réaliser un astrographe numérique haute résolution (angulaire) ?

Messages recommandés

Si tu as purement de l'aberration chromatique longitudinale, tu peux faire trois images en variant la mise au point pour rendre net successivement le rouge, le vert puis le bleu et compositer en ne gardant que le canal le plus net

ah ben oui, si c'est ça l'astuce, c'est sûr que personne n'y avait pensé avant. Suffit de poser 3 fois plus, super pratique en astro. Rassure-moi, c'est pas ça le brevet, quand même ? Je commence à me demander si je ne suis pas en train de me faire piéger par un troll moi, décidément en ce moment...

asp, déflouter une image je veux bien, mais avec quel genre de traitement tu la débruites ?

[Ce message a été modifié par Thierry Legault (Édité le 11-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites
pour le débruitage j'étais tombé entre autres sur un article récent faisant appel à l'analyse par composantes principales, c'est à dire encore du traitement gourmand en puissance de calcul (mais beaucoup moins que la reconstruction de la phase à partir du bispectre comme cité dans l'article juste au dessus sur l'observation du soleil ... ). je vais essayer de retrouver la référence.

ces champs de recherche sont très vivants et la documentation surabondante, à tel point qu'il est difficile de savoir quels sont les algos qui marchent pour de vrai sur des images autres que celles présentées par leurs auteurs ...

il est rare également que les mêmes auteurs s'épanchent sur leur cuisine interne (comment ils ont codés leur algo et quelles difficultés ils ont rencontrés).

Partager ce message


Lien à poster
Partager sur d’autres sites
Il faut se méfier des algos de débruitage car ils font des hypothèses fortes sur le contenu de l'image (sinon comment différencier le bruit de l'information) et risquent de dégommer de l'information intéressante. Le débruitage est surtout intéressant en photo.

Laissez tomber cette histoire d'aberration chromatique, ça n'a rien à voir, c'était juste un exemple. Le point que je voulais soulever est que l'idée reçue comme quoi l'aberration chromatique latérale n'est pas génante parce que c'est une variation du grossissement par rapport à la longueur d'onde est fausse. Mon exemple de faire 3 prises de vue était juste pour illustrer ce fait, mais on peut aussi faire une correction numérique sur une seule prise de vue (en photo c'est évidemment difficile de faire 3 poses et si on peut vraiment se le permettre on le fait en 3 passes avec des filtres et un capteur n&b, pas un capteur couleur)

Dans le cas présent l'idée est de partir sur un télescope à miroir, donc pas de problème de chromatisme.

Je sais qu'il faut un peu de temps pour digérer que l'on puisse refaire la mise au point après la prise de vue sans changer le SNR, mais il faut le voir de la façon suivante : on remplace un capteur c x l pixels où chaque pixel reçoit des rayons de lumière à différents angles non distinguables par c/n x l/n pixels où cette fois on peut distinguer n x n angles différents par pixel, n x n étant le nombre de pixels correspondant à une micro-lentille. La quantité d'information reste la même. On perd en résolution spatiale et on gagne en résolution angulaire. Sauf que l'on peut augmenter la focale ou réduire la taille des pixels (ça revient strictement au même) pour se ramener à la résolution que l'on veut. Le champ est alors n x plus petit, mais les pixels ont la même résolution et rien n'interdit de metttre plusieurs capteurs pour compenser si ce n'est le prix.

Donc on paye plus cher en pixels et moins cher en optique adaptative. La question est de savoir si ce sont les pixels les plus chers ou si c'est l'optique adaptative.

Ceci dit ça ne me fait pas très plaisir de me faire traiter de troll, je propose de réunir des gens qui seraient intéressés par collaborer à ce projet, et je suis content de répondre aux questions, même les plus sceptiques. Par contre si c'est juste pour essayer de casser le projet en argumentant que je suis un troll, ça n'est pas vraiment constructif.

Partager ce message


Lien à poster
Partager sur d’autres sites
trés intéressant tout çà!!!!

MAIS JE CROIS QUE JE VAIS ME PRENDRE VITE FAIT UN ASPEGIC 1000!!!!! J'ai mes 2 neurones qui commencent à chauffer GRAVE!!!!!

Partager ce message


Lien à poster
Partager sur d’autres sites
Je connaissais l'article de la "plenoptic camera" qui à mon avis n'est ni plus ni moins que de la photographie intégrale comme Lippmann l'avait imaginée, mais dans ton esprit Hercules je vois pas trop ou tu veux aller. C'est surtout le fait que tu vois dans cette chose la possibilité d'augmenter la résolution alors que le but de ce dispossitif d'imagerie est d'enregistrer la notion de profondeur et d'accéder à la 3D. j'ai vraiment pas l'impression que ce soit très résolvant ce genre de dispositif :-))

Mais (et c'est pas à ton encontre) souvent les electronico-informaticiens voient l'optique comme un truc manipulable à l'image de leurs spécialités....ce n'est hélas pas vraiment le cas :-)))

Fab

Partager ce message


Lien à poster
Partager sur d’autres sites
Pas d'accord Fabrice.
La camera sténoptique permet aussi de corriger les aberrations de l'optique et donc celles induites par l'atmosphère. Le fait de refaire la mise au point est une correction d'un type particulier d'aberration.
Ca peut être très résolvant au niveau angulaire (côté objet) mais pour avoir beaucoup de pixels dans l'image finale, c'est plus chaud (ou plus cher plutôt).
La photo selon Lippmann est par contre basée sur l'interférométrie et est capable d'enregistrer le spectre de la lumière, alors que la camera sténoptique fonctionne en n&b ou couleur 3 canaux classique.

Là ou je veux en venir ? Simplement remplacer une optique adaptative par une correction a posteriori car on sépare les photons en fonction de leur angle d'arrivée sur le pixel, ce que ne fait pas un capteur normal

Partager ce message


Lien à poster
Partager sur d’autres sites
bon ok tu n'est pas un troll. Mais je reste dubitatif, notamment sur le rapport signal/bruit. Chaque élément de l'image va s'étaler sur un grand nombre de pixels, ce qui diminue d'autant le flux qui arrive sur chacun d'eux (si on étale sur 10x10 pixels, ce qui me semble un minimum, ça fait un flux divisé par 100). Et déjà qu'il faut travailler à fréquence rapide, je me demande ce qu'il reste comme signal au final et ce qu'on peut tirer de ça. Ce n'est pas un hasard si les manips qu'a citées Christian sont faites sur le Soleil où le flux est presque aussi important qu'on veut (et même là...sur un des sites il est écrit qu'en Halpha, il n'y a plus assez de flux et il faut travailler en bande plus large).

Partager ce message


Lien à poster
Partager sur d’autres sites
Thierry, ce que tu ne vois pas est que si tu peux dans une séquence video choisir quelles images sont nettes et quelles images ne le sont pas, tu peux le faire de la même façon avec ce système.
En effet, je somme les 10x10 pixels et je récupère le même SNR qu'un seul photosite de la taille de la micro-lentille !
Donc je peux tout autant déterminer si mon image est nette que si j'avais mis un capteur avec des photosites de la taille de mes micro-lentilles.
La différence est que si l'image n'est pas nette, je peux tester toutes les mises au point possible pour choisir la meilleure, et ce a postériori. Je peux aussi tester des modèles d'aberrations plus complexes pour trouver une image encore plus nette, je peux même y inclure les aberrations du telescope.
Tout l'inconvenient du système est qu'il faudrait une grosse camera avec beaucoup de pixels ! Mais en fonction de la résolution que l'on veut atteindre, on peut peut-être commencer avec 4x4 pixels par micro-lentilles, ce qui limite la casse (8 MPixels donneraient 0.5 MPixels)
Pour des professionnels, il y aurait certainement moyen de faire des gros capteurs avec des petits pixels et numériser plusieurs lignes en même temps pour "dépoter" suffisamment de frames par seconde. Est-ce que ça serait plus cher qu'un optique adaptative ? Pas sûr...

[Ce message a été modifié par Hercules78 (Édité le 12-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites
ben oui, si on somme les pixels on retrouve le même RSB (encore que : il faut faire du binning on chip, sinon on va retrouver le bruit de lecture intervenir 100 fois au lieu d'une, donc multiplié par 10). Mais si le but c'était de sommer les pixels, la manip n'aurait aucun intérêt, autant faire tout passer directement sur un seul pixel comme on le fait aujourd'hui ! Si tu veux étaler sur des centaines de pixels, c'est bien pour analyser ce qui se passe en détail en prenant en compte chaque info élémentaire, et là on retombe sur le problème du RSB catastrophique au niveau de chaque pixel.

[Ce message a été modifié par Thierry Legault (Édité le 12-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites
je ne suis pas certain d'avoir compris mais on doit pouvoir refocaliser pour chaque groupe de pixels associés à une microlentille?
ça reste intéressant pour le soleil et la lune sur lesquels ont observe une turbulence variable à cause de leurs dimensions.

Partager ce message


Lien à poster
Partager sur d’autres sites
Hercule78 : un bon croquis vaut mieux qu'un long discours.
L'acquisition d'une trame brute en 1/50s ou 1/100s n'est pas un problème avec une camera EMCCD ou similaire.
L'interprétation de l'image brute obtenue en 0,01s me semble plus délicate.
Comment extraire d'un nuage de points la bonne information quand le bruit ressemble étrangement au signal.
C'est peut-être l'objet du tamis que tu veux mettre en place mais difficile de récupérer de l'info sans amplification du signal à la base, c'est un peu le serpent qui se mord la queue.

Partager ce message


Lien à poster
Partager sur d’autres sites
Thierry, comme je l'ai indiqué plus haut tu peux te contenter de sommer les pixels de chaque micro-lentille mais il n'y a effectivement aucun intérêt à ne faire que ça. Le SNR est le même en ne prenant en compte que le bruit photonique, le bruit de lecture sera lui amplifié 10x pour 10x10 pixels.

Par contre tu peux sommer tes pixels différemment. Par exemple en considérant que localement l'atmosphère se comporte comme un lentille convergente ou divergente. Dans ce cas, le plan focal va se promener devant ou derrière la capteur. Et bien dans ce cas, il suffit de sommer les pixels différemment pour retrouver une image nette. En gros tu fais un autofocus numériquement.

Je vais essayer de faire un dessin mais je n'ai pas beaucoup de temps en ce moment.

Alors certe on perds un peu

Partager ce message


Lien à poster
Partager sur d’autres sites
Ce n'est pas un problème d'être d'accord ou pas Hercules.
Tu dis pouvoir corriger les aberrations d'un système optique en usant d'un montage plenoptic et je crois donc pouvoir dire que tu penses être capable de détecter les aberrations en observant des objets étendus!!
Si c'est le cas, je te conseille de mettre bcp plus d'énergie et de moyen dans ce dispositif: ta fortune est faite et je peux même te dire que tu recevras le Nobel pour cela (et je le dis très sérieusement :-))).
Ce que tu as imaginé me dépasse et donc je m'arrêterais la.
Je ferais néanmoins 2 remarques:
-La résolution des cameras "plenoptic" est limitée par le pas de la matrice de microlentille.
-J'ai parlé de photographie intégrale, pas de photographie interférentielle.
Fab

Partager ce message


Lien à poster
Partager sur d’autres sites
OK Fabrice, je pensais que ça serait plus facile à comprendre mais il est vrai que j'y pense depuis pas mal de temps. Pour être honnête j'avais commencé ma réflexion en me demandant comment imager des satellites artificiels avec beaucoup de résolution : avec un temps de pose trop court, le SNR est insuffisant, si on stack les prises de vue en aveugle (en recalant quand même spatialement), on retombe sur le flou de l'atmosphère, et on ne peut pas faire de "lucky imaging" car l'objet change trop rapidement. J'ai donc pensé à cette solution, qui devrait d'ailleurs intéresser les militaires :-(
En ce qui concerne les objets étendus, ça marche à conditions qu'il y ait du contraste, comme un autofocus d'appareil photo. Tu peux essayer de faire la mise au point sur une surface (vraiment très) uniforme, ton APN n'y arrivera pas. D'ailleurs une surface lumineuse uniforme infinie s'image exactement pareil quelque soit la mise au point ! En revanche si on veut capturer un objet étendu avec peu de contraste et aucune étoile dans le champ de vue, ça se complique ! Dans ce cas, on peut mettre un petit capteur supplémentaire sur une étoile ou un objet étendu contrasté proche de l'objet que l'on veut imager en supposant que l'aberration atmosphérique est la même entre l'objet mesuré et l'objet imagé (en fait les deux pourront être imagés au final).

Concernant la photographie intégrale, j'aimerais que tu nous expliques ce que tu entends par là. Il me semble que la photographie de Lippmann est basée sur des interférences, comme les hologrammes, mais j'admet ne pas être compétant sur le sujet. Je me suis d'ailleurs souvent demandé comment appliquer ces procédés (holographie, Lippmann) en numérique (en lumière "naturelle", pas avec un éclairage en lumière cohérente). Est-ce que tu as des infos/idées sur ces points ?

[Ce message a été modifié par Hercules78 (Édité le 13-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bon, je n'ai pas tout lu (au boulot, les heures sont déjà trop courtes...), mais s'il y a moyen d'apporter mes connaissances (électronique et soft embarqué) au service de l'innovation, je suis toujours partant! Seule la question des moyens financiers risque d'être un peu serrée

Partager ce message


Lien à poster
Partager sur d’autres sites
OK Pulsar 67, bienvenue.
Pour l'instant je veux réunir les compétences puis faire des specs et en déduire un budget. Ca s'arrêtera peut-être à ce moment là... Mais je pense que l'aventure humaine et tout ce qu'on pourra apprendre en vaudra de toutes façons la peine.

Partager ce message


Lien à poster
Partager sur d’autres sites
Je viens de me rendre compte que l'on ne peut pas envoyer de message privé sur ce forum, désolé !

Pour me contecter en privé : hh78 at hotmail dot fr

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant