Hercules78

Qui veut réaliser un astrographe numérique haute résolution (angulaire) ?

Messages recommandés

Je vous explique en gros mon idée.
Ca fait pas mal de temps que j'imagine un système de prise de vue avec des micro-lentilles convergentes devant un capteur, sur le même principe qu'un shark-hartmann.
Un tel système placé au foyer d'un système optique fait que chaque pixel du capteur "voit" une petite partie de la pupille du système sous un certain angle.
Si chaque micro-lentille se projette sur nxn pixels, on peut extraire nxn images dont chacune est l'image qu'aurait un "pinhole" correspondant à une petite partie de la pupille sans les problèmes de diffraction du "pinhole"
A partir de là il suffit de sommer ces sous-images pour avoir une image correspondant à toute la pupille.
Quel est donc l'intérêt dans ce cas ? En photo il est possible d'appliquer un décallage différent entre les sous-images pour changer la distance de mise au point, on peut donc s'affranchir des problèmes de mise au point et même de profondeur de champ.
En astro tout est à l'infini mais il y a quand même des aberrations optiques qui pouraient être corrigée numériquement et surtout l'influence de la turbulence atmosphérique !
Voilà, j'imagine donc un système où l'on ferait une vidéo très rapide (au moins 100 images par seconde, voire plus) et où l'on estimerait sur les étoiles les plus brillantes la PSF induite par la turbulence et ensuite on reconstruirait une image corrigée et l'on sommerait toutes les images.
En gros c'est l'équivalent d'une optique adaptative mais en numérique et surtout l'estimation se fait à postériori et pas à priori sur une partie de la lumière que l'on ponctionne pour la mesure de front d'onde.
J'ai regardé un peu où trouver des réseaux de micro-lentilles, réputés encore très chers et j'ai quand même trouvé ceci Microlens Array Nr. 11-9901-101-000 à 75€.
Evidemment si chaque micro-lentille mesure 100 micron et que le capteur fait 5x5mm, ça ne fait guère que 50x50 pixels pour l'image finale, mais chaque pixel (final) pourrait être de la taille de la tache de diffraction de l'optique ! Il est peut-être possible de faire de la sur-résolution x2 ou x4 (certainement pas plus), ce qui ferait 100x100 ou 200x200 pixels.
Il faudrait donc imaginer un système "scalable" ou l'on puisse mettre des capteurs les uns à côtés des autres pour avoir un champ un peu plus grand.
Bien sûr l'autoguidage se fait facilement directement sur les images du capteur et les défauts de guidage se corrigent facilement numériquement.

Sachant que je n'ai ni les compétances ni les moyens de réaliser un tel astrographe, je voudrais essayer de réunir toutes les compétances et les fonds pour le fabriquer.

Si je peux réunir 10 à 15 personnes dans les domaines suivants:
-Conception optique
-Réalisation optique
-Conception mécanique
-Réalisation mécanique
-Electronique et en particulier avec des compétances concernant les cameras
-Informatique
-Traitement d'images
Et que chacun peut y mettre un peu d'argent, il serait peut-être possible de fabriquer un tel engin et ensuite partager l'utilisation de l'astrographe et la propriété intellectuelle qui pourrait en résulter.

Quelques informations me concernant : j'habite Saint-Germain en Laye (78), je suis informaticien de profession et je travaille depuis 15 ans dans l'imagerie numérique et le traitement d'images et je suis dans la photographie numérique depuis plus de 3 ans. Je me sens donc capable de prendre en charge les aspects informatiques et traitement d'images mais d'autres conpétances similaires seront les bienvenues. Je suis un peu astronome mais j'ai trop peu de temps à y consacrer (vie de famille). Je peux travailler sur le projet dans les transports en commun (j'arrive à me dégager 30 à 45 minutes d'heure par jour sur 1h15 au total) ainsi que le soir plutôt que de regarder la télé. Je veux bien y mettre quelque centaines d'euros, voire un peu plus (100 euro par mois pendant un an par exemple).

Voici les grandes étapes que je vois:
-Spécification de l'astrographe, design optique, conception mécanique, choix des composants électronique et des moyens de calcul
-Estimation du budget
-Création d'une association
-Levée des fonds, chacun apportera ce qu'il pourra ou voudra
-Achat du matériel
-Réalisation de l'astrographe, de la camera et du logiciel
Dans un deuxième temps on peut envisager de créer plusieurs caméras pour avoir un champ un peu plus étendu, ainsi que que de faire du tri-CCD pour la couleur.

Tout ceci pourrait d'ailleurs se faire au sein d'un club déjà existant.
Que tous ceux qui ont envie de participer, que ça soit par leurs compétances, conseils ou financièrement, contactez-moi en MP.

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut,

j'ai lu avec attention ton projet mais je ne comprends pas comment tu comptes imager quelque chose ayant un diamètre apparent ? Un shack hartmann analyse un front d'onde en observant le décalage de l'image d'une étoile dans chaque sous pupille, de là on déduit la forme d'onde et après par calcul, on extrapole une correction pour enregistrer des nouvelles images.
Mais si tu enregistres des images et que tu comptes faire ensuite une reconstruction en utilisant les infos acquises en mêem temps sur un shack hartmann, je ne vois pas comment celà est possible car l'information de phase est perdue .. Et la phase en optique c'est pas facile à enregistrer....

Mais je me trompe peut-être.

Pierre

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a un deux trucs que j'ai du mal à piger. D'un côté tu parles de guidage (donc de ciel profond), mais qu'est qu'on va récupérer comme signal en ciel profond à plus de 100 images/s ? En plus si l'image est défocalisée, même sur "les étoiles les plus brillantes" (à supposer qu'il y en ait, vu le champ réduit...), ça va faire un rapport signal sur bruit catastrophique et sur lequel je ne vois pas bien ce qu'on va pouvoir mesurer à part des variations de bruit de lecture. J'ai aussi du mal à comprendre comment on peut faire de l'optique adaptative a posteriori sans enregistrer la phase. Sans compter qu'en défocalisé, comment va-t-on faire pour s'y retrouver sur un objet étendu tel qu'une planète avec toutes les pupilles qui se mélangent ?

Avec les armées de thésards et d'ingénieurs qui planchent depuis des décennies sur la lutte contre la turbulence et l'optique adaptative, avec des budgets qui n'ont rien à voir avec ce qu'un petit groupe d'amateurs peut mettre sur la table, j'ai du mal à imaginer que si cette idée est viable, elle n'a pas déjà été expérimentée et mise en oeuvre quelque part.

Mais je n'ai peut-être pas tout compris, et puis je ne suis pas expert en la matière

[Ce message a été modifié par Thierry Legault (Édité le 11-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Ah ben justement, Thierry, puisque tu passes...

J'ai une autre idée géniale à proposer : plutôt que bêtement, comme tu le fais et le professes, additionner des dizaines d'images du ciel profond, pourquoi ne pas simplement faire une pose courte et la multiplier ?

S

PS : Excuses, Hercule, je lirais ta proposition plus tard, là c'est pour T.L qui passait par là...

Partager ce message


Lien à poster
Partager sur d’autres sites
plutôt que bêtement, comme tu le fais et le professes, additionner des dizaines d'images du ciel profond, pourquoi ne pas simplement faire une pose courte et la multiplier ?

Mais oui bien sûr, qu'est-ce qu'on est bête de ne pas y avoir pensé plus tôt !

Oui j'ai vu l'autre fil, mais comme l'auteur de la question a avoué avoir mon bouquin et ne pas l'avoir lu (alors que j'ai pris la peine d'y expliquer le pourquoi de la chose), je n'avais rien à ajouter.

Partager ce message


Lien à poster
Partager sur d’autres sites
Je vais essayer d'être plus explicite sur le principe de fonctionnement.
D'abord ça n'est pas un vrai Shark-Hartmann qui analyse un front d'onde "quasi" plan. Sur un Shark-Hartmann, un front d'onde plan va donner des taches de flou dont le centroide est en centre de la micro-lentille. C'est l'écart par rapport à ce centre qui est mesuré. La phase n'est pas mesurée par le capteur, il ne fait que mesurer des photons. C'est le résultat d'un calcul qui donne l'analyse du front d'onde.

Ca ressemble à un Shark-Hartmann car au niveau du capteur, c'est la même chose, mais c'est bien un front d'onde sphérique qui arrive sur chaque micro-lentille. Du coup, si l'optique est parfaite, chaque micro-mentille reçoit toute la lumière arrivant avec un même angle avant l'objectif, et chaque pixel de la micro-lentille reçoit une partie correspondant à chaque partie de la pupille.

Donc si le front d'onde qui arrive sur le capteur est parfait, il suffit d'additionner tous les pixels d'une micro-lentille pour avoir un pixel de l'image finale. L'astuce est que si le focus est mal fait ou s'il y a des aberrations, il faut aller chercher les pixels des micro-lentilles d'à côté à la place. Voici un exemple de ce qui peut être fait en photo : Focusing after the shot, the plenoptic camera
Concernant le SNR, il est vrai qu'il faut déjà avoir du diamètre. Ensuite, il n'est pas obligatoire d'aller chercher la PSF sur une seule image, la turbulence ne varie pas aléatoirement d'une frame à la suivante (sinon on ne pourrait pas faire d'optique adaptative), on peut donc l'approximer par un modèle "un peu mou", on peut prendre un modèle simple de PSF qui "varie peu" avec le temps et "fitter" peu de pramètres sur une dizaine de frames ou peut-être plus. De plus, on peut le faire avec tout le champ et pas juste sur une étoile comme le Shark-Hartmann.
En ce qui concerne les objets étendus, du moment qu'il y a du contraste, ça n'est pas très différent. Pour les objet étendus sans contraste, c'est effectivement plus difficile.

Il faudrait alors peut-être envisager d'avoir un capteur mobile par rapport au capteur imageur qui serait placé sur l'image d'une étoile suffisamment brillante si on considère que la turbulence varie peu dans le champ. Mais le capteur qui évalue la turbulence est le même que le capteur imageur et leus deux peuvent donner une image au final. D'ailleurs l'idéal serait d'avoir un capteur immense qui couvre un grand champ (plusieurs degrés) mais là il faut des dizaines de gigapixels !

J'ai récemment proposé une idée à un opticien qui m'a fait une simulation montrant que tel que je le lui présentait ça n'était pas satisfaisant mais en y travaillant un peu je pense que ça pouvait marcher (j'ai de bonnes notions d'optiques mais pas encore assez pour faire des simulations). Il a fini par me dire que "si ça marchait, tout le monde ferait comme ça". En général c'est un bon argument pour m'encourager ! Même avec le numérique, les opticiens continuent à optimiser les optiques de la même manière, sans essayer de relacher les défauts qui se corrigent bien en numérique et pousser les défauts qui se corrigent mal.

Partager ce message


Lien à poster
Partager sur d’autres sites
En ce qui concerne les objets étendus, du moment qu'il y a du contraste, ça n'est pas très différent. Pour les objet étendus sans contraste, c'est effectivement plus difficile

justement, en astro on est toujours limite en RSB. Même sur la Lune qui est bien contrastée on est obligé de compositer des centaines d'images vidéo pour que ça supporte les masque flous et ondelettes qu'on applique ensuite, alors tout ce qui dégrade le RSB en amont c'est vraiment pas bon sur la Lune, sans parler des planètes ou du ciel profond.

les défauts qui se corrigent bien en numérique

J'en connais deux : le vignetage (et encore, on perd en RSB dans les coins) et le chromatisme latéral (si le capteur est couleur). Il y en a d'autres, des défauts qui se corrigent bien en numérique, en astro j'entends évidemment ?

Partager ce message


Lien à poster
Partager sur d’autres sites
Imagine qu'au lieu de compositer tes centaines d'images tu composites tes centaines d'images en faisant un recallage et un rattrapage de mise au point avec des modèles "mou" (qui varient peu d'une prise de vue à l'autre) avec donc un nombre de paramètres à fitter assez limité. Tu fais un "fitting" de ces paramètres qui maximise une fonction qui mesure le flou de l'image finale (ça peut être quelque chose d'assez simple comme la somme des carrés des gradiants). L'image finale obtenue avec les paramètres idéaux aura un SNR équivalent à ton compositage mais une bien meilleure résolution.

Les autres défauts qui se corrigent bien en numérique : la distorsion, le contraste, l'aberration chromatique longitudinale dans une certaine mesure. Les MTF qui tombent rapidement dans les basses fréquences mais qui restent à un bon niveau ensuite se corrigent bien mieux que les MTF qui restent très bonnes dans les basses fréquences puis qui tombent.

Partager ce message


Lien à poster
Partager sur d’autres sites
effectivement j'avais oublié la distorsion. Quant au contraste, non justement ça ne se corrige pas bien, toute accentuation du contraste dégrade le RSB qui est toujours plus que limite en astro. Pareil pour l'aberration chromatique longitudinale.
Tout ça, ça se corrige très bien sur le papier, d'ailleurs les facs sont remplies de thèses là-dessus. En pratique, quand le télescope Hubble a été lancé avec son défaut optique très bien modélisé et dont l'effet en planétaire était d'effondrer le contraste, on n'a pas sauvé la situation avec des moyens informatiques mais en allant y installer une optique correctrice : même si ça coute beaucoup plus cher c'est infiniment plus efficace.
Une obstruction de télescope, ça fait justement baisser les basses fréquences en laissant les très hautes relativement intactes (voire en les remontant), n'empêche qu'on attend toujours l'algorithme-miracle qui donnera à un télescope très obstrué les mêmes résultats qu'un peu obstrué

[Ce message a été modifié par Thierry Legault (Édité le 11-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Pas d'accord Thierry, l'aberration chromatique longitudinale se corrige (en couleur, pas en N&B) mais il faut le faire de manière astucieuse.
Le contraste se corrige effectivement au prix d'une perte de SNR mais si en échange tu gagnes dans les hautes fréquences, tu y gagnes au final.
L'obstruction est surtout génante dans les hautes fréquences à cause de la diffraction.

Partager ce message


Lien à poster
Partager sur d’autres sites
En fait il existe bien une technique révolutionnaire qui a le vent en poupe chez les pros pour améliorer la résolution angulaire : C' est le "lucky imaging" : http://www.ast.cam.ac.uk/~optics/Lucky_Web_Site/ ...
Bon, évidemment, tous ceux qui font du planétaire à la webcam l' utilisent déjà, alors hein, révolutionnaire est peut-être un terme un peu fort

Partager ce message


Lien à poster
Partager sur d’autres sites
tu aurais pas un schéma du dispositif comprenant tout les éléments important,car moi je suis tombé là-dessus y a cinq minutes et j'ai du mal ! je dois pas être le seul,je pourrais t'expliquer en 23 pages comment j'ai fais mon scope,mais des photos ou dessins,c'est bien mieux ,hein?

Partager ce message


Lien à poster
Partager sur d’autres sites
s'il y a un moyen efficace de corriger l'aberration chromatique longitudinale, il faut vite en faire profiter tous ceux qui font de la photo avec un APN et une lunette achro, ça va faire un tabac ! C'est quoi la méthode ?

Partager ce message


Lien à poster
Partager sur d’autres sites
les méthodes que tu présentes fonctionnent vraisemblablement bien quand il y a à la fois du flux et un bon rapport signal à bruit mais en astro ce n'est généralment pas la cas sauf peut être pour le soleil et la lune.
par contre bravo pour avoir trouvé ce fournisseur de microlentilles, ça peut intéresser ceux qui voudraient se construire un shack-hartmann

Partager ce message


Lien à poster
Partager sur d’autres sites
Thierry, je n'ai pas le droit de révéler cette méthode de correction (en cours de brevet) mais si tu cherches un peu, tu trouveras peut-être, ça n'est pas vraiment compliqué, juste un peu astucieux

Partager ce message


Lien à poster
Partager sur d’autres sites
moui moui bien sûr, il suffit d'un peu d'astuce et personne n'y a pensé avant.
Et c'est la marmotte qui a rédigé le brevet sur du papier d'alu, je suppose ?

Partager ce message


Lien à poster
Partager sur d’autres sites
asp06 : Si au final je composite toutes mes images sans faire de traitement particulier, j'ai le même SNR (en bruit photonique) que si tu mets un capteur avec des photosites de la même taille que les microlentilles. Donc il n'y a pas besoin de plus de flux.

Avec le lucky imaging, tu vas ne garder que les meilleures images. Avec mon système, je peux aussi ne garder que les meilleures images, mais je peux aussi refaire la mise au point des autres images, et avec le même flux j'y gagne en netteté.

Si l'image finale est très nette, elle n'a pas besoin d'être autant déflouée. Par exemple une MTF qui passe à 10%, il faut amplifier ces fréquences 10x et donc le bruit d'antant, ça fait 20dB en moins de SNR. Il faut multiplier le temps de pose par 100 pour regagner ces 20dB. Si avec mon système elle est au moins à 50%, il n'y a qu'un x2 à faire et une perte seulement de 6dB. Un temps de pose x4 suffit à les regagner.

Partager ce message


Lien à poster
Partager sur d’autres sites
Hercules 78, il en est où le brevet: en demande, A1, A2, A3 ? Europe only?

JMarc

[Ce message a été modifié par JM la galette (Édité le 11-11-2007).]

[Ce message a été modifié par JM la galette (Édité le 11-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Thierry,

l'aberration chromatique laterale peut être pire que la longitudinale : tu images un spectre continu et sur chaque canal couleur tu vas donc intégrer différentes longueurs d'ondes qui vont s'imager à des positions différentes de ton capteur. Donc chaque canal est flou avec un flou très directionnel. Pas forcément facile à corriger.

Si tu as purement de l'aberration chromatique longitudinale, tu peux faire trois images en variant la mise au point pour rendre net successivement le rouge, le vert puis le bleu et compositer en ne gardant que le canal le plus net.

Partager ce message


Lien à poster
Partager sur d’autres sites
si tu appliques certains algos (maximum d'entropie et consorts) sur les images individuelles ou sur l'image compositée tu vas également les "déflouter" et les "débruiter". en général il est difficile de dire à quel moment il faut arreter ces traitements : cela fonctionne mais ce n'est pas automatique.
je n'ai pas lu les articles des liens auxquels tu nous renvoie mais, en plus de nécessiter une modification mécanique de la caméra pour y insérer la matrice de micro lentilles, les algos ont ils l'intérêt de s'arreter seuls sur la "meilleure" image?

Partager ce message


Lien à poster
Partager sur d’autres sites
Il faut peut-être déjà regarder ce qui existe, comment ça marche et pourquoi.
Une piste purement informatique et qui semble intéressante pour le futur est la "speckle reconstruction". C'est appliqué sur le soleil (c'est la granulation qui sert de référence pour reconstituter l'image). Mais ca a l'air assez trapu et très gourmant en CPU ...
Voir un cours papier sur :
dot.astro.uu.nl/dot-documents/dsp-2004.pdf

Une autre piste, cette fois informatique + hard, toujours sur la soleil, consiste à enregister plusieurs flux d'images prises en simultannée à différente position du foyer. Ca s'appelle "phase diversity reconstitution". Voir par exemple un papier sur : http://www.solarphysics.kva.se/~mats/publications/dissertation.html#approaches

Bon ... cela étant, vue la grande idée de refaire la map pour chaque filtre RVB, cette histoire respire le troll ... Mais si un de nos petits génies de l'informatique avait le temps de se pencher sur ces techniques de "phase diversity" et de "speckle reconstruction" et nous dire si c'est jouable pour nous amateurs ...

[Ce message a été modifié par christian viladrich (Édité le 11-11-2007).]

[Ce message a été modifié par christian viladrich (Édité le 11-11-2007).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant