brizhell

Membre
  • Compteur de contenus

    2 258
  • Inscription

  • Dernière visite

  • Jours gagnés

    1
  • Last Connexion

    Soon available - 46759

Tout ce qui a été posté par brizhell

  1. Le SCMOS nouveau (Sony) est arrivé

    On commence a voir des composants vraiment interessants sur le sCMOS. CMOSIS fait aussi un 2k x2k à 180fps 10bits pixels de 5,5microns http://www.cmosis.com/products/standard_products/cmv4000 c'est intégré sur une Raptor sCMOS. Ca a l'air pas mal, mais l'électronique limite le débuit a 37fps en 12 bits tout de même !! http://www.raptorphotonics.com/product-selected.php?31 Bon j'imagine a peine le prix ....
  2. Le SCMOS nouveau (Sony) est arrivé

    @ms et asp06, entièrement d'accord avec vos analyses. J'ai de mon coté eu la chance de pouvoir jouer avec des EMCCD au niveau professionnel, mais a titre purement personnel, mon budget me porte a loucher sur ces IMX03x avec beaucoup d'attention ;-)Merci pour le lien asp06, j'ai bien regretté de ne pas avoir pu assiter au WETAL Bernard
  3. Le SCMOS nouveau (Sony) est arrivé

    Salut, >Mon graphe que j'avais publié ici il y a pas mal de temps est toujours d'actualité. Mais c'est maintenant devenu un peu plus serré avec l'arrivée du (s)CMOS.Pas tant que cela, il faut voir comment se comporte le CMOS en faible flux ou autrement dit sur des temps de poses trés courts.>Les EMCCD 16bits back-illuminated, pas de soucis, ils sont toujours d'actualité du fait de leurs caractéristiques uniques. Seul T.I. a perdu face au CMOS parce que leurs EMCCD étaient 1 cran en dessous des E2V.Les EMCCD standart sont aussi devant de 2 ordres de grandeurs sur la sensibilité (exprimée en watts) pour des poses courtes. Pour s'en convaincre il suffit de comparer des poses de 20ms ou 30ms par exemple avec le même télescope, et une EMCCD vs un CMOS. On a fait le test avec au T60 du pic, on gagne 3 a 4 magnitudes. Un autre exemple avec un certain Christian Buil, ou il a eu la possibilité de faire de la spectro via une EMCCD (j'espère qu'il ne m'en voudra pas trop de reproduire une partie de notre correspondance privée sur le sujet: "j'ai pu faire des essais avec le nouveau spectro LISA. Faut bien l'admettre, c'est tout à fait extraordinaire ! Attraper des étoiles de magnitude V=9,5 en 0,5 seconde de pose avec un pouvoir de résolution spectral, avec un spectre lisible, c'est vraiment impressionnant. En gros le gain est 50 à 100 fois la sensibilité en pose courte d'un caméra CCD QSI532." >Mais un EMCCD reste cher. très cher. Il a besoin d'être refroidi (généralement le CCD97 se retrouve entre -70 et -90°C). La résolution actuelle est de 13µm. E2V n'arrive pas à descendre en taille.C'est vrai qu'il est dommage que Texas ai stoppé sa fabrication de TC246 et 247. Les photosites etaient à 10µm. Et E2V qui est devenu incontournable sur le marché peut se permettre de ne pas travailler en priorité sur le devellopement technologiques de photosites plus petits.>Ensuite, il existe des applications ou l'EMCCD est obligatoire notamment en biologie sur des applis spéciales.C'est le cas dans mon labo (physique quantique), mais l'EMCCD reste incontournable principalement en courte poses...> D'autres applis ou le CMOS peut faire le job pour 2x moins cher avec une vitesse supérieures et un grand champ. Lorsqu'on a 1e- de bruit de lecture sur un CMOS, on détecte quand meme pas mal de choses, et le gap avec l'EMCCD se resserre (du moins, meme si on pert un facteur 2 à 3 en S/B, le signal est là, avec une meilleure résolution. Le facteur de perte est beaucoup plus important que 2 a 3 en courte pose (plutot dans la gamme des 10 à 40 en S/B). Le GAP reste énorme d'ou l'interet pour les futurs EMCMOS si ils sortent... La limitation techno devient la profondeur de puit x coeff de multiplication, ou l'ont fini par saturer allègrement le can en quelques ms...>Le nouveau Fairchild (exclusif) en 4Mpix arrive à un peu plus de 14 bits de dynamique avec un bruit faible (1.3 e-) et surtout une vitesse importante (100fps en full). Il enterre complètement l'ancien composant.ca c'est le gros pb des EMCCD : la vitesse. On est limité technologiquement par le fait d'être obligé de commuter des tensions monstrueuses sur le registre de multiplication pour accélérer le traitement d'une image. Actuellement en full frame, je ne connais pas de camera capable de dépasser 30fps>Cette techno (deep depl.) ne peut pas etre appliquée sur un EMCCD du fait d'une incompatibilité technique entre la zone image et le registre de transfert EM. C'est il me semble en cours de correction chez E2V mais je peut me tromper.[Ce message a été modifié par brizhell (Édité le 08-12-2011).]
  4. Le SCMOS nouveau (Sony) est arrivé

    l'EMCCD n'est pas tout a fait mort et a encore quelques belles années devant lui. Meme si Texas a stoppé sa production, on ne parle pas du même domaine d'application.C'est vrai que ce n'est pas pour des applications astro grand public, mais les sensations en astro sont assez incroyables. D'autres fabricant ce sont posté sur les rang pour la conception de cameras à EMCCD (Hamamatsu entre autre, sur des Back illuminated aminci avec canal EM).Les EMCCD et le sCMOS ne sont pas destinés aux même applications. L'idée de l'EMCCD est de descendre a la limitation par le shot noise (mode de comptage de photon), pour se faire on multiplie le nombre d'électron d'un facteur variant de 1000 à 3000 au max, avant la numérisation. Ce qui fait que pour un rapport signal/bruit donné, si on pose trés trés court (quelques ms a quelques dizaines de ms) le bruit de lecture devient si petit au regard du signal/bruit qu'il en est négligeable devant le bruit de photon. Et la sensibilité sur un même temps de pose (court je le répète)est plusieurs ordre de grandeur au dessus des meilleurs CMOS (y compris les sCMOS). Les domaines interessés principalement sont la biologie (fluorescence), la physique (quantum dots) et certaines niches en astro (optiques adaptatives sur grand télescope). Rien que dans le cadre des deux premiers domaines cités, il y a encore des années de boulots avec des EMCCD (ici dans mon labo, on doit bien en avoir une demi douzaine).CCD1024, tu avais d'ailleurs il y a quelque années posté un graphe trés représentatifs de l'avantage des EMCCD en courte pose par rapport aux CCD classiques et aux CMOS. Dans ces domaines de temps de pose, les EMCCD sont largement imbattables (sauf peut être par les intensificateurs d'images).L'idée du canal EM est tellement séduistante que les brevets pleuvent aux US sur l'EMCMOS (par contre est-ce déjà sorti ??).Dès que l'on pose plus long par contre, les EMCCD redeviennent des CCD "classiques" voire même trés moyens et il ne sont plus compétitifs par rapport aux CMOS et sCMOS en particulier. Ce dernier sont en fait en terme de perf, au dessus des CCD.Bernard
  5. Le SCMOS nouveau (Sony) est arrivé

    en effet, c'est vraiment abordable !! @fredogoto :C'est une technologie CMOS pour laquelle l'architecture de lecture du pixel est optimisée (5 transistors au lieu de 3). Le détail sur la présentation de Thierry Midavaine au RCE 2010 sur la techno CMOS en général et sCMOS en particulier : http://www.afanet.fr/RCE/Minutes2010.aspx Les principaux avantages en plus de ceux déjà éprouvés du CMOS sont en gros : rendement quantique de l'ordre de 85 à 90%, bruit de lecture proche de 1e-, photosite de petite taille. [Ce message a été modifié par brizhell (Édité le 07-12-2011).]
  6. Le SCMOS nouveau (Sony) est arrivé

    Bonjour, l'un d'entre vous connais-t-il l'ordre de grandeur du prix ?Bernard
  7. Nouvelle Comete P/2011 W2 (Rinner)

    Salut a tous, encore un immense bravo a Claudine, mais je lui ai déjà transmis sur une liste d'utilisateur de détecteurs électronique....@Laurent : Et je pense que c'est la meme chose avec l'interférométrie des tavelures, mais je peut me tromper.Je te confirme, ce serait dommage de perdre la qualité "Grand champs" ton télescope. En interférométrie des tavelures (au T60 au pic et j'ai fait des mesures il y a peu avec Jocelyn Serot au petit équatorial de Nice), il faut travailler aux environs de 25 à 30m avec camera video rapide (pour descendre sous le temps de cohérence de la turbulence), c'est un peu une abbération de faire ca avec un télescope ouvert a 3.3, mais bon .... De plus, sur le détection d'étoile double, il faut filtrer pour avoir des tavelures lisibles, et non dispersées par le chromatisme, ce qui oblige a avoir des cameras trés sensibles (EMCCD, mais c'est pas une obligation), et surtout de cibles brillantes..... On va pas au dela de mag 11 avec le T60 et une EMCCD... Autre problème en terme de détection, c'est l'écart de mag entre les composantes de l'étoile multiple. au dela d'un delta mag de 3,5 on est un peu aux fraises.... Ca restreint la quantité de cibles. Pour ce qui est d'imager des astéroides doubles, avec 500mm, il ne doit pas y avoir beaucoup de candidats dont la séparation dépasse 0.3" d'arc, mais avec un plus gros télescope, c'est peut être un truc à tenter.....Bernard[Ce message a été modifié par brizhell (Édité le 02-12-2011).][Ce message a été modifié par brizhell (Édité le 05-12-2011).]
  8. Salut Christian.C'est absolument magnifique comme travail !!Bernard
  9. Bientôt l'optique adaptative à la portée de tous ?

    Bonjour à tous.Salut Neb.En effet, ca a l'air d'une solution interessante mais pas forcément pour des applis astro.Il me semble que l'approche optique adaptative (compensation de déformation de front d'onde) a plus d'avenir en passant par une solution de ce type : http://www.thorlabs.de/thorProduct.cfm?partNumber=AOK2-UP01 Bon, 10000 euros c'est encore extremement cher, mais ca baisse d'année en années... De plus, cette solution complète comportant un shack Hartmann, un miroir déformable 32 actuateurs, et le soft de boucle d'asservissement du miroir sur l'image de la PSF, n'est pas forcément adapté a des télescopes de petits diamètres (pour des raisons notament de structure de déformations du front d'onde pour des diamètres "petits").Pour la solution logicielle (AIDA), on a continué a travailler dessus avec Jean Luc, et on a de bons voire trés bons résultats (au 1m, autant que sur petits diamètre). On touche maintenant aux limites non plus de la résolutions en terme de tache d'Airy, mais bien en terme d'échantillonnage. Le début etait sur le post http://www.astrosurf.com/ubb/Forum2/HTML/036639.html On a des choses interessantes sur les images parfaites du 1m, on est en train de vérifier que la forme d'une PSF altérée par un défaut optique puisse être compensée par le même algo (Philippe, si tu nous lit, poste tes PSF au C14 ;-))Bernard
  10. > La "si petite étoile" était quand même Vega!Ah bon, Véga ne peut pas être sous échantillonnée, avec la MAP faite parcequ'elle est brillante ?Mathématiquement il y a un truc rigolo qui s'appèle le théorème de Nyquist-Shannon. Il porte sur l'échantillonnage. Son résultat est que si l'on ne peut avoir suffisament d'information spatiale sur la taille de la tache d'Airy (ce qui est le cas quand on sous échantillonne), on en peut plus calculer la largeur a mi hauteur....Et le fait que ce soit Véga ou une étoile de mag28 au hst ne change rien à l'affaire .....Bernard
  11. Pic du Midi 2011, le retour :)

    Salut neb, Un peu que je suis preneur, je t'ecrit sur ton mailBernard
  12. Pic du Midi 2011, le retour :)

    Ces Satellites de Jupiter.... C'est monstrueux
  13. Salut ms, >Tu pourrait recalculer une PSF à partir : - des déformations du disque de la planète ou - de l'image d'un de ses satellites.Déformation du disque de la planète, j'ai peur que non, la turbulence a cette échelle (quelques dizaines de secondes d'arc) est plus de l'ordre des variations d'isoplanétisme que de celui de fluctuation de forme de la psf (qui elles est eux environ de la seconde).Sur l'image d'un des satellites, ce serait plus vraisemblable, j'ai d'ailleurs du grain a moudre sur des vieilles Saturne (et bientot j'esoère des Jupiter au C14 d'un fil de la galerie d'image), mais je ne dit rien tant que je n'ai pas de résultats concrets.....>Je trouve qu'Aida est bien adapté à des objets comme M57 car la PSF est accessible dans chaque image à partir du champ d'étoiles, ce qui permet d'avoir une PSF par image. Le problème c'est juste le temps de calcul.La aussi, j'ai des choses à traiter. J'ai pas mouliné sur AIDA les videos de mes premiers tests en EMCCD sur M57 et M27 au T60. Par contre on voit parfaitement sur ces images que outre les abbérrations de l'optique, se rajoute une déformation locale de la forme de la psf sur chaque étoiles du champs. C'est a la fois l'anisoplanétisme et les tavelures (600mm c'est trop gros comme télescope En fait je commence juste Et comme tu dit, c'est gourmand en temps de calcul (j'en suis toujours à 24 images/heures.....). @Eric, merci, en effet la première conséquence c'est de ne pas avoir (ou peu) d'artéfact type rebond. La PSF théorique est certes proches d'une PSF expérimentale mais l'idéal est une PSF statique instantannée. Comme ce n'est jamais acessible (ou alors faut avoir des cam sensible et rapide ainsi qu'une étoile dans le champs), la seule solution est d'avoir plein d'images de l'objet stables ou la psf est constante. Après on interpole, ou on utilise une psf expérimentale statique acquise avec le même télescope sur une autre étoile. C'est justement le but de la suite des traitements que j'expérimente.Bernard
  14. Bonsoir, Lors d'un premier travail, il y a 2 ans, consistant à visualiser la turbulence au T60 du pic et sur un SC de 200mm (http://brizhell.org/Voir_La_Turbulence.htm), j'avais trouvé une algorithme professionnel de déconvolution en licence publique, dénommé AIDA (Astronomical Imaging Deconvolution Algorithm) utilisé en imagerie scientifique (Astronomie, Biologie), et basé sur l'idée de restaurer l'image d'un objet en connaissant la réponse optique du système d'imagerie. Le sujet a longuement été débattu sur le post http://www.astrosurf.com/ubb/Forum2/HTML/036240.html mais ayant de multiples projets en cours, j'avais laissé AIDA de coté depuis un bout de temps. M'y étant remis, je pense commencer à sortir des choses qui tiennent la route. Avec Jean Luc Dauvergne, pour s'attaquer au problème, nous avons décidé de travailler sur une séquence video de Jupiter qu'il a obtenu le 5 juillet 2008 à 2h41 HL avec un Newton D=150 f/5 + powermate 5x. La camera est, sauf erreur une DMK, et pour comparaison, Jean Luc m'a aussi fait passer une image réalisée par Anthony Wesley, image aquise à quelques heures d'intervalle. A Gauche L'image de Wesley, le jour de l'acquisition. A milieu, mon premier jet d'ondelettes modérées, a droite, un traitement sérieux de quelq'un qui sait faire des ondelettes, merci Jean Luc.Le principe de base du traitement est le suivant, la justification du choix de ces étapes est décrite plus bas : Recentrage global => Déconvolution => Démorphing => AdditionAprès quoi, les réhaussement de détails de type Ondelettes ou autres traitements peuvent parler ... En effet, il ne faut pas se tromper, Aida est un outil de restaurations de détails à l'échelle de la psf, et non pas comme c'est le cas pour laplupart des traitements classiques, un algo de réhaussement des contrastes de détails de l'image.La même comparaison, cette fois ci sur différentes méthodes : A gauche toujours l'image de Wesley, mais sur la première ligne à droite, un traitement shift&add classique suivi d'ondelettes. deuxième ligne a droite, le traitement en déconvolution/demorphing suivi d'ondelettes Voici une petite planche comparative de traitements différents de l'avi : Jean Luc à osé l'utilisation de Focus Magic en post traitement, mais ne connaissant pas l'opération exacte, je ne sais quoi en dire. Ca semble un traitement plutot dur, mais la dynamique de l'image brute est telle qu'il devient difficile de lisser le traitement aux ondelettes de manière homogène entre le shift and add et la déconvolution. Dans tout ces traitements les ondelettes sont identiques sur les 2 images traitées.La différence est vraiement marquée sur les compositage bruts après déconvolutions et démorphing sur chaque images. Colonne de gauche, compositage classique sans déconvolutions 200 images en haut, 500 en bas. Colonne de droite, la même chose, mais avec passage en déconvolution/demorphing. Le principe de la déconvolution paraît simple, mais est diablement compliqué à mettre en oeuvre si on veut faire quelque chose de techniquement correct. Ici la PSF utilisée est une fonction d'Airy dont les dimensions et la dynamique sont extrapolées aux conditions de prise de vue.L'image d'un objet I(x,y) peut s'écrire comme la convolution d'une fonction objet O(x,y), par la fonction de transfert optique du système d'imagerie H(x,y). Ces trois fonctions dépendent du temps. Il est donc nécessaire, de travailler sur des images acquises lorsque la turbulence est "Figée", c'est à dire avec des temps de poses suffisament court pour que la turbulence soit bloquée dans un état stable. La déconvolution doit donc intervenir sur chacune des images d'une vidéo acquise avec des temps de pose trés court, et une psf correspondant à l'image traitée. L'idéal est d'avoir une PSF par image, mais c'est rarement possible en planétaire... Donc la seule issue est d'avoir des images suffisament stables sur l'ensemble de la video pour considérer la PSF constante. On peut ensuite procéder a la déconvolution sur chaque image avec la même PSF.La turbulence se décompose en plusieurs phénomènes qui peuvent être considérés comme quasi indépendants (car liés par un facteur d'échelle) les uns des autres :-La composante de tip-tilt, entrainant le déplacement de l'ensemble de l'image -La déformation de la PSF (Point Spread Function, réponse optique de la combinaison télescope/atmosphère) -La fluctuation de l'angle d'isoplanétisme, qui déforme localement l'image lorsque la taille de l'objet dépasse quelques dizaines de secondes (c'est, en gros, les fluctuations de formes que l'on observe sur les images lunaires ou solaires) Cet angle d'isoplanétisme est la dimension sur l'image, au sein de laquelle la PSF (voir en dessous) est considérée constante. * Le tip/tilt etant une déplacement global de l'image, un recentrage (registration) permet de compenser cet effet. * La déformation de la PSF est dût principalement à l'effet de tavelures. Un telescope d'un diamètre donné D, ne produit pas une tache d'Airy (équivalent de la PSF) dont la dimension correspond à 1.22.lambda/D, mais à 1.22.lambda/R0, ou R0 est le diamètre de ce que l'on appelle la tache de Fried, zone de turbulence à l'entrée du telescope, et pour laquelle la déformation de front d'onde est minimale (le front d'onde plan avant l'entrée dans l'atmosphère est "bosselé" par la turbulence atmosphérique). R0 (50mm en moyenne dans les très bon sites en plaine) est quasiment toujours inférieure à D, ce qui veut dire la PSF observée est plus large que la PSF théorique. Sur chaque image d'une séquence video, on a donc une PSF qui est constituée d'un ensemble de petits grains de taille 1.22.lambda/D mais repetés n fois jusqu'à obtenir une largeur a mi hauteur de la PSF observée de taille 1.22.lambda/R0. Or la subtilité dans la détermination de la PSF pour pouvoir faire une déconvolution, est de se placer dans des conditions ou R0 tend vers D (la PSF se rapproche d'une tache d'Airy). Soit on réduit D (donc ca marche mieux pour des petits télescope), soit on sélectionne les meilleures images de la video (celles ou R0 tend vers D). On peut voir en bas de ma page sur la visualisation de la turbulence, sur les animations comparées entre le T60 et un LX200 8 pouces, que la PSF devient quasi constante dans le cas du 8 pouces. * La fluctuation d'isoplanétisme (si l'on se place dans le cas d'une PSF quasi constante sur la video), c'est le décalage local sur l'image, des détails de petites dimensions. Pour compenser cet effet, il faut considérer une image la moins déformée possible, et recentrer chaque détails par rapport à leurs position sur l'image de référence. C'est un recentrage multipoint que l'on peut qualifier de "Démorphing". On a procédé ici avec Registax6L'idée de la démarche est donc pour obtenir des compositages propres : Recentrage global => Déconvolution => Démorphing => AdditionAprès, les réhaussement de détails de type Ondelettes ou autres traitements peuvent parler ...Le prétraitement est le suivant : Sur une video brute, on commence donc par selectionner et trier (je l'ai fait ici via Iris), les images de la séquence, de la meilleure à la moins bonne. La première image de la sélection servira ainsi de référence pour les étapes précédent (registration) et suivant la déconvolution (demorphing). La compensation du tip/tilt peut être attaquée en faisant une registration de toutes les images de la séquence. Toutes les images sont globalement recentrées sur l'image de référence. On a fait ca sous Iris Ensuite un fenêtrage des images de la séquence permet de réduire le temps de calcul pour chaque déconvolution (plus l'image est grande, plus c'est long....) Puis suis la calcule de la PSF la plus vraissemblable pour demarrer le calcul. On lance la déconvolution de la séquence, puis un passage en registax6 et la fonction d'alignement multipoint permet de compenser partiellement le problème de l'isoplanétisme. On peut ensuite procéder à l'addition et aux traitements plus classiques.Voila, c'est un début, mais je pense qu'il peut y avoir une suite. En effet, le traitement de séquences videos stables, mais avec une PSF entachée d'abbération optique (coma, trefoil et autres joyeuseté) devrait améliorer le résultats.Toutes idées et commentaires pour améliorer l'utilisation de cet algo seront les bienvenus.Bernard[Ce message a été modifié par brizhell (Édité le 21-10-2011).]
  15. Pic du Midi 2011, le retour :)

    Salut Jean Luc, Desolé pour le leger HS, mais c'est pour la bonne cause....suis en train de négocier ca avec mon hébergeur perso (l'ingé info de mon labo qui fait de l'hébergement de sites chez lui, dont le mien). Il peut potentiellement monter un compte a 10Go, en sftp (ftp sécurisé), et déclarer quelques personnes pour y accéder en upload. Le seul risque c'est que ca risque d'effondrer sa bande passante.... Mais question taille, ca lui pose aucun problème.Il peut pas faire ca avant demain soir par contre.Te tiens au courant en "off"Bernard [Ce message a été modifié par brizhell (Édité le 20-10-2011).]
  16. Pic du Midi 2011, le retour :)

    Salut Philippe, En effet, suis interessé, je viens de boucler avec Jean luc une première tentative sur un traitement un peu original, mais un tantinet "touchy".Comme ca cause de tavelures et PSF, ca reste dans mes cordes On y est allé un peu fort mais ca reste prometteur. Premier résultats ici en bas de page : http://www.astrosurf.com/ubb/Forum2/HTML/036240-4.html suis interessé pour 2 choses : tes PSF sont réelles, donc si tu a du trefoil, on pense raisonnablement que ce type de traitement peut en compenser une partie.Secondo, ca pourrait être pas mal pour tes couches bleue...Si tu sais jouer avec un site FTP, je te passe un login et un mot de passe sur une adresse et tu y dépose tes fichiers.A+BernardPS : Salut Neb, te leurre pas, suis malheureusement pas un softeux.... Suis physicien....
  17. Correction de la turbu par PSF.

    Salut ms.En effet, la language est puissant mais pour du traitement à postériori....Je ne connais pas Cython, mais si il s'agit des bibliothèques pythons compilées en C, ca doit valoir le coup. En tout cas l'idée sur le CP semble vraiment intéressante.Pour revenir au planétaire, je vais essayer de poster ci-dessous les premiers résultats sur une vidéo adaptée au problème (c'est la première fois que je poste une image...). Il s'agit d'une jupiter acquise en 2008 par Jean Luc, avec un Newton 150/750 et une barlow x5. La démarche est Registration => Deconvolution => Demorphing => Additions. Donc voici les brutes : Explications : Colonne de gauche, le shift and add classique à 200 images (ligne du haut) et 500 images (ligne du bas). Colonne de droite, la séquence de traitement citée précédemment, à 200 images (en haut) et 500 images en bas.Sur cette base, n'étant pas expert en manipulation des ondellettes, j'ai demandé a Jean Luc de passer un coup d'ondelettes identiques sur les 2 séries (brutes et déconvoluées/demorphées).Résultat sur 500 images : Il me semble que ca laisse appaître pas mal de chose pour un télescope de 150mm...Jean Luc à rajouté une couche en tentant un FocusMagic en plus : Ca semble prometteur. De plus, sur les détails présents dans l'image traité, il y a une comparaison possible avec une image de Wesley prise à la même date. Je pense ouvrir une autre post pour décrire les choix qui amènent à ce type de traitement.Bernard[Ce message a été modifié par brizhell (Édité le 20-10-2011).][Ce message a été modifié par brizhell (Édité le 20-10-2011).]
  18. Pic du Midi 2011, le retour :)

    Wow !!!APOD ?
  19. Correction de la turbu par PSF.

    Salut Neb, les settings sont ceux d'origine (convolution type 'myopic'), avec les noms de mes fichiers, pas de modif supplémentaires. Les settings de Formats et autres joyeusetés, ne pas y toucher. Après quelques essais, on voit que l'on diverge facilement sur certains critères (convergence PCG par exemple). La subtilité reste dans le travail d'une PSF cohérente aux conditions d'observation.Le seul apport est celui d'un fichier bash qui permet de traiter les images par lots. Mais le bash linux n'est pas le dos... Donc ca risque de ne pas t'être utile.Bernard[Ce message a été modifié par brizhell (Édité le 18-10-2011).]
  20. Correction de la turbu par PSF.

    Salut Jean Luc, suis preneur des PSF réelles de Philippe, ainsi que d'une video faite avec le même instrument,surtout pour voir si le tréfoil peut être compensé. Les videos que tu m'a fait passer fonctionnent bien avec une PSF "quasi parfaite". Le traitement des séquences video avec AIDA fonctionne trés bien, mais c'est lent. Environ 24 images traitées par heure ....A+Bernard
  21. Pic du Midi 2011, le retour :)

    Gasp !!!!!!!Comme disait l'héroine d'un film que j'adore (Jodie Foster dans "Contact") : "il n'y a pas de mots........................"Ca c'est du tres tres grand Pic !!!!Bravo à vous troisBernard
  22. Pic du Midi 2011, le retour :)

    De plus en plus beau les gars !!Salut Neb, Sans trop polluer ce superbe post avec de la technique, >JL, tu n'aurais pas fait un ptitavi de PSF, une fois, quand même ? Aida m'a dit qu'elle préférait les naturelles aux godsAttention, la PSF du T1M est dominée par le bruit de tavelures, donc un avi de psf sous corrigera l'image en déconvolution.Par contre sur le tube de Philippe, ca peut le faire. J'ai de bon résultats sur AIDA + Demorphing sur un petit telescope, publication bientôt.>Et elle prend son temps, sur mon bicore à 1.67 GHz c'est 35 min de traitement par prise Tu a un pb sur les process en cours sur ton PC, mon DELL dual core 1,6GHz met moins de 2 minutes par déconvolution myope...En tout cas chapeau pour les 3 mousquetaires au sommet, ca déchire ...Bernard
  23. Pic du Midi 2011, le retour :)

    Je parlais de la cam utilisée pour m76 ?
  24. Pic du Midi 2011, le retour :)

    Vraiment hallucinant.....La dernière Jupiter autant que la M76...... La cam, c'est la sCMOS ?En tout cas bon ciel et bonne continuation la haut... Bernard
  25. Correction de la turbu par PSF.

    Salut a tous, Neb : >Pourrait-on tirer quelque chose de la fonction "Autocorr" de la suite BiaRam?Je ne connais pas BiaRam, mais a priori, et sauf erreur de ma part, non. L'autocorrélation d'une image planétaire par exemple n'a pas grand chose a voir avec l'autocorrélation d'une onde plane dans la pupille (qui permet d'obtenir la psf). Je m'explique. Cette propriété d'autocorrélation que tu cite plus haut dans ton post (p2) est valable uniquement quand tu fait l'image d'une source ponctuelle, a savoir une étoile.=> La mesure du rayon de la PSF gaussienne découle du spectre ou de la fonction d'autocorrélation de l'image de départ.Le spectre, c'est la FFT de l'image (eh oui, faire des FFT c'est faire de la spectro des fréquences spatiales de l'image :-). La PSF est la FFT de l'onde dans la pupille, et aussi l'autocorrélation de l'amplitude de cette onde dans cette pupille, mais pour une onde issue d'une seul et même point non résolu !!! Pour une image planétaire par exemple, chaque point de la surface va générer une onde qui va interagir avec celle du point voisin, etc, le tout intégré sur toute la surface de l'objet. Donc à mon avis, sauf a trouver une solution pour séparer la contribution de l'onde issue de chaque point de la surface de l'objet, ca ne marche pas.ms : >J'ai commencé à m'intéresser à ce problème suite au post d'Emmanuel sur l'optique adaptative. A l'époque, j'étais parti de l'idée d'une PSF obtenue par apprentissage. De mémoire, Emmanuel avait émis l'idée d'utiliser un réseau de neurones pour traiter rapidement les images. Je reprend son idée mais uniquement pour extraire la PSF.J'avais suivi ce post de près, mais certains point me dérangaient dans le traitement. En effet, pourquoi chercher un apprentissage sur une fonction qui est par définition aléatoire (donc à comportement fortemement chaotique?) Ne vaut-il mieux pas essayer de mesurer simultanément et simplement la vraie PSF ? La PSF se décompose en 2 contributions : une statique, et une evoluant dans le temps. La contribution statique, on peut l'obtenir en moyennant le résultat d'une image d'étoile dans le temps (voir ma page http://brizhell.org/Voir_La_Turbulence.htm, sans aller jusqu'au calcul, on peut voir la PSF sur les images rencentrées et compositées). On utilise pour cela le fait que la moyenne d'un bruit est toujours nulle. La contribution dynamique, c'est à dire celle qui évolue dans le temps, ben c'est la que ca coince.... A priori, si le télescope est petit, la seule chose qui se passe c'est que la tache d'airy se déplace, et la turbu se résume principalement à du tip/tilt. Donc un recentrage entre les images suffit. Avec un tube plus gros, on fait appraître des tavelures. La, le traitement et l'acquisition sont plus costaud (mais pas impossibles). Je suis en train de fouiller les solutions de calcul d'intercorrélation entre une image et l'image suivante, le long d'une séquence pour voir si l'on peut jouer sur le facteur évolutif de la turbulence mesurée.>Concrètement (nébuleuses type M57, NGC40), j'enregistre avec 2 cameras : a) la PSF tous les secondes (lunette de 80mm à f/15), b) l'image toutes les 10 secondes (SC de 280mm à f/10). J'utilise AIDA pour traiter l'image quand celle-ci entre dans la bonne plage de seeing (inférieur à 3" par exemple). A la fin, je composite toutes les images et j'applique un algorithme de mise en relief (ondelettes ou autre à définir).Super démarche en effet ! Apparament, le profil de la turbulence sur 2 instruments en parallèles, devrait être assez cohérent (je viens de remonter mon installation, et je compte faire un test en imagerie rapide avec mon vieux LX200 8 pouces, et un etx90 placé juste au dessus). Après, en utilisant le même trig de les 2 cameras, je verrai si je peut voir si les 2 psf sont semblables (et non identique vu les différences optiques). Aida doit en effet s'utiliser sur les images individuelles. Mais j'ai un peu peur que la partie non statique de la turbu, celle qui provoque la dilution de l'image, soit difficile à contourner.Dans tout les cas, je suis curieux et impatient que tu nous fasse part de ces résultats.Après, il y a la limite de l'isoplanétisme qui va être limitant. On avait travaillé, mais pas encore publié avec JLD sur une démarche approchante, purement numérique en CP au 1M, mais faut que je rédige ca sérieusement on en recausera quand ce sera prêt.>Cela permet par exemple d'utiliser une camera CCD classique pour faire du planétaire et de se passer d'une couteuse EMCCD. Heu, si j'avais pas eu la chance de me la faire prêter via mon labo, je ne pense pas que j'aurais pu m'offrir un tel jouet.... Mais j'ai encore des manips amusantes a tester avec...Bernard [Ce message a été modifié par brizhell (Édité le 03-10-2011).]