brizhell

Membre
  • Compteur de contenus

    2 261
  • Inscription

  • Dernière visite

  • Jours gagnés

    1
  • Last Connexion

    Soon available - 46759

Tout ce qui a été posté par brizhell

  1. la fin du Cmos?

    Une autre technologie émergente, compatible à la techno CMOS et au niveau de la sensibilité des EMCCD : http://www.nature.com/nnano/journal/v8/n7/full/nnano.2013.100.html#ref14 Si le chiffre sur la sensibilité est exact (880A/W à 561nm), ca met un facteur 100 dans la vue des matrices au graphène....Ca bouge beaucoup en ce moment les nanotech...
  2. Salut ms.Ben c'est bien ce que j'ai dit plus haut.... Mais la question porte sur la turbulence, le F/D et l'influence de la combinaison de deux sur la MAP, donc j'essaie de répondre, avec ce que j'en sais, sur ces quantités.De plus, avec l'imagerie rapide, autant que pour de l'observation visuelle, se limiter en diamètre à la valeur du r0 moyenné sur plusieurs secondes (*3,5 à *6) perd son sens. Même dans un site pourri (r0 moyen à 40mm), on peut avoir de la chance (d'ou le terme de lucky imaging), et avoir quelques images planétaires en courte pose ou le r0 explose... Mais ca on en a déjà discuté.Bernard
  3. la fin du Cmos?

    Heu...Je corrige c'est rendement quantique résultant, soit alpha*QE= 1600%. Le QE c'est la quantité de génération d'électrons primaires avant les facteur de multiplication.Le QE est une grandeur en soi qui est bien représentative de l'impact primaire des photons sur le matériau et de leur conversion en électrons...Bernard
  4. Salut @Vincent, je répond vite, car peu de temps ce soir, mais a mon sens, il faut distinguer le F/D du primaire et le F/D résultant avec système de grandissement. C'est le F/D résultant qui compte au final. J'y reviendrai, ca se démontre avec quelques calculs... Mais en résumé, oui, si r0 se rapproche de D, la composante principale est une composante de Tip/Tilt. Bon, le pépin, c'est que statistiquement, un r0 de 400mm, c'est plus rare qu'un r0 de 60mm.... Il y a une publi ou il est démontré qu'au dessous de 250/300mm, on n'est sensible principalement qu'au tip/tilt (mais je l'ai pas sous la main).@Maire, C'etait en effet prospectif en 1978, sur la base de travaux encore plus ancien (Hufnagel 1966), mais depuis il y a eu pas mal de chose de faites, et notament des diagrammes qui pouraient t'interesser ici : Pour les pros : http://www.ast.cam.ac.uk/research/instrumentation.surveys.and.projects/lucky.imaging/lucky.imaging.methods http://www.ast.cam.ac.uk/research/instrumentation.surveys.and.projects/lucky.imaging/latest.results/very.low.mass.binaries La base de la méthode ici : http://www.ast.cam.ac.uk/research/lucky Dans l'article sur les very low mass binaries, on trouves des diagrammes de fwhm en fonction du taux de sélection d'images d'une séquence. C'est très instructif.Pour les amateurs (Cavadore et Legault) : http://www.astrosurf.com/cavadore/optique/turbulence/ Ce n'est donc plus uniquement du calcul, c'est expérimentalement vérifiable. Comme la turbulence est un truc qui me turlupine depuis un petit moment, je m'y suis mis aussi, mais j'en reparlerai plus tard (j'en avait déjà causé dans un autre post).AmicalementBernard
  5. la fin du Cmos?

    Salut, heu pas tout a fait d'accord, la particularité des nouveaux procédés de fabrications du graphène le rendent compatible avec les procédés de la microélectronique standard. En résumé, fini le temps du pelage au scotch pour fabriquer 50µm² de graphène pur. On commence a avoir des procédés fiable pour des surfaces de plusieurs mm².Comme c'est un matériau qui a des propriétés interessantes pour faire autre chose que des hamacs pour chats :-), nul doute (au vue aussi des investissement colossaux d'Intel et IBM entre autres), que ca débouchera sur des procédés fiables pour la production à plus grande échelle..... Faut se souvenir du cout du mm² de monocristal de Si à l'avènement du silicium dans les années 50. Quand on voit le prix d'un CMOS actuellement, ca laisse songeur de voir d'ici a quelques années des matrices avec des rendements quantiques de 1600% (car c'est ce que démontre cette publi).Bernard[Ce message a été modifié par brizhell (Édité le 26-06-2013).]
  6. Salut, je rejoint Maire et Asp06 sur l'aspect instrumental, sur la dépendance de la MAP au rapport d'ouverture, qui est plus critique dans un télescope ouvert (tout est dans la page de Thierry Legault), mais ce qui m'étonne, c'est que les paramètres principaux qualifiant la qualité turbulence, à la vue des publis sur le sujet, est indépendante du rapport F/D. Et cela s'explique particulièrement bien si l'on regarde comment la turbulence (et plus particulièrement la déformation du front d'onde a l'entrée sur la pupille) se décompose. La turbulence est décomposable au premier ordre par le paramètre de Fried (r0) qui représente la zone de la pupille ou la déformation est inférieure à 2pi/lambda. Cela sous tend qu'une étoile imagée dans un télescope (quel que soit son diamètre) diaphragmmée à r0 aura une image au foyer qui sera celle d'une tache d'Airy d'un télescope de diamètre r0. La turbulence et son impact sur un système d'imagerie est principalement dépendante du rapport D/r0. Or a focale résultante constante, si l'on réduit r0 au dessous de D, le rapport F/D augmente, et la tolérance à la MAP s'en trouve donc améliorée. Il existe donc plusieurs cas : r0>D (c'est le cas pour l'oeil nu), l'effet du défocus est facilement perceptible, c'est la scintillation des étoiles... Le front d'onde est courbé a la manière de l'ajout d'une lentille convergente ou divergente devant la pupille d'entrée (il en résulte une augmentation ou une diminution de l'intensité lumineuse dans la tache d'Airy résultante, mais pas une modification de la dimension de cette tache au foyer). Si r0 proche de D, c'est la composante de tip/tilt qui domine, et la tache d'Airy reste intègre (aucquel cas c'est le temps d'intégration de l'oeil ou de la camera CCD) qui conditionne le floutage. Si r0 <D, dans la zone de r0, le F/D augmente (je le répète, à F constant, le rapport devient F/r0). Donc la tolérance locale devient meilleure. Mais la contribution des zones entourant les zones de r0 (donc ayant une ouverture numériques équivalentes comprises entre F/r0 et F/D) impliquent un floutage local des tavelures. En résumé il semblerai en effet que la tolérance à la MAP soit défavorable aux systèmes trés ouvert, avec ce bémol que la composante de turbulence correspondant au r0 ai au contraire un effet d'augmentation de l'ouverture numérique locale et donc une augmentation de la tolérance a la map. A titre indicatif, d'ailleurs et pour aller dans le sens d'une dépendance principale de l'effet de la turbulence au rapport D/r0 ( indépendament du rapport d'ouverture), l'expression de la probabilité d'obtenir une bonne image en planétaire est démontrée sur la publi suivante : http://www.astro.gla.ac.uk/honours/labs/planetary_imaging/fried.pdf La relation (numéro 47) est donnée à la page 1657.Bernard
  7. la fin du Cmos?

    Tiens, pour dédouaner les journalistes (et la preuve que j'ai pas raconté de bêtises), la boulette viens du service de com de l'université de Singapour : http://spectrum.ieee.org/nanoclast/consumer-electronics/gadgets/graphene-image-sensor-achieves-new-level-of-light-sensitivity D'ou le risque de se contenter des communiqués de presse pour relayer une info....Bernard
  8. la fin du Cmos?

    Salut, ben ca a l'air trés sérieux au contraire. Pour les spécialistes, la publi originale est dispo ici : http://cdpt.ntu.edu.sg/Documents/ncomms%204%201811.pdf Par contre le journaliste qui à écrit l'article en français (ou celui qui a pondu l'article anglais honteusement traduit par une journaliste français) s'est franchement emballé. Je sens que je vais me faire taper sur les doigts par JLD :-).L'abstract original dit ceci : "Graphene has attracted large interest in photonic applications owing to its promising optical properties, especially its ability to absorb light over a broad wavelength range, which has lead to several studies on pure monolayer graphene-based photodetectors. However, the maximum responsivity of these photodetectors is below 10 mA/W, which significantly limits their potential for application"Ce qui veut dire que ce sont les photodétecteurs graphène actuel qui ont une sensibilité de 10mA/W. Un CCD classique avec un QE de 0.6 atteint 250mA/W. Si on suppose un QE de 1, on atteint presque 0.5A/W (tout ca dans le visible). Or leur dispositif atteint 8A/W soit "seulement" 32 fois plus qu'un CCD standart, et 16fois mieux qu'un CCD parfait. Le rapport 1000 c'est l'amélioration de sensibilité du pixel graphène.Reprenons les bases. On défini le QE comme le rapport du nombre d'électrons (ne) générés par le nombre de photons incidents (nphotons) : QE=ne/nphotons. En supposant le courant thermique négligeable, la sensibilité (Responsivity) est le rapport du courant généré vers la chaine de numérisation, sur le la puissance optique incidente : R=I/Poptique. Or le courant I est égal a ne*q/t avec q la charge de l'electron et t le temps, et de la même manière, Poptique = nphotons*h*c/(lambda*t). Avec h la constante de planck, c la vitesse de la lumière, et lambda la longueur d'onde. En bref, la relation qui lie la sensibiltié et le QE est : R=ne/nphoton*q/(h*c)/lambda. Donc en calculant les constantes R=QE*8e5*lambda avec lambda exprimé en mètres. avec cette définition, on retrouve les chiffres que j'ai annoncé précédemment.Or problème, avec un QE à 100% on atteint pas 8A/W. Dans les EMCCD, la sensibilité est augmentée en ajoutant une multiplication d'une nombre de charge. R devient : R=alpha*QE*8e5*lambda avec alpha le facteur de multiplication de charge avant conversion numérique. Sur la plupart des EMCCD on atteint un facteur de multiplication de 1000 à 2000 (j'en ai vu passer une avec un facteur 5000 il y a peu). Pour 8A/W, avec un QE entre 60% et 100%, il faut un facteur du multiplication compris entre 16 et 32 pour alpha. Seule solution, c'est le graphène qui fait la multiplication. Or cette publi confirme que c'est le cas sur du graphène pur (au moins d'un facteur 4). Et dans tout ca, y compris en ce qui concerne les EMCCD, si le bruit de lecture devient négligeable (typiquement 0.01e) c'est grace a l'augmentation de la sensibilité, pas parceque l'on améliore le bruit intrinsèque de la chaine de lecture. Desolé pour la demonstration un peu technique, mais ca m'a l'air d'être une affaire a suivre.Bernard[Ce message a été modifié par brizhell (Édité le 20-06-2013).]
  9. Machine Virtuelles et Astrophoto

    Bonjour, je ne dispose pas d'une atik et je n'utilise pas MaximDL, mais par contre, j'ai une installation pilotée en remote via VMware, et j'avais fait pour l'occasion un comparatif sur la gestion des périphériques avec virtualbox. Il y a pas photo, je n'ai aucun soucis de gestion de périphériques en VMware. Quelques détails ici : http://brizhell.org/travaux_observatoire_du_clocher.htm C'est encore en chantier, mais ca marche en remote a 500km de distance.Ma config : PC local en ubuntu avec une machine XP sous VMware. La machine XP gère Prism (ou Audela), et un LX200 plus 3 cameras (une basler, 3 webcam, et un Ite-Lente pour l'autoguidage). La prise de controle se fait en VNC via un pc distant osus unbuntu aussi. VMware est vraiment robuste, a tel point que je l'utilise aussi au niveau professionnel (pour de l'instrumentation sur manip de physique).Il faut par contre une machine locale avec un minimum de resosurces...Bernard
  10. Quelques étoiles doubles...

    Joli boulot en effet, comme tout le monde, bravo frank! un sujet délaissé et pourtant fort intéressant!Mais comme pour une fois on parle de sujet interessant je fait de la pub pour les copains dupliciste : Florent Losse : http://www.astrosurf.com/hfosaf/ Jocelyn Serot : http://www.astrosurf.com/legalet/Astro/Images_Doubles.html Myself : http://brizhell.org/Etoiles_doubles_tavelures.htm record 0"23 à battre avec un 600mm (on a triché, avec Jocelyn, on a fait ca au T60 du pic du midi)...Bernard
  11. Turbulence Seeing mètre et Lucky Imaging

    Bonjour, Dans les publis de la biblio, je n'ai pas ce type de graphe.Je viens de trouver quelque chose d'approchant (paragraphe 4.1 de la publi suivante) : http://www.noao.edu/wiyn/director/odi/SPIE_4837_50.pdf Ca repond partiellement à la question mais ce serai interessant de refaire les calculs pour des installations amateur.
  12. Bonjour, j'avais ce travail sous le coude depuis un bout de temps, je viens de finir sa mise en ligne : http://brizhell.org/physique_de_la_turbulence.htm Dans la continuité du travail que j'avais commencé (et que je poursuis) sur les speckles sur étoiles doubles, il y a quelques années, je m'etait interessé à la structure de la turbulence quand on est obligé de poser courts avec un trés faible flux. Comme j'avais envie aussi de faire le tri dans les termes que l'on voit circuler régulièrement sur la turbulence, avec parfois quelques abus, je me suis plongé dans les publis, et j'ai fait quelques expériences sur le sujet.J'ai donc essayé de dégager les bases amateur d'un scintillomètre, et d'un moniteur de seeing dérivé du DIMM pour avoir en simultané les r0, l'angle d'isoplanétisme et le temps de cohérence du tip/tilt. C'est pas encore convivial (il y a parfois un peu de math mais il suffit de sauter quelques lignes), mais ca fonctionne. J'ai essayé de mettre les videos directement sur les pages, et ca tourne bien chez moi et chez deux ou trois autres astram. A la base, j'avait déjà présenté ça aux RCE et au dernier pro/am de la rochelle, mais les présentations en ligne ne comportait pas les videos. C'est a priori reparé.Vos commentaires et critiques (car il y a certainement des choses à parfaire) sont les bienvenues.BernardPS : chonum, désolé d'avoir un peu squatté ton post, maintenant sur le seeing on peu se lacher ici...
  13. de A.B. : "Qu'on puisse ainsi connaître assez en détail ce qui advint moins d'un milliardième de milliardième de milliardième de seconde après le Big Bang, grâce à cette image qui montre pourtant l'univers 380.000 ans plus tard, est extraordinaire." Question de béotien en cosmologie : c'est vraissemblable ça ? Moi qui me plaint que l'on n'est pas capable d'avoir des prévisions météo fiables a plus de 4 jours...Ok je me tait.... Je continue a vous lire et a apprendre en silence...
  14. Turbulence Seeing mètre et Lucky Imaging

    Merci Jocelyn, En effet, les doubles ca peut mener loin ;-)@JP, c'est ajouté.Bernard
  15. Turbulence Seeing mètre et Lucky Imaging

    Salut à tous, Merci, j'esoère que ca pourra servir un peu ;-)Frederic, si par cas toi et ton épouse vous lancez sur le sujet, je peut te faire passer certianes de publis sources.Bernard
  16. Turbulence Seeing mètre et Lucky Imaging

    Bonjour, J'ai regardé attentivement, et je pense que c'est correct. Je m'explique : théta0 est la zone au sein de laquelle la fonction d'étalement est "identique". Autrement dit si les deux composantes du couple sont comprises dans cette zone, chaque composante va produire une fonction d'étalement similaire. C'est le cas pour l'image de gauche (on a 2 psf quasi identique avec une tavelure en forme de virgule au dessus). On est dans le cas ou epsilonr<théta0. Par contre, dans l'image de droite, la zone d'isoplanétisme est plus petite que la séparation du couple (epsilonr>théta0). Chaque composante va produire son propre schéma de tavelures, ici plus étalé, et ne ressemblant pas a celui de sa voisine. La superposition des 2 fonction d'étalement donne l'impression qu'elles sont confondues, mais il s'agit bien de la superposition de 2 fonctions d'étalement différents. Les 2 images sont d'ailleurs issues de la même séquence vidéo.
  17. Sondage pour un astrographe rapide

    Bon, je m'en excuse une dernière fois auprès de chonum, mais ce sera ma dernière intervention sur le seeing. Promis ;-)@Charles : Aussi belle soit l'optique et cela a déjà été discuté dans bien d'autres post, la limitation en dernier lieu c'est celle de la turbulence. Je suis bien d'accord, il faut une surface optique aux petits oignons, un correcteur de compétition, et des cameras de brutes, mais si la turbulence est pourrie, inutile d'envisager d'avoir une image propre.... Discuter de cette problématique ne relève pas seulement de vues de l'esprit (pour mémoire, le T60 au pic est un miroir a f/3.3) et je te rejoint totalement, le correcteur n'a pas été choisi au hasard. Discuter "Lucky imaging" ne perd pas tout son sens quand on parle de qualité d'images, même si ce n'est pas le sujet principal de ce post.@ms : >mais quoi qu'il en soit, c'est en testant sur des poses de 20ms, 40ms et même 2s que l'on peut se faire une idée sur la question ... et non en s'appuyant uniquement sur des publications qui diffusent depuis des années le même évangile de la turbulence selon Saint Kolmogorov. Ben justement, c'est bien ce que l'on a fait a quelques uns (Jocelyn, JLD, moi et quelques autres) depuis quelques années, et je rajoute chonum pour l'occasion avec ses 500fps à 1ms... Pour preuve (diapo 17) : http://www.afanet.fr/RCE/PresentationsRCE2010/Bernard-Tregon-Techno_emccd.pdf C'est bien suite a ces tests que l'on peut confirmer en amateur ce que les pros ont démontré et mesuré (faut pas croire qu'ils en sont resté au simple calcul), a savoir qu'a 2 secondes, il ne reste qu'une bouillie de psf et qu'il convient d'ailleurs si on veut rester rigoureux, simplement d'appeler FWHM et pas seeing longue pose (le seeing longue pose s'affranchissant du tip/tilt). Quand a Saint Kolomogorov, paix a son âme, il a peu de chose a voir avec le schmilblick sachant que la transposition aux cellules de turbulence en astro en revient a Tatarski et a Roddier (celui du test du même nom...). Au mieux subsiste un constat selon lequel le spectre de fréquence de la turbulence prévu par sa théorie ne correspond pas rigoureuesmeent a ce que l'on observe, mais c'est en tout ca susffisant pour les pros pour qu'ils continue a trvaailler avec ;-). Si ce n'etait pas le cas, tu peut mettre tout ce qui concerne les calculs de Fried à la poubelle. ;-)En dernier lieu sur le CP, lorsque j'avais prêté la Merlin Raptor à Jean Luc Dauvergne pour son article sur les EMCCD, il avait fait un test sur M13 avec un 600mm (le TJMS ouvert a 3.4). http://www.cieletespace.fr/files/InstrumentTest/201009_test_camerasEMCCD.pdf En conclusion de sont article, ont peu justement lire avec des poses de 40ms, une fwhm sur les brutes de l'ordre de 1"2. Intégrées et démorphées, sur une centaine de pose, on tombe a 1"8.... On est loin du théorique d'un 600mm...Et pour finir en répondant à chonum sur ces spec d'astrographes, ca semble trés bien pensé a mon gout, mais le cout risque d'être un peu plus élevé que 3 ou 4 keuros...Bernard
  18. Sondage pour un astrographe rapide

    @Christian, Merci ! J'espère que ce pourra servir un peu, le seeing mètre fonctionne pas mal a priori, mais fuat que je fasse un petit soft pour aller derrière.Mais j'ouvrirai un post quand j'aurais comletement terminé (me reste que la conclusion). Je m'excuse auprès de Chonum pour le coup pour avoir squatté son post, mais comme on parle de turbulence ....Un petit témoignage rapide, un collègue de boulot astram lui aussi, qui image en CP du coté de Melun, ses 2 dernières galaxies (postées sur le forum d'a coté) on des FWHM de l'ordre de 1"8 à 2m de focale sur des poses de 15 minutes...@ms>r0(mm) = 0,98 x Lambda(mm) / FWHM(rd) ? En ciel profond la valeur moyenne de r0 correspond à une pose de 2s par exemple. Autrement dit, peut-on mesurer FHWM sur l'image brute obtenue ?Oui mais non. Je m'explique. Mesurer la FWHM est toujours possible, je suppose que tu veut dire calculer un r0 moyen sur ta portion d'image. La formule que tu cite te donne justement un r0 moyen, dans le cadre d'une image longue pose, nous sommes d'accord. Mais si c'est le cas, nous ne sommes plus dans les conditions d'application des règles du Lucky imaging (j'y reviendrai pour ta deuxième question) Le relation entre FWHM et r0 n'est pas aussi triviale, comme tu peut le constater sur le lien suivant, ou sur les publis de Fried : http://www.ing.iac.es/Astronomy/development/hap/dimm.html >Deuxième étape : Peut-on appliquer la formule donnant la probabilité d'avoir une portion de "lucky image" dans la zone de mesure de FHWM ?Clairement non. La relation de probabilité établie par Fried est décrite dans sa publi originale uniquement pour des poses courtes... D.L. Fried "Probability of getting a lucky short-exposure image through turbulence" 1978,Journal of the optical society of america, Vol 68 n°12 pp. 1651-1658 C'est la que le bas blesse, le taux de dilution de la psf par les tavelures dépend du r0 (instantané) mais se superpose en plus les ordres 1 de Zerniques qui eux aussi varient dans le temps. Autrement dit, sur une pose longue, tu perd l'avantage de la connaissance du r0 (car la fonction d'étalement va bouger si tu pose plus long que le temps de cohérence) et en plus le tip/tilt va flouter l'ensemble de la PSF. C'est ce que j'ai résumé la : http://brizhell.org/physique_de_la_turbulence.htm#Vitesse%20de%20variation%20du%20Tip/tilt La valeur moyenne du r0 que tu va obtenir ne te renseigne pas sur la qualité de la turbulence au cours de la pose longue. C'est en découpant la pose longue en pose trés courtes que la loi de probabilité devient valide. En gros, c'est comme si tu faisait 10 images. 9 images ont une FWHM à 3", et la dernière à 0,7". Vera tu la différence avec 10 images à 2"6 ?? Alors qu'en Lucky imaging, c'est celle qui est a 0.7 qui et a retenir.Le problème suivant c'est le rapport signal/bruit, d'ou la nécessité d'augmenter la sensibilité. >Troisième étape : Retour sur le front d'onde (rapport D/r0 et nombre de polynômes de Zernike cumulés) voir l'applet suivante que j'applique à ma source ponctuelle http://media4.obspm.fr/public/M2R/appliquettes/speckle/speckle.html Je n'arrive pas a faire tourner l'appliquette, mais j'ai fait, je pense des simu approchante sous abberator. Toutes ces simulations sont en statique (pose courtes). Tu n'a pas d'intégrations temporelle de l'évolution de la turbulence.>Par contre si tu travailles en IR ou proche IR, tu peux retrouver un D/r0 < 7 avec le T1M par exemple ... pour le T8M ce sera l'optique adaptative. On est d'accord, mais la dépendance spectrale, c'est une autre question...[Ce message a été modifié par brizhell (Édité le 22-03-2013).]
  19. Sondage pour un astrographe rapide

    Salut, je ne partage pas tout a fait ton approche ms, le handicap principal de la méthode de reconstruction en lucky sur sélection du r0 est qu'il faut aller chercher du flux lumineux (autrement dit, quand on est en mode comptage de photon, et qu'il y a peu de photons a la source, il faut compter longtemps pour avoir suffisament de photons à lire), donc a défaut d'avoir un EMCCD, il faut de la pose. En planétaire le pb se pose moins, mais en ciel profond, une reconstruction nécessite, pour un rapport signal sur bruit donné, de poser un temps minimum qui ne garanti pas que tu es au dessus du temps de cohérence de la turbulence. Donc utiliser des poses longues (pour moi, pose longues c'est plus de quelques dizaines de ms ;-)) sous tend obligatoirement diluer la psf avec des speckles (sauf a avoir un temps de cohérence de l'ordre de la seconde, et la tu es dans l'espace). A titre informatif, je suis en train de boucler une page sur la turbulence, ou la notion de seeing longue pose (plus proche de la FWHM) est radicalement différentes de celle de seeing courte pose aucquel se rapporte la notion d'angle d'isoplanétisme et de r0. Comme le dit Christian, tu utilise des relations qui ne sont valables que pour les seeing courte pose, et ca tombe de fait si tu dépasse le temps de cohérence. Pour ceux qui ont du courage et du temps de lecture tant que la météo est mauvaise : http://brizhell.org/physique_de_la_turbulence.htm C'est une prérelease, je compte finir cette page d'ici au mois d'avril (surtout sur la finalisation du seeing mètre amateur) Faut voir les résultats des paragraphes finaux.... Désolé, mais il me reste a finir l'homogénéisatino des notations. Et pour ceux que les math rebutent, il suffit de sauter de quelques lignes pour arriver aux conclusions.Donc une sélection de type "lucky" ou le temps de pose dépasse la cohérence de turbulence perd de son interêt a cause de la dilution par les speckles.Autre argument qui me trouble, le projet DARPA (sauf erreur de ma part) ne fonctionne que pour des rapports S/N supérieurs a 1 (autrement dit quand tu a suffisament de signal pour détecter des photons de l'objet a courte poses). A courte pose, il ne me semble pas que les objets du ciel profond soit concilliant au point de se laisser détecter facilement avec 10ms de pose max. Au dela tu dilue la psf, en deça il faut augmenter la sensibilité pour tâter le shot noise.En dernier lieu, je viens de récupérer une licence matlab au boulot, je vais pouvoir jouer avec les algo de Xiang Zhu dont tu parle sur l'autre post.Bernard
  20. >Ils annoncent que l'emccd plafonne à magnitude 6. Bernard Trégon a chopé du magnitude 7,5 en plein Paris avec une EMCCD et un objectif de 35 mm, ... Et le fait que ce soit limité à mag 6 je n'y crois pas, sur la vidéo de la Voie Lactée on ne voit que des étoiles, pas la Voie Lactée elle même, alors que c'est très facile à voir avec une EMCCD. On sait tous qu'un ciel de magnitude 6 permet de la voir très bien de toute façon.Ah oui j'avais essayé ca aussi, je me rappelait plus avoir fait le test, j'avais tapé dans la Lyre, merci de me rafraichir la mémoire Jean Luc. J'avais le gain a fond, et j'avais posé long (40ms par image) Bernard
  21. J'osais pas le dire comme cela, mais j'ai failli écrire :>Ce serait interessant de savoir par quelle amélioration technologique "miraculeuse" a été obtenue cette augmentation de sensibilitéTu a parfaitement résumé ma pensée Thierry
  22. Suis en effet un peu circonspect sur l'écart entre le Tri EMCCD et ce capteur. J'ai obtenu avec un EMCCD entrée de gamme et un objectif de 3.8mm ouvert à 0.8 la mag 6 à 10ms de temps de pose. Le gain de multiplication ne me semble pas trés élevé. De plus, on voit la scintillation sur la video EMCCD alors qu'elle est absente sur les videos faites avec le nouveau capteur.Ce serait interessant de savoir par quelle amélioration technologique a été obtenue cette augmentation de sensibilité
  23. heuu... : http://fr.wikipedia.org/wiki/Amortissement_Landau http://www.planetastronomy.com/special/2012-special/02mai/Villani-IAP.htm Juste au cas ou...
  24. Salut Christian, Merci pour ces précisions. Je ne connaissait pas ce mode de fonctionnement en sélection par zone dans les softs de registrations R6, AVS et AS2. Comme je le disait plus haut, la question reste de savoir quel critère est utilisé dans la sélection de zone "nettes". En lucky imaging chez les pro a cambridge, ils utilisent la fwhm des étoiles de la zone. Il y a d'autre méthodes comme tu le précise, mais ce qui n'est pas clair dans les publis de Xiang Zhu c'est la manière de procéder à cette sélection par zone.Salut chonum> Donc parler de Near diffraction image quand on ne traite que la déformation des tilts, c'est un peu léger.Sans prendre la défense gratuite de cette méthode (suis encore a me casser la tête pour comprendre le code), la Near diffraction image est post sélection des patch, elle ne s'arrête visiblement pas après le démorphing. C'est justement la rigidité du critère de sélection qui défini si l'on se rapproche de la psf théorique ou pas dans chaque zone et qui rendrait cette méthode interessante ou pas (enfin a mon avis).> Regardez la vidéo d'une double faite par Jocelyn récemment et vous verrez qu'on est surtout en présence de speckles, donc en plus d'ordres élevés...Ben justement, c'est pas si simple, je pourrait te montrer des séquences de doubles que l'on a faite ensemble avec Jocelyn, sur lesquelles tu a plus de tilt ou de morphing que de speckles. C'est tellement dépendant du D/r0 ...Tiens, j'ai jamais essayé des séquences de doubles serrées sous registax... Vais voir ca ce WE...