Hercules78

Member
  • Content count

    80
  • Joined

  • Last visited

    Never

Everything posted by Hercules78

  1. Le mode P (Program) est intéressant car automatique, permet le RAW et on peut retoucher le choix en tournant la molette. Sinon les modes semi-automatiques Av (priorité à l'ouverture) et Tv (priotité au temps de pose) sont aussi intéressants mais il y a toujours le risque d'être en dehors de ce qui est possible et donc de devoir retoucher et de laisser passer une belle prise de vue. Pour travailler au flash en lumière faible je conseille la méthode ci-dessus. Pour plus d'infos sur la photo au réflex, va voir canon enjoy dslr
  2. Tu peux le faire en manuel, il suffit justement de te mettre en mode manuel et choisir ton temps de pose et ouverture. Pour calculer une exposition, tu fixes la sensibilité ISO et un temps de pose donne une ouverture et réciproquement. Sauf si tu ajoutes un paramètre qui est le flash ! En effet ton boîtier sait gérer la puissance du flash(système TTL). Tu peux essayer en manuel plusieurs temps de pose différents et tu verras la différence. En gros si tu veux un bon "fill-in" (mélanger la lumière ambiante et celle du flah) en ambiance sombre tu vas choisir un ISO 400, ouvrir au moins à 5.6-4.5 et un temps de pose de 1/20-1/15s. Tu vérifies que tu es sous-ex et quand tu prends la photo, le flash va juste compenser la lumière qui manque. Un conseil, évite le flash intégré qui peut tout juste déboucher les ombres en contre-jour en extérieur, achètes un flash cobra avec un diffuseur, le résultat est magnifique. Si tu veux quand même utiliser le flash intégré, je te conseille de le sous-exposer d'1/3 Ev, car il a tendance à surexposer et à faire du "fromage blanc".
  3. 40 D et objectif 17/55 FD 2,8

    Il y a un post sur eos-numerique en ce qui concerne "les poussières" qui apparaissent dans l'objectif, apparemment c'est un défaut de la première série de cet objectif, mais Canon considère que ça n'affecte pas la qualité d'image, donc ne propose rien.
  4. pixels morts sur DM31

    octintin, pixels morts ou chauds ? Si les pixels chauds ne saturent pas, ils vont partir à la correction par dark/flat et ne sont donc pas génants.Sur mon 350D, pose de 10 minutes à ISO 1600 à t° ambiante, les pixels chauds arrivent à peu près à la moitié de la dynamique.
  5. Quelqu'un connait il ce truc ?

    Chez conrad, il y a même un 114/900 sur monture équatoriale (non motorisé quand même) à 109,90€ !!! D'ailleurs cet instrument à des caractéristiques intéressantes : Ø de l'objectif : 900 mm. Distance focale : 114 mm, ça fait un f/d de 0.13, qui dit mieux ?Est-ce que c'est contractuel ce genre de caractéristiques ? Si je commande, est-ce que je peux exiger un miroir de 900mm ?
  6. Quelqu'un connait il ce truc ?

    Pas de caractéristique, ni ouverture, ni focale, ni focale des oculaires, ni même de grossissement, ça en dit long...
  7. Je viens de me rendre compte que l'on ne peut pas envoyer de message privé sur ce forum, désolé !Pour me contecter en privé : hh78 at hotmail dot fr
  8. Je vous explique en gros mon idée. Ca fait pas mal de temps que j'imagine un système de prise de vue avec des micro-lentilles convergentes devant un capteur, sur le même principe qu'un shark-hartmann. Un tel système placé au foyer d'un système optique fait que chaque pixel du capteur "voit" une petite partie de la pupille du système sous un certain angle. Si chaque micro-lentille se projette sur nxn pixels, on peut extraire nxn images dont chacune est l'image qu'aurait un "pinhole" correspondant à une petite partie de la pupille sans les problèmes de diffraction du "pinhole" A partir de là il suffit de sommer ces sous-images pour avoir une image correspondant à toute la pupille. Quel est donc l'intérêt dans ce cas ? En photo il est possible d'appliquer un décallage différent entre les sous-images pour changer la distance de mise au point, on peut donc s'affranchir des problèmes de mise au point et même de profondeur de champ. En astro tout est à l'infini mais il y a quand même des aberrations optiques qui pouraient être corrigée numériquement et surtout l'influence de la turbulence atmosphérique ! Voilà, j'imagine donc un système où l'on ferait une vidéo très rapide (au moins 100 images par seconde, voire plus) et où l'on estimerait sur les étoiles les plus brillantes la PSF induite par la turbulence et ensuite on reconstruirait une image corrigée et l'on sommerait toutes les images. En gros c'est l'équivalent d'une optique adaptative mais en numérique et surtout l'estimation se fait à postériori et pas à priori sur une partie de la lumière que l'on ponctionne pour la mesure de front d'onde. J'ai regardé un peu où trouver des réseaux de micro-lentilles, réputés encore très chers et j'ai quand même trouvé ceci Microlens Array Nr. 11-9901-101-000 à 75€. Evidemment si chaque micro-lentille mesure 100 micron et que le capteur fait 5x5mm, ça ne fait guère que 50x50 pixels pour l'image finale, mais chaque pixel (final) pourrait être de la taille de la tache de diffraction de l'optique ! Il est peut-être possible de faire de la sur-résolution x2 ou x4 (certainement pas plus), ce qui ferait 100x100 ou 200x200 pixels. Il faudrait donc imaginer un système "scalable" ou l'on puisse mettre des capteurs les uns à côtés des autres pour avoir un champ un peu plus grand. Bien sûr l'autoguidage se fait facilement directement sur les images du capteur et les défauts de guidage se corrigent facilement numériquement.Sachant que je n'ai ni les compétances ni les moyens de réaliser un tel astrographe, je voudrais essayer de réunir toutes les compétances et les fonds pour le fabriquer.Si je peux réunir 10 à 15 personnes dans les domaines suivants: -Conception optique -Réalisation optique -Conception mécanique -Réalisation mécanique -Electronique et en particulier avec des compétances concernant les cameras -Informatique -Traitement d'images Et que chacun peut y mettre un peu d'argent, il serait peut-être possible de fabriquer un tel engin et ensuite partager l'utilisation de l'astrographe et la propriété intellectuelle qui pourrait en résulter.Quelques informations me concernant : j'habite Saint-Germain en Laye (78), je suis informaticien de profession et je travaille depuis 15 ans dans l'imagerie numérique et le traitement d'images et je suis dans la photographie numérique depuis plus de 3 ans. Je me sens donc capable de prendre en charge les aspects informatiques et traitement d'images mais d'autres conpétances similaires seront les bienvenues. Je suis un peu astronome mais j'ai trop peu de temps à y consacrer (vie de famille). Je peux travailler sur le projet dans les transports en commun (j'arrive à me dégager 30 à 45 minutes d'heure par jour sur 1h15 au total) ainsi que le soir plutôt que de regarder la télé. Je veux bien y mettre quelque centaines d'euros, voire un peu plus (100 euro par mois pendant un an par exemple).Voici les grandes étapes que je vois: -Spécification de l'astrographe, design optique, conception mécanique, choix des composants électronique et des moyens de calcul -Estimation du budget -Création d'une association -Levée des fonds, chacun apportera ce qu'il pourra ou voudra -Achat du matériel -Réalisation de l'astrographe, de la camera et du logiciel Dans un deuxième temps on peut envisager de créer plusieurs caméras pour avoir un champ un peu plus étendu, ainsi que que de faire du tri-CCD pour la couleur.Tout ceci pourrait d'ailleurs se faire au sein d'un club déjà existant. Que tous ceux qui ont envie de participer, que ça soit par leurs compétances, conseils ou financièrement, contactez-moi en MP.
  9. OK Pulsar 67, bienvenue. Pour l'instant je veux réunir les compétences puis faire des specs et en déduire un budget. Ca s'arrêtera peut-être à ce moment là... Mais je pense que l'aventure humaine et tout ce qu'on pourra apprendre en vaudra de toutes façons la peine.
  10. OK Fabrice, je pensais que ça serait plus facile à comprendre mais il est vrai que j'y pense depuis pas mal de temps. Pour être honnête j'avais commencé ma réflexion en me demandant comment imager des satellites artificiels avec beaucoup de résolution : avec un temps de pose trop court, le SNR est insuffisant, si on stack les prises de vue en aveugle (en recalant quand même spatialement), on retombe sur le flou de l'atmosphère, et on ne peut pas faire de "lucky imaging" car l'objet change trop rapidement. J'ai donc pensé à cette solution, qui devrait d'ailleurs intéresser les militaires :-( En ce qui concerne les objets étendus, ça marche à conditions qu'il y ait du contraste, comme un autofocus d'appareil photo. Tu peux essayer de faire la mise au point sur une surface (vraiment très) uniforme, ton APN n'y arrivera pas. D'ailleurs une surface lumineuse uniforme infinie s'image exactement pareil quelque soit la mise au point ! En revanche si on veut capturer un objet étendu avec peu de contraste et aucune étoile dans le champ de vue, ça se complique ! Dans ce cas, on peut mettre un petit capteur supplémentaire sur une étoile ou un objet étendu contrasté proche de l'objet que l'on veut imager en supposant que l'aberration atmosphérique est la même entre l'objet mesuré et l'objet imagé (en fait les deux pourront être imagés au final).Concernant la photographie intégrale, j'aimerais que tu nous expliques ce que tu entends par là. Il me semble que la photographie de Lippmann est basée sur des interférences, comme les hologrammes, mais j'admet ne pas être compétant sur le sujet. Je me suis d'ailleurs souvent demandé comment appliquer ces procédés (holographie, Lippmann) en numérique (en lumière "naturelle", pas avec un éclairage en lumière cohérente). Est-ce que tu as des infos/idées sur ces points ?[Ce message a été modifié par Hercules78 (Édité le 13-11-2007).]
  11. Thierry, comme je l'ai indiqué plus haut tu peux te contenter de sommer les pixels de chaque micro-lentille mais il n'y a effectivement aucun intérêt à ne faire que ça. Le SNR est le même en ne prenant en compte que le bruit photonique, le bruit de lecture sera lui amplifié 10x pour 10x10 pixels.Par contre tu peux sommer tes pixels différemment. Par exemple en considérant que localement l'atmosphère se comporte comme un lentille convergente ou divergente. Dans ce cas, le plan focal va se promener devant ou derrière la capteur. Et bien dans ce cas, il suffit de sommer les pixels différemment pour retrouver une image nette. En gros tu fais un autofocus numériquement.Je vais essayer de faire un dessin mais je n'ai pas beaucoup de temps en ce moment.Alors certe on perds un peu
  12. 40 D et objectif 17/55 FD 2,8

    Si tu veux un objectif polyvalent il te faut définir les focales que tu veux et si tu veux l'IS ou pas. Le Tamron 18-250 est vraiment sympa pour ça, j'emmène à nouveau mon réflex là ou je n'emmenais plus mon sac photo avec 3 ou 4 objectifs. C'est un bon objectif mais en regardant les photos prises à pleine ouverture sur un écran à 100%, on voit quand même la différence avec un bon objectif. Par contre sur un print 10x15 tu ne verras aucune différence. Sinon tu as le Sigma 18-200 OS, je ne l'ai pas testé. Je vais voir si je peux en avoir un pour un week-end pour comparer. Si tu te contentes d'un 17-55, achètes ce magnifique objectif, très sympa pour le portrait, qui a un joli bokeh et l'IS. Ceci dit, ce post aurait plutôt sa place sur un forum photo.
  13. Thierry, ce que tu ne vois pas est que si tu peux dans une séquence video choisir quelles images sont nettes et quelles images ne le sont pas, tu peux le faire de la même façon avec ce système. En effet, je somme les 10x10 pixels et je récupère le même SNR qu'un seul photosite de la taille de la micro-lentille ! Donc je peux tout autant déterminer si mon image est nette que si j'avais mis un capteur avec des photosites de la taille de mes micro-lentilles. La différence est que si l'image n'est pas nette, je peux tester toutes les mises au point possible pour choisir la meilleure, et ce a postériori. Je peux aussi tester des modèles d'aberrations plus complexes pour trouver une image encore plus nette, je peux même y inclure les aberrations du telescope. Tout l'inconvenient du système est qu'il faudrait une grosse camera avec beaucoup de pixels ! Mais en fonction de la résolution que l'on veut atteindre, on peut peut-être commencer avec 4x4 pixels par micro-lentilles, ce qui limite la casse (8 MPixels donneraient 0.5 MPixels) Pour des professionnels, il y aurait certainement moyen de faire des gros capteurs avec des petits pixels et numériser plusieurs lignes en même temps pour "dépoter" suffisamment de frames par seconde. Est-ce que ça serait plus cher qu'un optique adaptative ? Pas sûr...[Ce message a été modifié par Hercules78 (Édité le 12-11-2007).]
  14. Ceci dit, si le stigmatisme de ta lunette est très bon sur l'axe et qu'elle a peu d'aberrations chromatiques, tu peux mettre ta source ponctuelle juste devant le foyer (vers l'objectif), tu obtiens alors un faisceau légèrement divergent. Si tu places ton télescope à une distance telle que le faisceau couvre toute son ouverture ça doit marcher, tu peux avoir l'équivalent d'une source ponctuelle à plusieurs dizaines ou centaines de mètres. Une LED très puissance derrière un sténopé (pinhole) devrait faire l'affaire.
  15. Si tu veux obtenir un faisceau collimaté, il te faut placer ta source pontuelle au foyer de ta lunette. Tu auras alors fabriqué un collimateur.Les inconvénients: -tu résupères les abérrations de ta lunette -il faut effectivement une ouverture plus grande que le système que tu veux tester ou collimater, sinon c'est comme si tu diaphragmait ton télescope.Une bille en acier éclairée, ça ne marcherait pas mieux ?
  16. Mais si a eu juste une monture équatoriale avec un seul moteur pas assez rapide pour suivre l'ISS ? J'ai fais quelques photo de l'ISS avec un sigma 600mm f/8 à main levée mais ça manque de résolution, on a juste quelques pixels. En plus elle va passer presque au zenith les 17 novembre (87°) et 19 novembre (88°) au dessus de chez moi ! Je tenterais bien des prises de vue au télescope mais je ne vois pas trop comment la suivre à part en tenant le tube à la main !
  17. 40 D et objectif 17/55 FD 2,8

    Je ne suis pas fan du 17-85 IS f/4, pas formidable, ouvre à 4 au mieux, pas donné (même si le prix à baissé). Il est sensé faire l'équivalent du 28-135 IS mais en plus cher et moins ouvert (le 28-135 ouvre à 3.5). J'ai un 28-135 IS sur un 350D, et à part le fait que ça manque de focale courte, c'est un objectif vraiment bien, bien qu'un peu gros et un peu lourd. S'il intéresse quelqu'un, je veux bien le vendre car j'ai acheté un Tamron 18-250 pour tous les jours (pas aussi bon que le 28-135) et je compte acheter un 17-55 IS f/2.8 lors d'un prochain voyage au Japon (ou sur eBay c'est presque les même prix) et j'ai déjà un 70-300 IS. En ce qui concerne le 17-55 IS f/2.8 (à toutes les focales) c'est un objectif sympa, j'en ai eu un pour un week-end, c'est donc l'équivalent du 27-88 f/4.5 (à toutes les focales) sur un capteur 24x36. Je ne sais pas si l'IS est vraiment nécessaire mais dans certains cas ça peut aider, par exemple dans un musée où l'on a pas de pied.Si c'est pour faire de l'astro, je te conseille plutôt une (ou plusieurs) focales fixes, tu auras moins d'aberrations et plus d'ouverte. Tu peux acheter un 50mm 1.4 et un sigma 30mm 1.4 pour moins cher que le 17-55 IS f/2.8
  18. Pas d'accord Fabrice. La camera sténoptique permet aussi de corriger les aberrations de l'optique et donc celles induites par l'atmosphère. Le fait de refaire la mise au point est une correction d'un type particulier d'aberration. Ca peut être très résolvant au niveau angulaire (côté objet) mais pour avoir beaucoup de pixels dans l'image finale, c'est plus chaud (ou plus cher plutôt). La photo selon Lippmann est par contre basée sur l'interférométrie et est capable d'enregistrer le spectre de la lumière, alors que la camera sténoptique fonctionne en n&b ou couleur 3 canaux classique.Là ou je veux en venir ? Simplement remplacer une optique adaptative par une correction a posteriori car on sépare les photons en fonction de leur angle d'arrivée sur le pixel, ce que ne fait pas un capteur normal
  19. Et comment suivre un satellite avec une monture équatoriale ?
  20. Est-ce que quelqu'un a déjà eu l'idée d'utiliser un système pneumatique ou hydraulique pour supporter un miroir ? Le système que j'imagine serait composé de pistons dans des cylindres avec des tiges supportant un miroir, tous les pistons seraient à la même pression pneumatique ou hydraulique et donc l'effort en chaque point de soutient du miroir serait le même. On pourrait ainsi multipliser les points d'appuis et utiliser un miroir mince. Pour un système hydraulique il y aurait quand même une différence de pression quand le miroir est penché mais pour le pneumatique ça serait négligeable.
  21. Il faut se méfier des algos de débruitage car ils font des hypothèses fortes sur le contenu de l'image (sinon comment différencier le bruit de l'information) et risquent de dégommer de l'information intéressante. Le débruitage est surtout intéressant en photo.Laissez tomber cette histoire d'aberration chromatique, ça n'a rien à voir, c'était juste un exemple. Le point que je voulais soulever est que l'idée reçue comme quoi l'aberration chromatique latérale n'est pas génante parce que c'est une variation du grossissement par rapport à la longueur d'onde est fausse. Mon exemple de faire 3 prises de vue était juste pour illustrer ce fait, mais on peut aussi faire une correction numérique sur une seule prise de vue (en photo c'est évidemment difficile de faire 3 poses et si on peut vraiment se le permettre on le fait en 3 passes avec des filtres et un capteur n&b, pas un capteur couleur)Dans le cas présent l'idée est de partir sur un télescope à miroir, donc pas de problème de chromatisme.Je sais qu'il faut un peu de temps pour digérer que l'on puisse refaire la mise au point après la prise de vue sans changer le SNR, mais il faut le voir de la façon suivante : on remplace un capteur c x l pixels où chaque pixel reçoit des rayons de lumière à différents angles non distinguables par c/n x l/n pixels où cette fois on peut distinguer n x n angles différents par pixel, n x n étant le nombre de pixels correspondant à une micro-lentille. La quantité d'information reste la même. On perd en résolution spatiale et on gagne en résolution angulaire. Sauf que l'on peut augmenter la focale ou réduire la taille des pixels (ça revient strictement au même) pour se ramener à la résolution que l'on veut. Le champ est alors n x plus petit, mais les pixels ont la même résolution et rien n'interdit de metttre plusieurs capteurs pour compenser si ce n'est le prix.Donc on paye plus cher en pixels et moins cher en optique adaptative. La question est de savoir si ce sont les pixels les plus chers ou si c'est l'optique adaptative.Ceci dit ça ne me fait pas très plaisir de me faire traiter de troll, je propose de réunir des gens qui seraient intéressés par collaborer à ce projet, et je suis content de répondre aux questions, même les plus sceptiques. Par contre si c'est juste pour essayer de casser le projet en argumentant que je suis un troll, ça n'est pas vraiment constructif.
  22. Thierry,l'aberration chromatique laterale peut être pire que la longitudinale : tu images un spectre continu et sur chaque canal couleur tu vas donc intégrer différentes longueurs d'ondes qui vont s'imager à des positions différentes de ton capteur. Donc chaque canal est flou avec un flou très directionnel. Pas forcément facile à corriger.Si tu as purement de l'aberration chromatique longitudinale, tu peux faire trois images en variant la mise au point pour rendre net successivement le rouge, le vert puis le bleu et compositer en ne gardant que le canal le plus net.
  23. Je ne sais pas, je ne m'occupe pas personnellement de ce brevet, je n'en suis pas à l'origine non plus.