Hercules78

Membre
  • Compteur de contenus

    80
  • Inscription

  • Dernière visite

    jamais
  • Last Connexion

    Soon available - 44960

Messages posté(e)s par Hercules78


  1. Le mode P (Program) est intéressant car automatique, permet le RAW et on peut retoucher le choix en tournant la molette. Sinon les modes semi-automatiques Av (priorité à l'ouverture) et Tv (priotité au temps de pose) sont aussi intéressants mais il y a toujours le risque d'être en dehors de ce qui est possible et donc de devoir retoucher et de laisser passer une belle prise de vue.
    Pour travailler au flash en lumière faible je conseille la méthode ci-dessus.
    Pour plus d'infos sur la photo au réflex, va voir canon enjoy dslr

  2. Tu peux le faire en manuel, il suffit justement de te mettre en mode manuel et choisir ton temps de pose et ouverture.
    Pour calculer une exposition, tu fixes la sensibilité ISO et un temps de pose donne une ouverture et réciproquement. Sauf si tu ajoutes un paramètre qui est le flash ! En effet ton boîtier sait gérer la puissance du flash(système TTL). Tu peux essayer en manuel plusieurs temps de pose différents et tu verras la différence. En gros si tu veux un bon "fill-in" (mélanger la lumière ambiante et celle du flah) en ambiance sombre tu vas choisir un ISO 400, ouvrir au moins à 5.6-4.5 et un temps de pose de 1/20-1/15s. Tu vérifies que tu es sous-ex et quand tu prends la photo, le flash va juste compenser la lumière qui manque. Un conseil, évite le flash intégré qui peut tout juste déboucher les ombres en contre-jour en extérieur, achètes un flash cobra avec un diffuseur, le résultat est magnifique. Si tu veux quand même utiliser le flash intégré, je te conseille de le sous-exposer d'1/3 Ev, car il a tendance à surexposer et à faire du "fromage blanc".

  3. octintin, pixels morts ou chauds ?
    Si les pixels chauds ne saturent pas, ils vont partir à la correction par dark/flat et ne sont donc pas génants.

    Sur mon 350D, pose de 10 minutes à ISO 1600 à t° ambiante, les pixels chauds arrivent à peu près à la moitié de la dynamique.


  4. Chez conrad, il y a même un 114/900 sur monture équatoriale (non motorisé quand même) à 109,90€ !!!
    D'ailleurs cet instrument à des caractéristiques intéressantes : Ø de l'objectif : 900 mm. Distance focale : 114 mm, ça fait un f/d de 0.13, qui dit mieux ?

    Est-ce que c'est contractuel ce genre de caractéristiques ? Si je commande, est-ce que je peux exiger un miroir de 900mm ?


  5. OK Fabrice, je pensais que ça serait plus facile à comprendre mais il est vrai que j'y pense depuis pas mal de temps. Pour être honnête j'avais commencé ma réflexion en me demandant comment imager des satellites artificiels avec beaucoup de résolution : avec un temps de pose trop court, le SNR est insuffisant, si on stack les prises de vue en aveugle (en recalant quand même spatialement), on retombe sur le flou de l'atmosphère, et on ne peut pas faire de "lucky imaging" car l'objet change trop rapidement. J'ai donc pensé à cette solution, qui devrait d'ailleurs intéresser les militaires :-(
    En ce qui concerne les objets étendus, ça marche à conditions qu'il y ait du contraste, comme un autofocus d'appareil photo. Tu peux essayer de faire la mise au point sur une surface (vraiment très) uniforme, ton APN n'y arrivera pas. D'ailleurs une surface lumineuse uniforme infinie s'image exactement pareil quelque soit la mise au point ! En revanche si on veut capturer un objet étendu avec peu de contraste et aucune étoile dans le champ de vue, ça se complique ! Dans ce cas, on peut mettre un petit capteur supplémentaire sur une étoile ou un objet étendu contrasté proche de l'objet que l'on veut imager en supposant que l'aberration atmosphérique est la même entre l'objet mesuré et l'objet imagé (en fait les deux pourront être imagés au final).

    Concernant la photographie intégrale, j'aimerais que tu nous expliques ce que tu entends par là. Il me semble que la photographie de Lippmann est basée sur des interférences, comme les hologrammes, mais j'admet ne pas être compétant sur le sujet. Je me suis d'ailleurs souvent demandé comment appliquer ces procédés (holographie, Lippmann) en numérique (en lumière "naturelle", pas avec un éclairage en lumière cohérente). Est-ce que tu as des infos/idées sur ces points ?

    [Ce message a été modifié par Hercules78 (Édité le 13-11-2007).]


  6. Thierry, comme je l'ai indiqué plus haut tu peux te contenter de sommer les pixels de chaque micro-lentille mais il n'y a effectivement aucun intérêt à ne faire que ça. Le SNR est le même en ne prenant en compte que le bruit photonique, le bruit de lecture sera lui amplifié 10x pour 10x10 pixels.

    Par contre tu peux sommer tes pixels différemment. Par exemple en considérant que localement l'atmosphère se comporte comme un lentille convergente ou divergente. Dans ce cas, le plan focal va se promener devant ou derrière la capteur. Et bien dans ce cas, il suffit de sommer les pixels différemment pour retrouver une image nette. En gros tu fais un autofocus numériquement.

    Je vais essayer de faire un dessin mais je n'ai pas beaucoup de temps en ce moment.

    Alors certe on perds un peu


  7. Si tu veux un objectif polyvalent il te faut définir les focales que tu veux et si tu veux l'IS ou pas.
    Le Tamron 18-250 est vraiment sympa pour ça, j'emmène à nouveau mon réflex là ou je n'emmenais plus mon sac photo avec 3 ou 4 objectifs. C'est un bon objectif mais en regardant les photos prises à pleine ouverture sur un écran à 100%, on voit quand même la différence avec un bon objectif. Par contre sur un print 10x15 tu ne verras aucune différence.
    Sinon tu as le Sigma 18-200 OS, je ne l'ai pas testé. Je vais voir si je peux en avoir un pour un week-end pour comparer.
    Si tu te contentes d'un 17-55, achètes ce magnifique objectif, très sympa pour le portrait, qui a un joli bokeh et l'IS.
    Ceci dit, ce post aurait plutôt sa place sur un forum photo.

  8. Thierry, ce que tu ne vois pas est que si tu peux dans une séquence video choisir quelles images sont nettes et quelles images ne le sont pas, tu peux le faire de la même façon avec ce système.
    En effet, je somme les 10x10 pixels et je récupère le même SNR qu'un seul photosite de la taille de la micro-lentille !
    Donc je peux tout autant déterminer si mon image est nette que si j'avais mis un capteur avec des photosites de la taille de mes micro-lentilles.
    La différence est que si l'image n'est pas nette, je peux tester toutes les mises au point possible pour choisir la meilleure, et ce a postériori. Je peux aussi tester des modèles d'aberrations plus complexes pour trouver une image encore plus nette, je peux même y inclure les aberrations du telescope.
    Tout l'inconvenient du système est qu'il faudrait une grosse camera avec beaucoup de pixels ! Mais en fonction de la résolution que l'on veut atteindre, on peut peut-être commencer avec 4x4 pixels par micro-lentilles, ce qui limite la casse (8 MPixels donneraient 0.5 MPixels)
    Pour des professionnels, il y aurait certainement moyen de faire des gros capteurs avec des petits pixels et numériser plusieurs lignes en même temps pour "dépoter" suffisamment de frames par seconde. Est-ce que ça serait plus cher qu'un optique adaptative ? Pas sûr...

    [Ce message a été modifié par Hercules78 (Édité le 12-11-2007).]


  9. Ceci dit, si le stigmatisme de ta lunette est très bon sur l'axe et qu'elle a peu d'aberrations chromatiques, tu peux mettre ta source ponctuelle juste devant le foyer (vers l'objectif), tu obtiens alors un faisceau légèrement divergent. Si tu places ton télescope à une distance telle que le faisceau couvre toute son ouverture ça doit marcher, tu peux avoir l'équivalent d'une source ponctuelle à plusieurs dizaines ou centaines de mètres.
    Une LED très puissance derrière un sténopé (pinhole) devrait faire l'affaire.

  10. Si tu veux obtenir un faisceau collimaté, il te faut placer ta source pontuelle au foyer de ta lunette. Tu auras alors fabriqué un collimateur.

    Les inconvénients:
    -tu résupères les abérrations de ta lunette
    -il faut effectivement une ouverture plus grande que le système que tu veux tester ou collimater, sinon c'est comme si tu diaphragmait ton télescope.

    Une bille en acier éclairée, ça ne marcherait pas mieux ?


  11. Mais si a eu juste une monture équatoriale avec un seul moteur pas assez rapide pour suivre l'ISS ? J'ai fais quelques photo de l'ISS avec un sigma 600mm f/8 à main levée mais ça manque de résolution, on a juste quelques pixels.
    En plus elle va passer presque au zenith les 17 novembre (87°) et 19 novembre (88°) au dessus de chez moi ! Je tenterais bien des prises de vue au télescope mais je ne vois pas trop comment la suivre à part en tenant le tube à la main !

  12. Je ne suis pas fan du 17-85 IS f/4, pas formidable, ouvre à 4 au mieux, pas donné (même si le prix à baissé). Il est sensé faire l'équivalent du 28-135 IS mais en plus cher et moins ouvert (le 28-135 ouvre à 3.5). J'ai un 28-135 IS sur un 350D, et à part le fait que ça manque de focale courte, c'est un objectif vraiment bien, bien qu'un peu gros et un peu lourd. S'il intéresse quelqu'un, je veux bien le vendre car j'ai acheté un Tamron 18-250 pour tous les jours (pas aussi bon que le 28-135) et je compte acheter un 17-55 IS f/2.8 lors d'un prochain voyage au Japon (ou sur eBay c'est presque les même prix) et j'ai déjà un 70-300 IS.
    En ce qui concerne le 17-55 IS f/2.8 (à toutes les focales) c'est un objectif sympa, j'en ai eu un pour un week-end, c'est donc l'équivalent du 27-88 f/4.5 (à toutes les focales) sur un capteur 24x36. Je ne sais pas si l'IS est vraiment nécessaire mais dans certains cas ça peut aider, par exemple dans un musée où l'on a pas de pied.

    Si c'est pour faire de l'astro, je te conseille plutôt une (ou plusieurs) focales fixes, tu auras moins d'aberrations et plus d'ouverte. Tu peux acheter un 50mm 1.4 et un sigma 30mm 1.4 pour moins cher que le 17-55 IS f/2.8


  13. Pas d'accord Fabrice.
    La camera sténoptique permet aussi de corriger les aberrations de l'optique et donc celles induites par l'atmosphère. Le fait de refaire la mise au point est une correction d'un type particulier d'aberration.
    Ca peut être très résolvant au niveau angulaire (côté objet) mais pour avoir beaucoup de pixels dans l'image finale, c'est plus chaud (ou plus cher plutôt).
    La photo selon Lippmann est par contre basée sur l'interférométrie et est capable d'enregistrer le spectre de la lumière, alors que la camera sténoptique fonctionne en n&b ou couleur 3 canaux classique.

    Là ou je veux en venir ? Simplement remplacer une optique adaptative par une correction a posteriori car on sépare les photons en fonction de leur angle d'arrivée sur le pixel, ce que ne fait pas un capteur normal


  14. Il faut se méfier des algos de débruitage car ils font des hypothèses fortes sur le contenu de l'image (sinon comment différencier le bruit de l'information) et risquent de dégommer de l'information intéressante. Le débruitage est surtout intéressant en photo.

    Laissez tomber cette histoire d'aberration chromatique, ça n'a rien à voir, c'était juste un exemple. Le point que je voulais soulever est que l'idée reçue comme quoi l'aberration chromatique latérale n'est pas génante parce que c'est une variation du grossissement par rapport à la longueur d'onde est fausse. Mon exemple de faire 3 prises de vue était juste pour illustrer ce fait, mais on peut aussi faire une correction numérique sur une seule prise de vue (en photo c'est évidemment difficile de faire 3 poses et si on peut vraiment se le permettre on le fait en 3 passes avec des filtres et un capteur n&b, pas un capteur couleur)

    Dans le cas présent l'idée est de partir sur un télescope à miroir, donc pas de problème de chromatisme.

    Je sais qu'il faut un peu de temps pour digérer que l'on puisse refaire la mise au point après la prise de vue sans changer le SNR, mais il faut le voir de la façon suivante : on remplace un capteur c x l pixels où chaque pixel reçoit des rayons de lumière à différents angles non distinguables par c/n x l/n pixels où cette fois on peut distinguer n x n angles différents par pixel, n x n étant le nombre de pixels correspondant à une micro-lentille. La quantité d'information reste la même. On perd en résolution spatiale et on gagne en résolution angulaire. Sauf que l'on peut augmenter la focale ou réduire la taille des pixels (ça revient strictement au même) pour se ramener à la résolution que l'on veut. Le champ est alors n x plus petit, mais les pixels ont la même résolution et rien n'interdit de metttre plusieurs capteurs pour compenser si ce n'est le prix.

    Donc on paye plus cher en pixels et moins cher en optique adaptative. La question est de savoir si ce sont les pixels les plus chers ou si c'est l'optique adaptative.

    Ceci dit ça ne me fait pas très plaisir de me faire traiter de troll, je propose de réunir des gens qui seraient intéressés par collaborer à ce projet, et je suis content de répondre aux questions, même les plus sceptiques. Par contre si c'est juste pour essayer de casser le projet en argumentant que je suis un troll, ça n'est pas vraiment constructif.


  15. Thierry,

    l'aberration chromatique laterale peut être pire que la longitudinale : tu images un spectre continu et sur chaque canal couleur tu vas donc intégrer différentes longueurs d'ondes qui vont s'imager à des positions différentes de ton capteur. Donc chaque canal est flou avec un flou très directionnel. Pas forcément facile à corriger.

    Si tu as purement de l'aberration chromatique longitudinale, tu peux faire trois images en variant la mise au point pour rendre net successivement le rouge, le vert puis le bleu et compositer en ne gardant que le canal le plus net.


  16. asp06 : Si au final je composite toutes mes images sans faire de traitement particulier, j'ai le même SNR (en bruit photonique) que si tu mets un capteur avec des photosites de la même taille que les microlentilles. Donc il n'y a pas besoin de plus de flux.

    Avec le lucky imaging, tu vas ne garder que les meilleures images. Avec mon système, je peux aussi ne garder que les meilleures images, mais je peux aussi refaire la mise au point des autres images, et avec le même flux j'y gagne en netteté.

    Si l'image finale est très nette, elle n'a pas besoin d'être autant déflouée. Par exemple une MTF qui passe à 10%, il faut amplifier ces fréquences 10x et donc le bruit d'antant, ça fait 20dB en moins de SNR. Il faut multiplier le temps de pose par 100 pour regagner ces 20dB. Si avec mon système elle est au moins à 50%, il n'y a qu'un x2 à faire et une perte seulement de 6dB. Un temps de pose x4 suffit à les regagner.