Roch

En finir avec la trame ?

Messages recommandés

Bonsoir tout le monde :)

Le post est assez long, donc j'ai mis l'essentiel en gras pour plus de lisibilité ;)
 

Ceux qui me connaissent le savent, j'ai souvent quelques soucis de trame sur mes images ciel profond en poses rapides. Derniers exemples en date, mes images de M1 et B33 postées il y a deux semaines dans la galerie.

Beaucoup d'entre vous ont adopté des approches diverses et variées pour solutionner le problème. Les uns pratiquant le dithering, mais le procédé a ses limitations en poses courtes et ses contraintes. D'autres ( comme moi ) décalent volontairement leur mise en station pour que l'image se "balade" sur le capteur. Certains essaient d'optimiser un maximum les darks, les offsets, et autres flats et darkflats...
 

Seulement voilà, l'autre soir, ma mise en station était parfaite, et là je me suis dit : c'est quand même trop nul de devoir volontairement sacrifier une mise en station si réussie. En plus ça signifiait des recadrages fréquents, donc sortir dehors dans un froid polaire...

Bref. J'ai beaucoup réfléchi à la question, et j'ai eu une idée.
 

Donc afin de capter pleinement votre atention ;) , une démonstration valant tous les discours du monde, j'ai voulu mettre mon idée en application.

Voici une première image de M1, seuils tirés, constituée d'une somme de 500 brutes de 2s sans retrait du dark. Juste une correction cosmétique légère sur les pixels les plus "chauds".


NODARK.jpg.eb6e043c63b9dc830d7ce47dba4f32d2.jpg

Une deuxième image constituée des même 500 brutes, auxquelles j'ai soustrait un dark acquis de manière classique. Pas d'offset, celui-ci étant "inclus" dans le dark.
La caméra est non-refroidie, donc c'est toujours délicat d'obtenir le dark à la bonne température... ce dernier a été réalisé à la suite des acquisitions, soit environ 3h après ces 500 images qui sont au début d'une longue série.
Comme pour la première, une légère correction cosmétique est ajoutée ensuite pour se défaire des pixels "extrèmes". 


DARKA.jpg.5f65186fd105ae7b5f7c4355b955db74.jpg

Et enfin, une image constituée des même 500 images brutes auquel j'ai soustrait un dark fabriqué maison, avec ce que j'appellerai désormais, en toute modestie, la "méthode Roch" ;)
Toujours la même correction cosmétique appliquée ensuite.


DARKB.jpg.c197bde4bf45df5c19d88bab5c8689e0.jpg

Comme vous pouvez le voir, le résultat se passe de commentaires... notamment sur le fond de ciel. Il y a encore une trame bien présente sur quelques zones plus brillantes, et également dans les coins, mais c'est un problème qui devrait être réglé avec la "méthode Roch 2.0" ;)

Là, normalement, vous vous dites : "bon il commence à nous bassiner celui là, avec ses grands airs et sa méthode machin, elle est ou l'arnaque ?"

Alors voilà, laissez moi vous expliquer le principe de la "méthode Roch" ;)



En réalité, c'est pas bien compliqué. Par contre, pour la réalisation, pour le moment, faute de logiciel adapté, c'est l'USINE A GAZ !
D'ailleurs je ne suis certainement pas le premier à expérimenter ça. Mais bon, comme je n'en ai jamais entendu parler d'un tel procédé jusqu'à présent, zut à la fin. C'est vrai quoi, de nos jours on ne peut plus rien inventer, alors je rendrai la "méthode Roch" à César si besoin est plus tard.
 

Je suis parti du postulat suivant, qui me semble assez logique : Une image de calibration parfaite ne devrait engendrer aucune trame.

Vous imaginez ? Ce serait génial non ? Plus besoin de se geler toutes les demi-heures pour recadrer le machin, plus besoin de dithering qui plante parce que "yavait un nuage"... etc.
Sauf que pour avoir un dark parfait, il faudrait le réaliser dans les conditions EXACTES de l'acquisition, ce qui parait impossible... 

...à moins d'utiliser directement les images d'acquisition pour le prétraitement.


Parce que si on y réfléchit quelques minutes, la plupart du temps, une majeure partie de nos chères images est constituée... de fond de ciel, ce qui équivaut à une image de calibration parfaite, combinant offset, dark et flat. 

Pour se servir convenablement cette proportion "utile", il suffirait donc d'isoler sur chaque image la partie en question, et de s'arranger pour qu'en utilisant un nombre important d'images, toute la surface du capteur soit couverte à un moment ou à un autre.

Cela tombe bien, en poses courtes, on dispose d'un nombre de brutes conséquent. Si l'image gigote suffisamment dans le champ, il paraît possible de réaliser une "carte" sur toute la surface du capteur.


Allez, on liste rapidement quelques avantages que cette solution apporte

- Plus besoin d'images de prétraitement spécifiques
- On peut même traiter les anciennes images qu'on trouvait toutes tramées à postériori
- On peut réaliser une image de calibration évolutive sur la soirée. Par exemple se baser sur les 500 premières images pour prétraiter les 500 premières images, puis les 500 suivantes pour les 500 suivantes, etc, etc.
- Et si ça ne suffit toujours pas ( ce dont je doute fort ), on peut même réaliser une carte "glissante" en utilisant, pour chaque image à calibrer, par exemple les 50 précédentes et les 50 suivantes.


Bon alors évidemment, on note deux gros inconvénients à résoudre. 

Le premier c'est qu'il est fort possible de n'avoir que très peu de fond de ciel disponible au sein d'une image... mais je reviendrai là dessus dans un autre post, on peut tout à fait contourner le problème.


Le deuxième problème, et non le moindre, c'est que le procédé n'est absolument pas viable dans l'état actuel des logiciels de traitement.
L
a démarche que j'ai suivie est extrèmement fastidieuse, et ce d'autant plus que le nombre d'images a traiter est élevé ; ça demande du bidouillage de haute volée, et certains comprendront peut être pourquoi j'utilise encore IRIS, et pas Siril par exemple... tout simplement parce qu'il permet vraiment tous les bidouillages possibles et inimaginables ;) .


Voici la démarche suivie, étape par étapes. Je ne rentre pas vraiment dans les détails puisque c'est vraiment trop long à faire, c'est juste pour que vous ayez une idée.

- Alignement des images non prétraitées
- Empilement des 500 images en question 
- A l'aide de l'image obtenue, création d'un masque défini par une valeur maximale des pixels. ( commande BIN_DOWN )
-Alignement du masque sur les 500 images ( commandes MIRRORX puis MIRRORY pour retourner l'image, puis FILE_TRANS pour réaliser un décalage de l'image avec les mêmes paramètres que pour l'image précédente ; enfin, de nouveau MIRRORX et MIRRORY )
- Application du masque sur l'ensemble des images, chacune ayant son propre masque aligné sur l'objet. C'est là où ça a été le plus long, je n'ai pas trouvé de commande permettant de soustraire une séquence d'images à une autre séquence ; j'ai donc dû y aller "à la main", image par image
- Normalisation de tous les pixels rejetés par le masque sur la valeur moyenne du fond de ciel ( commande CLIMPIN )
- Empilement des 500 images de prétraitement ainsi obtenues.

Tout cela me donne mon image de prétraitement maître, que je peux utiliser pour poursuivre un prétraitement/traitement classique a partir des images brutes.


Note : En premier lieu, j'ai voulu réaliser une médiane des images de prétraitement, pensant que le résultat serait meilleur... ce n'est pas le cas, loin de là. Pourtant, d'après mes connaissances, si le bruit associé à notre signal de dark/offset/flat est réellement aléatoire, une médiane devrait donner un résultat similaire à une moyenne ( ça doit avoir un rapport avec la loi de poisson ou quelque chose comme ça )
Sans trop vouloir tirer des plans sur la comète, il me semble que cela va donc dans le sens d'une distribution non aléatoire des valeurs, que certains ici pourraient peut être m'expliquer ;)

Mais bon, je me suis donc résolu à utiliser la moyenne. Cela implique que la carte finale de prétraitement n'est réellement efficace que sur les zones couvertes par du fond de ciel 100% du temps ; en effet, puisque j'ai remplacé les zones "inutilisables" par une valeur fixe sur chaque image, cela doit nécessairement réduire la précision de la correction de certains pixels chauds par exemple.
D'ailleurs, au centre de l'image, M1 étant toujours dans les parages, la zone n'est jamais utilisable, ce qui explique la trame bien apparente sur la nébuleuse. On voit également bien la trame dans le coin supérieur droit ou l'amp-glow commence à faire des siennes.

Pour pallier en partie au problème, plutôt que de remplacer les zones inutilisables par une valeur moyenne, il faudrait tout simplement les écarter du calcul. Par exemple, si un pixel est situé à l'emplacement d'une étoile brillante sur 50 images, on pourrait donc écarter complètement ces 50 images du calcul final pour le pixel en question, et donc faire la moyenne des 450 autres. Mais ça, je ne pense pas que ce soit faisable avec IRIS.


Ce qui m'amène au but final de ce post.


Pour  moi il y aurait énormément à gagner en poussant plus loin les logiciels de traitement actuels. Même si on a d'anciens logiciels qui ont fait leurs preuves ( IRIS ou autre ) et de nouveaux logiciels intéressants ( SIRIL, AS3 ) ; pour moi aucun n'est réellement adapté à l'immense étendue de prétraitements et traitements possibles qu'offre, notamment, la prise de vue en poses courtes. Je pense qu'il ne se passe pas un mois sans que me vienne à l'esprit une nouvelle idée pour améliorer la chose ; je peux mettre en oeuvre certaines avec IRIS mais le logiciel vieillit et commence à montrer ses limitations sous des aspects très différents.
Donc l'idée c'est d'essayer de faire évoluer un peu tout ça. De quelle manière ? Je ne sais pas encore, mais en attendant je vais continuer les petits essais dans mon coin et voir ce que vous en dites ;)


Je prépare un traitement de mon autre image récente toute tramée, la tête de cheval, avec la "méthode roch 2.0" ;) qui devrait régler l'ensemble des problèmes de trame résiduels sur celle-ci. Ça va me demander un temps fou, mais je pense que ça vaut la peine de montrer ce que l'on pourrait obtenir avec un logiciel de traitement à son plein potentiel ;)

En attendant, je suis ouvert à toutes les remarques... n'hésitez pas.

Merci à ceux qui m'ont lu jusqu'au bout :)


Romain
 

Modifié par Roch
  • J'adore 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Ben j'ai lu jusqu'au bout et je salue le travail effectué :)

Il est vrai et pas seulement en poses courtes que le tramage est un problème de l'imagerie numérique et que les moyens de l'éliminer proprement restent encore du domaine de la bidouille informatique :)

Quoi que en poses longues, le dithering résoud assez bien le problème.

En fait, le seul vrai remède pour l'instant à l'élimination des trames consiste à revenir à l'argentique ;)

Mais . . . c'est pas aussi simple ;)

Bonne soirée,

AG

 

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 4 heures, Roch a dit :

Beaucoup d'entre vous ont adopté des approches diverses et variées pour solutionner le problème. Les uns pratiquant le dithering, les autres ( comme moi ) décalant volontairement leur mise en station pour que l'image se "balade" sur le capteur. Certains essaient d'optimiser un maximum les darks, les offsets, et autres flats et darkflats...

Je pense que la technique du dithering n'a rien à voir avec le décalage de la mise en station. En effet, une "mauvaise" mise en station fait dériver la cible, vers le nord ou le sud, mais de manière régulière. Cette dérive s'ajoute à celle, éventuelle, en ascension droite (vitesse du moteur, réfraction atmosphérique etc...) mais le résultat est le même : la cible dérive petit à petit dans la même direction et les imperfections du prétraitement laissent des trainées sur le compositage final.

Le dithering, lui, consiste à déplacer la cible de manière aléatoire sur le capteur, de sorte que les imperfections de prétraitement forment un "nuage"  que n'importe quel logiciel de traitement fera disparaitre à l'empilement.

En ce qui concerne l'optimisation des offsets, darks, flats et darkflats, c'est la base du traitement CCD, nommé le pré-traitement : il n'y a guère que toi pour avoir d'aussi bons résultats sans passer par eux :)

D'ailleurs, tu avais bien trouvé une solution à la trame sur ton post sur le Quintet, avec une image époustouflante à la clé! (et tu sais à quel point j'en suis fan ;) ). Comment avais-tu procédé alors?

Nathanaël

 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Merci pour les réponses :)

Bon j'ai édité mon sujet pour mettre les passages importants en gras, mais on voit à peine la différence, c'est malin... :D

 

T450, merci encore pour ton appréciation ;)
 

Concernant le "faux dithering" par décalage de MES j'en avais déjà parlé là :
https://www.webastro.net/forums/topic/163194-problème-de-trame-heelp/

Cherche le post ou j'ai fait un magnifique dessin ;)

Peut être n'es-tu pas convaincu mais de mon expérience, la trame n'apparaît que lorsque ma MES est parfaite ou décalée dans le "mauvais sens"

Le pré-traitement, je le réalise comme tout le monde ( bon je ne fais pas de flats, mais avec un si petit capteur, c'est assez inutile. Et j'ai quand même essayé quelques fois. ) Simplement, en poses courtes le ratio Signal utile / signal parasite est moins élevé qu'en poses classiques, il est donc logique que les défauts se voient plus rapidement.
On ne peut pas optimiser les darks en poses courtes, car il y a le problème de l'amp glow à gérer aussi. Si on optimise les darks, l'amp-glow se retrouvera sur-corrigé ou sous-corrigé, ce qui donne un résultat absolument affreux ;)

J'ai des images sans trame, comme le quintette. Il s'agit des images pour lesquelles l'objet se déplace suffisamment dans le cadrage pour que la trame demeure invisible. Cependant, c'est aussi les images qui me donnent le plus de mal à l'acquisition ( il faut recadrer très fréquemment ) et au traitement ( mon champ déjà restreint est encore réduit, parfois l'alignement dérape... )

Bref, c'est pas vraiment le sujet. Si mon procédé fonctionne, je pourrais avoir une image de prétraitement parfaite, ce qui permettrait une MES parfaite et rendrait le dithering inutile. Mais pour ça, il y a du chemin à faire niveau logiciels.
Je suis en train de traiter B33 avec cette méthode, je pense que le résultat sera concluant.

Romain

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par FrancoisGAP
      Malgré un temps capricieux, rien ne peut arrêter ma passion pour l’astronomie ! Ces derniers jours, j’ai bravé les nuages pour capturer la beauté céleste des amas globulaires et ouverts. Parmi mes cibles se trouvait le classique M13, mais laissez-moi vous dire que la précision de l’optique de mon télescope m’a étonné une fois de plus !
      Ne pas hésiter à plonger dans la full  

      Vous trouverez mon article en cliquant ici !!!
       

       
      Détail du matériel utilisé :
      TS-ONTC HYPERGRAPH 10″ 254/1000 (Fd4)
      Correcteur Réducteur 0,85×3″ soit 863mm (Fd3,4)
      EQ8R-Pro sur Pilier Acier DIY
      ZWO ASI2600MC DUO + Optolong Clear 2″
      ZWO EAF
      ZWO EFW 5 positions 2″
      Temps intégration total de 5,13h
      113x10s Gain=100 (-20°C)
      289x60s Gain=100 (-20°C)
      40 Darks Gain=100
      40 Darks Flat Gain=100
      40 Flats Gain=100
      Traitement PSD / Pixinsight
       
       
      Zoom sur la partie Centrale !!!!

       
    • Par FrancoisGAP
      NGC 3718 : Pourquoi cette galaxie est-elle si spéciale pour moi ? Elle se trouve dans la constellation de la Grande Ourse, et malgré sa petite taille apparente, elle regorge de détails fascinants. J'adore sa forme et les superbes couleurs de cette galaxie.
      Je n'ai pas la bonne focale pour l'imager correctement mais je trouve qu'elle est déjà sublime. Il me tarde de pouvoir faire plus de poses avec le Mak ou un futur RC.
       
      Plus de détails sur mon site Web en cliquant ici !!!!
       

       

       
      Même si les anciennes versions ne méritent plus d'être encore visible car le traitement avait été fait à vitesse grand V, je laisse les liens :
      <planetediy.fr/wp-content/uploads/2024/05/NGC3718_Final_V2.webp>
      <planetediy.fr/wp-content/uploads/2024/05/NGC3718_Final_V2_Zoom01.webp>
       
      Détail du matériel utilisé :
      TS-ONTC HYPERGRAPH 10″ 254/1000 (Fd4)
      Correcteur Réducteur 0,85×3″ soit 863mm (Fd3,4)
      EQ8R-Pro sur Pilier Acier DIY
      ZWO ASI2600MC DUO + Optolong Clear 2″
      ZWO EAF
      ZWO EFW 5 positions 2″
      Temps intégration total de 5,8h
      35x180s Gain=100 (-20°C)
      58x180s Gain=100 (-20°C)
      23x180s Gain=100 (-20°C)
      40 Darks Gain=100
      40 Darks Flat Gain=100
      40 Flats Gain=100
      Traitement PSD / Pixinsight
    • Par Astramazonie
      Salut les Astros,
       
      Ici en Guyane, depuis quelques jours, la pluie et le mauvais temps ne nous laissent pas sortir les instruments ...
      En ce 1er Mai,  je me suis dis ce que je pouvais bien réchauffer en attendant le retour du beau temps, j'ai choisi CENTAURUS A (  galaxie lenticulaire située dans la constellation du Centaure )
       
      Je vous poste 1 photo, en 2 versions : large et crop, toujours faite au SEESTAR en Guyane, 15 minutes de pose, avec un léger traitement sur Photoshop pour la couleur, puis GraXpert pour le bruit.
       
      PS : Ce n'est pas la meilleure photo de cet astre mais ça me fais quand même plaisir de partager avec vous.
       
      J'espère qu'elle vous plaira, Bon 1er Mai à tout le monde ... 
       

       

    • Par Gilles Pascal
      Bonjour,
       
      ayant récemment testé un objectif photo 500mm stabilisé, j'ai été impressionné par le résultat.
      Je me prends alors à imaginer un montage à lentilles stabilisées, qui viendrait s'insérer dans le chemin optique d'une lunette astronomique, de façon à pouvoir l'utiliser à main levée...
       
      Mais la question est : comment faire ? Est-ce seulement envisageable ?
      Certains parmi-vous ont déjà imaginé/envisagé une telle réalisation ?
      Quel groupe de lentilles faut-il implanter dans le chemin optique ?
      Trouve-t-on des modules tout-faits (lentilles, capteurs, moteurs) pour pouvoir les monter soi-même dans des prototypes d'étude ?
       
      Je détaille ci-dessous tout le cheminement qui m'a conduit à cette réflexion (je devrais plutôt dire transmission  ;o)
       
       
      1) Mes prises de vues avec le 500mm
       
      Ma config :
      Zoom Nikon 200/500mm FD5.6,  réglé à 500mm.
      Autofocus ON
      Plage de mise au point : limitée
      Stabilisateur : ON
      Boitier : D7200 Nikon
      Multiplieur de focale : 1.4
      Focale résultante : 700mm
      FD résultant : 8. à cette valeur, on est à la limite de ce que l'autofocus peut accepter. Il se peut qu'il ne fonctionne pas bien. Et en effet, les prises de vues vont le confirmer.
      De plus comme le boîtier est au format DX, on peut alors considérer que la focale finale obtenue est de 1.5 * 700 soit 1050mm.
       
      Objet photographié : lune du 17 Avril
       
      Réglage boitier :
      ISO fixe : 100
      Vitesse : 1/80s
      Format : RAW
       
      Prise de vue : à main levée bien-sûr
      Heure : 21h20
      Orientation : lune très haute dans le ciel. L'appareil est donc en visée presque verticale, ce qui n'est pas très agréable.
       
      Mais le maintien dans l'axe de la lune est sans doute plus facile que si la visée était horizontale, car le bras gauche qui soutient l'objectif par l'avant, n'a pas à exercer un couple de rappel trop important. En visée horizontale le couple de rappel serait beaucoup plus important et ajouterait davantage de micro-mouvements que devrait compenser le stabilisateur de l'objectif.
       
      Par contre  en visée verticale, la main droite qui tient le boîtier et dont l'index appuie sur le déclencheur, doit supporter tout le poids de l'appareil et rester souple pour ne pas provoquer de crampe par exemple.
       
      J'ai pris 27 images à main levée.
       
      a) Plusieurs problèmes constatés lors de la prise de vues
       
      - la mise au point est très laborieuse : l'autofocus est vraiment à la peine. Lors de l'appui à mi-course du déclencheur, l'autofocus fait de nombreux va-et-vient. Mais lorsque soudainement la mise au point est bonne, j'appuie alors vigoureusement pour prendre la vue. Parfois cela prend plus de temps pour certaines vues.
      Évidemment je pourrais éliminer ce défaut en retirant le multiplieur 1.4. Mais dans ce cas je réduirais aussi la résolution atteinte.
       
      - Tentative de prise de vue en live view : on suit l'image alors directement sur l'écran arrière du boîtier.
      Problème : on n'est pas capable d'apprécier aussi bien la mise au point qu'à travers le viseur optique. Des vues sont floues, il faut alors les rejeter.
       
      Autre possibilité : On bloque la mise au point en manuel.
      Malheureusement elle bouge légèrement. Je pense que je n'ai pas encore bien la maîtrise de ce zoom qui requiert un certain apprentissage.
       
      L'autre souci dans ce type de prise de vue, ce sont les sollicitations importantes que subit la mécanique du boitier. J'aurais pu prendre 100, voire 300 images, mais l'idée n'est pas de faire usage du boîtier Nikon comme d'une caméra astro pour le planétaire, comme on fait en prenant des centaines d'images. Car on éprouverait alors sérieusement la mécanique de l'obturateur et du miroir.
       
      b) Traitement :
      i) PIPP
      - Cropp avec centrage sur lune pour réduire la taille des images.
      - export en Tif pour traitement ensuite dans Autostakkert 3.
       
      ii) Autostakkert :
      - drizzle : 3x
      - dans la fenêtre de visualisation, en passant en revue les 27 images, on voit qu'il y a de la rotation de champ, car à main levée, on bouge imperceptiblement. Et cela se voit parfaitement dans Autostakkert. L'avantage avec Autostakkert, c'est qu'il est justement capable de compenser la rotation de champ entre chaque vue. Un régal de la savoir à l'avance.
      - toutes les images sont conservées.
       
      iii) registax 6
      Wavelets :
      - réhaussement des contours
      - contraste et luminosité
      Résultat : voir image.
       
      c) Mes impressions :
      - mise en place du setup : 5mn
      - Prise de vue assez tranquille et même excitante car on se dit qu'en si peu de temps de mise en place, on est alors déjà en capacité de saisir un phénomène, ce qui est un exploit avec une focale résultante de un peu plus d'1m. Je me dis alors que je vais attendre le passage d'un avion. Mais malheureusement, après environ 20mn d'attente, les avions me narguent tous en passant parfois tout près, mais jamais devant la lune.
       
      Le traitement avec seulement 27 vues est très satisfaisant. Mais pas à la hauteur de ce que l'on pourrait avoir si l'on avait plusieurs centaines de vues.
       
      En contemplant l'image finale, je voie quand même que je suis bien loin de ce que pourrait faire un tube de 90mm d'ouverture et 1m de focale.
      Mais pour un premier essai c'est déjà satisfaisant.
       
      J'imagine alors une caméra astro montée en lieu et place du boitier Nikon D7200.
      Mais peut-être qu'avec un peu d'entraînement, je devrais pouvoir améliorer l'utilisation du mode live view.
      En lisant le manuel du boitier D7200, je voie qu'en mode miroir relevé, l'autofocus ne fonctionne plus. Il faut donc parvenir à bien verrouiller la mise au point une fois pour toutes aussi.
       
      Je me dis que la solution idéale consisterait à reproduire la mécanique du stabilisateur du Zoom 200/500, dans un tube optique dédié pour l'astro.
       
       
      2) Conception d'un tube optique stabilisé
       
      Une lunette est constituée d'un objectif et d'un oculaire.
      Comment parvenir à stabiliser l'image dans le chemin optique d'un tel instrument ?
       
      Le stabilisateur optique fonctionne comment ?
      Sur le site "les numériques" un schéma montre le principe implémenté dans les objectifs photos nikon :
      https://www.lesnumeriques.com/photo/la-stabilisation-pu101497.html
       
      Extrait :
       
      "C’est le procédé le plus ancien. Il est apparu avec le Nikkor VR 38-105 mm f/4-7,8 en 1994, suivi l’année d’après par le Canon EF 75-300 mm f/4-5,6. Deux gyromètres piézo-électriques détectent les vibrations, et une lentille flottante qui leur est asservie se déplace perpendiculairement à l’axe optique pour rétablir la fixité de l’image.
       
      Ce type de système a depuis connu des progrès importants, par exemple pour permettre de supprimer les vibrations lorsqu’on suit un sujet en mouvement.
       
      Dans ce cas, les capteurs différencient les mouvements volontaires des trépidations qui ne le sont pas, et adaptent en conséquence la stabilisation.
       
      Cette différenciation est évidemment indispensable pour un appareil tenue à main levée. Celle-ci était moins efficace sur les premiers objectifs stabilisés, le gain de stabilité était ainsi moins important.
       
      Le système anti-bougé des zooms Fuji de la série X comme le 18-55 mm ou le 40-150 mm est destiné à supprimer à la fois les vibrations rapides de l’appareil et les mouvements involontaires un peu plus amples, tout en ignorant les mouvements volontaires que le photographe veut imprimer à son appareil, par exemple pour suivre un sujet qui se déplace. Illustration *
      Les objectifs stabilisés sont maintenant bien au point, de telle sorte qu’ils se sont imposés. Ce qui ne veut pas dire qu’ils soient sans inconvénients par rapport aux objectifs classiques… lorsque ces derniers sont encore en vente. Ils sont un peu plus fragiles, nettement plus lourds et plus encombrants que leur équivalents non stabilisés. On perd aussi, dans le cas de certains zooms, un bon demi-diaphragme sur la plus longue focale. Ils sont également un peu plus chers. C’est bien entendu dans le cas des téléobjectifs que la stabilisation est la plus intéressante."
       
       
      Merci de vos retours,
      Gilles
       


    • Par Akelox
      Bonjour je vais acheter mon premier télescope et je prévoit de faire de l'astrophoto du ciel profond principalement, j'aimerais donc savoir ce que vous pensez du matériel que j'ai choisi et si j'ai oublié des choses :
      - https://www.astroshop.de/fr/telescopes/telescope-skywatcher-n-150-750-pds-explorer-bd-eq3-pro-synscan-goto/p,19164
      - https://www.astroshop.de/fr/controleurs-et-cables/zwo-mini-ordinateur-d-astrophotographie-asiair-mini/p,77072
      - https://www.astroshop.de/fr/cameras-astronomiques/camera-zwo-asi-662-mc-color/p,75719
       
      Gabriel De Roover
  • Évènements à venir