jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Recommended Posts

Hello

Christophe De La Chapelle vient de publier une vidéo sur les caméras n&b vs couleur. En bossant dessus ça a ouvert pas mal de discussion entre nous pour amender le contenu par rapport à la version initiale. La discussion portait principalement sur la perte de résolution d'une caméra couleur par rapport à une caméra n&b (à échantillonnage égal bien entendu). , 
Souvent les gens pensent que l'on perd un facteur 2 de résolution. En réalité tout dépend si on considère la couche luminance ou chrominance, et tout dépend avec quel algo ces couches sont générées.
Toujours est-il qu'il est admis dans la littérature que la perte est de l'ordre de 30% et non pas 50%. 

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot. Une fois que l'on composite j'ai tendance à me dire qu'avec la turbu et les dérives de la monture, chaque détail est tantôt en face d'un pixel R, un pixel B, un pixel V. Et intuitivement j'ai l'impression que du coup, on n'a pas forcément une grosse perte de détail par rapport à une matrice monochrome. A moins que l'alignement se fasse après dématrissage et que le dématrissage induise forcément une perte irréversible ? 

On a une perte de dynamique en revanche et la dynamique participe à la résolution, mais en même temps si on veut l'info couleur avec le capteur monochrome il faudra bien filtrer, donc pas soucis de simplification mettons de côté cette question de la dynamique, la question de base est déjà assez compliquée je pense :) On suppose donc que l'on est à dynamique identique sur les deux matrices. 
Je ne sais pas ce que ça inspire aux cadors du domaine  @Marc Delcroix@Christophe Pellier@cbuil

@JPProst, @christian viladrich, @Thierry Legault

Je mets la vidéo en lien pour ceux qui veulent voir : 

 

Edited by jldauvergne
  • Like 3
  • Love 1
  • Thanks 1

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com

Ah au fait, pour la question du post, la réponse est oui :)

Maintenant dans quelle proportion ? ;)

  • Like 1

Share this post


Link to post
Share on other sites

Bonjour. :)

 

Là où je ne suis pas d'accord , c'est avec avec la différence de sensibilité évoquée  "Couleur vs monochrome" ... surtout au delà  de 525 nm.

 

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

 

5df50c0745c0e_z_P1070011_monovscouleur_bis_1000.jpg.effc8a973b2f1d27340f5c236864c94b.jpg

 

 

( Désolé pour les coups de "Tipp-Ex" ... travail à l'ancienne. :ph34r: )

 

 

Edit :

 

@olivdeso  + @Chris277  ( entre autres ) :  raisonnement faux ( voir plus loin ) ... donc désolé pour cette connerie de ma part. :S

 

 

Edited by fljb67
  • Confused 2

Share this post


Link to post
Share on other sites

Salut JL,

 

La réponse a ta question n'est pas claire et ne le sera jamais parce que la comparaison est faussée d'entrée de jeu par deux facteurs,

qui font que l'on ne compare pas que les capteurs :

- le sur-échantillonage assez abondant des images planétaires,

- et surtout la turbulence atmosphérique qui produit une sorte de dithering.

 

Ces deux effets combinés profitent surtout au capteur de Bayer.

Au point d'en rapprocher sensiblement les performances en termes de résolution, par rapport au monochrome.

 

------------------------------------------------------------------------------------------------------------

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE.

Mais ça le planéteux, il s'en fiche.

-----------------------------------------------------------------------------------------------------------

 

Lucien

 

 

  • Like 3

Share this post


Link to post
Share on other sites
il y a 35 minutes, Lucien a dit :

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE

 

Salut Lucien. :)

 

J'avoue être sûr d'avoir intégré ce que tu voulais dire par là. ... à part le fait que la caméra couleur serait pourrie si conditions que tu as cité seraient réunies.

 

Mon impression est-elle bonne ou pas ?

 

Edited by fljb67

Share this post


Link to post
Share on other sites

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution.

 

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Lucien

 

 

 

  • Like 1
  • Haha 1

Share this post


Link to post
Share on other sites
il y a 30 minutes, Lucien a dit :

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

  • Like 1

Share this post


Link to post
Share on other sites
Il y a 3 heures, Marc S a dit :

Pour info et pour recouper  les renseignements....

 

On avait déjà entamé ce sujet sur ce poste :

Oui j'avais lu ce fil, ça converge avec ce que je dis avec le chiffre de 25%. (Il me semble qu'il est difficile de donner un chiffre au pourcent près car l'impact de la détérioration du motif considéré dépend de sa forme et de sa couleur). 
La contribution de @mala05 a en tout cas un peu remis les points sur les I. Même si certains continuent à douter. 

Si quelqu'un a vraiment envie d'affirmer le chiffre de 50% qu'il tente de le démontrer d'abord, on parlera ensuite :)

Share this post


Link to post
Share on other sites
Il y a 2 heures, Lucien a dit :

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Ok, lu. ^^

 

Autrement, il faudrait faire une distinction entre "signal" et résolution ( je parle en rapport avec la vidéo ).

 

... car niveau signal "global" entre 400 et 700 nm, d'après les courbes, le capteur "couleur" fait ~ jeu égal avec le capteur monochrome.

 

Après, les courbes "constructeur" valant ce qu'elles valent ... je peux tout à fait me planter. :ph34r:

 

Edited by fljb67

Share this post


Link to post
Share on other sites

Donc je n'ai pas intérêt à remplacer une ZWO ASI 224MC par une ASI 290MM pour améliorer la résolution à 1200mm de focale, en partant du principe que je ne fais pas un fixation sur la couleur de ce que je photographie.

Edited by STF8LZOS6

Share this post


Link to post
Share on other sites
Il y a 2 heures, jldauvergne a dit :

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

 

JL,

Qu'est-ce que tu entends par 30% de difference ?

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !:D

 

Lucien

 

 

Edited by Lucien

Share this post


Link to post
Share on other sites
il y a 7 minutes, Lucien a dit :

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !

Oui c'est ça. 

Share this post


Link to post
Share on other sites
Il y a 3 heures, fljb67 a dit :

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

Je ne sais pas quel raisonnement tu fais mais il est faux. En sensibilité effective, un capteur avec une matrice de bayer est environ 1/3 moins sensible tout simplement car il y a un filtre devant chaque pixel. Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

  • Like 1

Share this post


Link to post
Share on other sites
il y a une heure, jldauvergne a dit :

Je ne sais pas quel raisonnement tu fais mais il est faux ....

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

 

 

 

il y a une heure, jldauvergne a dit :

Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

 

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

 

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

 

Edited by fljb67

Share this post


Link to post
Share on other sites

Je vous suggère de jeter un oeil à l'entropie de l'information:  elle est additive.

https://fr.wikipedia.org/wiki/Entropie_de_Shannon

Reste à trouver la pondération statistique d'information apportée par chaque élément de codage.

Particulièrement valable si il y a recouvrement de l'espace de codification.

-> A priori uniquement valable en cas de sur-échantillonage approprié.

-----------------------

Une réponse : ça dépend des qualités chromatiques de l'objet.

Ici : fort sur-échantillonage 3.83x

1ere : tous canaux (bleu non focusé du à mauvais choix du filtre couleur => propriété négative)

2eme image : 3 canaux (G+G+R) => H(G,R) > H(G,R,B) # à méditer.

2019-10-05_T_19-35-53-0742nb_3.jpg.4b573dfbbb00bc118ddecc50793bd686.jpg2019-10-05_T_19-35-53-0742nb_4.jpg.220354d3a9b35f8e236265cae018c2c6.jpg

Taux probable ici <<75%, contraste non optimal (2bits G, 1 bit R), perte en luminosité du à la matrice à pondérer, apport de chaque couleur en qty d'information : inconnu mais probablement très fort pour G. (en proportion du ressenti visuel / est-ça la cible qualitative de l'image ?)

Edited by lyl
  • Like 1
  • Confused 2

Share this post


Link to post
Share on other sites
il y a 47 minutes, fljb67 a dit :

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

  • Thanks 1

Share this post


Link to post
Share on other sites
il y a 48 minutes, fljb67 a dit :

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

la matrice de Bayer ce sont des filtres devant chaque pixel, un pixel donné ne capte qu'une seule couleur. 
Si un pixel à un filtre Vert on sait quelle est l'info en vert. Le B et le R sont extrapolés des pixels voisins. 
Les pixels sont disposés ainsi avec 1 sur 2 de couleur verte. 
https://fr.wikipedia.org/wiki/Matrice_de_Bayer#/media/Fichier:Bayer_pattern_on_sensor.svg 

 

 

il y a 50 minutes, fljb67 a dit :

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

Oui, c'est ça. 

Share this post


Link to post
Share on other sites
il y a 2 minutes, jldauvergne a dit :

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Share this post


Link to post
Share on other sites
il y a 6 minutes, lyl a dit :

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Ton message précédent est incompréhensible (pour moi en tout cas). Si tu peux formuler clairement, ...
Là comme ça, je ne vois pas trop ce que l'entropie de l'information vient faire ici. On parle ici dans le cas d'observation planétaire d'objets qui émettent dans tout le spectre visible, et la source ne change pas, c'est la caméra qui change. 
Ce que je cherche c'est une réponse dans la pratique, pas une réponse aux limites en fonction de qualités chromatiques exotiques de l'objet visé. Il est bien entendu qu'une matrice de bayer pour observer une nébuleuse qui n'émet que en H beta ce n'est pas bien. Mais ce n'est pas ma question.

  • Haha 2

Share this post


Link to post
Share on other sites

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

* La matrice de Bayer est quasiment orthogonale sur la plage de couleur mémorisée : il ne peut y avoir que contribution partielle à cause du filtre R ou G ou B

Pour faire simple : si on est incapable de dire ce qu'apporte en contraste un photosite d'une des couleurs dans un échantillonnage de masse d'une image comme tu as précisé au début de ton exposé, c'est pas la peine de poursuivre.

 

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

 

Share this post


Link to post
Share on other sites
il y a 24 minutes, lyl a dit :

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

Tu as raison que ça compte, mais oublions cet aspect, je pose la question dans l'absolu. 
Ce qui me gène avec l'échantillonnage, c'est que non déjà on ne sur-échantillonne pas forcément "suffisamment", et surtout en règle de base on applique la règle de Shannon ce qui est insuffisant pour voir les plus petits détails qu'une optique peut dévoiler. 

On nous explique ici et là que pour bien faire il faut échantillonner à un f/d de 3,8x la taille du pixel. Perso je suis à 8,3x et je pense que ça m'apporte quelque chose par rapport à 8,3 (parce que l'optique suit notamment). Je suis sans doute un peu haut mais ça marche (il y a aussi des contraintes de montage optique, et je trouve ça intéressant d'être haut pour faire un traitement plus précis). 
Et ce qui est sûr c'est que j'ai des détails plus fins avec ma caméra n&b à 8,3x qu'avec la couleur qui est à 6,4x. 

 

 

il y a 28 minutes, lyl a dit :

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

C'est tout le sens de ma question de savoir quel raisonnement est juste, mais encore une fois je ne vois pas ce qu'apporte l’histoire de l’entropie de Shannon, car elle porte sur la source, pas sur le récepteur. 

Share this post


Link to post
Share on other sites

JL,

 

Tu souhaites que l'on obtienne un chiffre précis ;

de perte de résolution dans le cas de l'utilisation d'un capteur de Bayer par rapport à l'utilisation d'un capteur monochrome

et en technique de prise de vue rapide avec turbulence et par l'utilisation de logiciels d’alignement et d'empilement d'images qui souvent recourent à la techniques multi-points. Avec ou sans utilisation d'un ADC...un facteur échantillonnage variable et avec passage dans un logiciel d'accentuation par Ondelettes...

( Souvent débats tournent en rond parce que l'on ne dit pas tout au départ. :D On sous-entend, on suppose sans le dire...:D

Bon, la couleur du sujet est  ce qu'elle est. On passe allégrement la-dessus. :D

 

Cette problématique est typiquement celle qui dans la technique de l'ingénieur :

-  ne peut que recevoir une réponse floue !

 

Il y a deux façons de mesurer une résolution optique :

- sur le ciel en secondes/d'arc et avec des étoiles doubles...voir définition,

- au labo sur des mires et avec une procédure rigoureuse : mire de contraste : paires de lignes par millimètre.

 

Si la comparaison image à image peut donner une indication  :  exemple l'une semble plus résolue que l'autre,

ce n'est pas une mesure pour sortir un chiffre.

 

Pour résumer-résumer-résumer :

 

Il est communément admis qu'au labo et sur mire, la perte de résolution d'un capteur Bayer soit de l'ordre de 40% par rapport au capteur mono.

Ce chiffre s"explique par le fait qu'il y a seulement la moitié des pixels V et que avec les traitements, ce soit le facteur limitant au global.

C'est déjà se placer dans une hypothèse assez favorable pour les pixels R et B. En cas de forte dominante colorée B ou R, la perte sera plus importante.

Donc moitié moins de pixels donc résolution en baisse d'un facteur Racine(2) soit 41.4%, que  l'on arrondit à 40%.

Mais ça c'est déjà une simplification pour ceux aiment la simplicité des chiffres et aiment déjà moins les courbes de contraste. :D

 

 

Sur le ciel du planéreux, comme je l'indiquais plus haut, l’affaire est autre :

 

- turbulence qui étale l'information spatialement, (voir les techniques de dithering et drizzle )

- sur-échantillonnage fréquent,

- addition d'images...

en pratique ça rapproche pas mal les performances des deux capteurs et termes de résolution.

La perte en résolution sera comprise entre 0% et 40% ! Toujours pour ceux qui aiment les chiffres.

 

Résolution qu'aucun amateur ne mesure je le rappelle :

je ne sais si un astronome-amateur a déjà mesuré une résolution optique en France et en 2019,

J'en doute. Donc on discute de chiffres que l'on ne peut mesurer. On est dans le subjectifs des parfums de luxe.

 

--------------------------------------------------

Si maintenant on souhaite donner des conseils pratiques afin de tirer le meilleur parti de chacun des capteurs,

c'est un autre débat.

Si on se débrouille bien avec son capteur de Bayer, on tentera de se rapprocher d'une perte de 0% plutôt que de 40%.

Je suis très malin moi Mossieu ! :D   Et souvent j'y arrive parce que le facteur limitant la résolution de mes images n'est pas le Bayer.

Et toc !:D

Et je dis que le Bayer est aussi bon que le mono en résolution. NON, NON, très mauvaise formulation  !

_____________________________

 

Chercher un chiffre moyen de perte de résolution, ça me fait penser :

au gus qui a la tête dans l'eau très chaude et les pieds dans l'eau glacée, en moyenne il est bien !  :D

 

Je ne reviens par sur le sujet.

Sauf si quelqu'un m'indique qu'il vient de mesurer une résolution spatiale sur l'une de ces images. :D

Bon dimanche à tous,

 

Lucien

Edited by Lucien
  • Like 1

Share this post


Link to post
Share on other sites

Essayons d'expliquer le principe du symbôle et l'adéquation à l'image analogique.

Pour commencer, une petite vidéo plus pratique en anglais exposant quelques arguments mono/bayer matrix/filtre spécialisé

https://youtu.be/3RRYljn8358

 

Un peu de vulgarisation de la théorie pas simple.

Le principe de décomposition dans un capteur : le passage dans le monde numérique.

fourier.png.fe1d007cc01fde5e6ef34cdc957c0668.pngnumerisation.png.38068e66033eee75d76c84c6299a9aeb.png

 

Théorie autour de la numérisation, la décomposition dans l'espace de Fourier :

En N&B, appelons a(ω) la fonction luminance de la fréquence ω, S la luminance totale du signal sur la plage. On a donc, vu du capteur un assemblage pour ω [min,max], S =  Σ a(ω) de la luminance capturée modulée par la sensitivité du capteur, heureusement c'est additif.

a(ω) est le résultat de la convolution du signal et de la sensitivité du codeur.

Ex. : Jupiter ⊗ Capteur, imaginez le rendu par fréquence.

Jupiter.jpeg.24325480a97c287b05099a916cb1ef97.jpegQE.png&key=6ce55a3e67cd56ed2b7dc17f5c55a

 

=> on est mono symbôle. Le codage dépend de l'assemblage des photosites avec le même taux de quantité d'information, qu'on peut identifier à son entropie unique H(N&B)

+ le rapport Signal / Bruit est fort car peu d'éléments s'interpose entre le signal et la capture.

 

En RGB, matrice de Bayer, quand on est en sur-échantillonnage.

La source est alors convoluée avec les filtres de chaque couleur pour sortir 3 signaux.

On simplifie en passant en tri-symbôle, avec b(ω), g(ω), r(ω) les luminances respectives sur la même plage Sb =  Σ b(ω), Sg et Sr

ZWO-ASI-1600-Pro-CMOS-Telescope-Camera-C

 

L'entropie recomposée, assemblage de la quantité d'information de l'image couleur vaut la somme des entropies moins l'entropie conjointe (Formule de Bayes en probabilité)

https://fr.wikipedia.org/wiki/Théorème_de_Bayes

1cb996ed4ecaee7ec370206ec23c6c30bf1be440

 

En entropie sur 2 symbôles : L'information mutuelle I(B,G) = H(B) + H(G) - H(B,G)

I(B,G,R)  = I(B,G) + H(R) - H(B,R) - H(G,R)

 

Sur certains capteurs, et plutôt type de filtre, on a une quasi orthogonalité entre les couleurs et les entropies conjointes sont faibles (négligeables)

 

Ca plus la perte de signal à travers les filtres, on a une perte de la quantité d'information

canal-bruit.png.f92c891ee902ef84542ecf2c5111717f.png

 

Chaque symbôle n'échappe pas à l'application du théorème pour son entropie

 

C = Bande x log (1 + Signal/Bruit)

 

Ce qui revient à appliquer un coefficient à chaque entropie H(couleur RGB) ~ Entropie émise x log ( 1 + S/B)

 

=> considérer le rendement du filtre sur le ratio S/B

- perte due au filtre

- information incomplète ( malgré une certaine symétrie) due à la surface de capture partielle du photosite dans le pixel.

 

Voilà, j'espère que la perte due au découpage en "symbôle" que sont les couleurs de la matrice de Bayer dans la théorie de l'information sont un peu plus explicite.

Edited by lyl

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By Jean-Marc_M
      Je regarde "distraitement" les lunettes de 100/700 et j'ai une petite interrogation : pourquoi dépenser 60% de plus sur un pack complet "lunette + correcteur + réducteur + colliers" pour une Taka FC100DF (4115 €) alors qu'il y a la TS Photoline 107/700 (2532 €) ? Si ça se faisait, ça irait avec une AZ-EQ6, ASI183 et ASI1600 + LRVB Optolong et SHO Astrodon 5 nm.
       
      https://www.pierro-astro.com/materiel-astronomique/marques/takahashi/lunettes-takahashi/lunette-takahashi-fc-100df-tube-seul_detail
      http://www.astrosurf.com/heidemann/Test Taka FC 100 DF exp.pdf
       
      https://www.pierro-astro.com/materiel-astronomique/lunettes-astronomiques/lunettes-apochromatiques2015-05-22-16-31-10/lunette-ts-photoline-107mm-f6-5-apo-triplet_detail
       
      Voyez-vous d'autres lunettes de 100 sachant que j'ai écarté la SW Esprit 100/550 (focale unique et trop courte) et la Borg 107/600 (trop chère par rapport à la Taka je trouve, focale un poil trop courte et unique je crois puisque pas vu de réducteur) ?
      J'ai pour quelques heures encore une 102/700 de chez M42 Optic, petit triplet de m... qui s'avère être décolimaté-inréglable et qui va très bientôt servir à ferrailler du béton. Je ne tiens évidemment pas à renouveler cette désagréable expérience avec du matériel.
       
      Merci pour vos avis éclairés
    • By babar001
      Bonjour,
       
      Quelqu'un a t-il déjà utilisé ce type d'instrument et que vaut-il?
      Il y a bien un test ou deux sur le net mais pas beaucoup de retour d'astram.
      Cette question car je peux en avoir un à très très bon prix.
      Je sais que l'obstruction est importante mais bon...
      Il semblerait aussi que la collim est difficile à réaliser.
      Mon but ne serait que faire du visuel sur une "petite monture" style EQ5.
      Donc maintenant si on me dit qu'en visuel c'est moins bon qu'un C8 et que la collim est pire, je passe mon chemin 
      merci
    • By STF8LZOS6
      Je vous rassure, je ne veux pas faire la compétition avec les gros tubes sur Venus, mais ce message vient en complément de deux posts, celui sur M42 ici et celui sur le choix d'un objectif ou d'une lunette en astrophoto ciel profond.
      Voici une image de Venus prise hier soir à Dunkerque en automatique avec un boitier Canon EOS 5D  Mark IV et l'objectif cité ci-dessus muni du dernier extender canon 1.4X mark III.
      Pas de suivi bien évidement.
      Image d'origine, et ensuite un fort cropage.....Alors, quoi conclure? Bon, c'est sûr je ne ferai pas de la HR en astrophoto avec mais en ornitho, il cartonne. Mais en CP, pourquoi pas, en parallèle avec une lulu bas de gamme pour le guidage. Un bonne petite achro de 600/1000 de focal. Cela fait réfléchir non? Cet objectif non stabilisé est de conception ancienne, pas stabilisé, ayant peu de lentilles, 6 tout au plus mais deux ED....pas populaire ici en europe mais il est parfait pour nous je pense, peut-être avec un aps-c plutôt qu'un full frame pour l'aspect des étoiles au bord du champ.
      On voit bien la phase, et la dispersion atmosphérique. Il y a une légère surexposition du fait de la prise de vue en automatique mais je n'ai pas eu le temps de faire d'autres réglages avec les passages nuageux. On est pas dans le midi ici....
       
      Claude


    • By FHoTo
      Bonjour à tous,
      Pouvez-vous me dire s'il est judicieux de faire modifier mon Canon 7D Mk2 avec un filtre Astrodon ? Ou est-il préférable de le faire sur un autre boitier ?
      Sachez que j'ai déjà un 6D "Astrodon", mais que je voudrais en plus un APS-C
       
      Merci d'avance.
       
      Fabrice.
    • By F4CQH
      Bonsoir a tous,
      Je commence à faire de l'astrophoto avec mon APN Nikon D7000.  à l'aide de mes objectifs. Cad un 24mm, un 105 et un zoom 80-200, tous ouverts à 2.8.
      Mais pour avoir des champs plus sérés, je me demande, s'il est préférable d'acheter un vieux zoom ais en 400 ou 500.ou d'acheter une lulu de ce style.
      https://www.pierro-astro.com/materiel-astronomique/lunettes-astronomiques/lunettes-apochromatiques2015-05-22-16-31-10/lunette-ts-80-560-photoline-apo-doublet-fpl53-et-lanthane_detail
      Quel est le mieux ?
      Sachant que dans l'avenir je souhaite rester sur de l'astrophoto légère sans trop de prise de tête 
      Merci pour votre aide.
      Robert
       
  • Images