jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Messages recommandés

Hello

Christophe De La Chapelle vient de publier une vidéo sur les caméras n&b vs couleur. En bossant dessus ça a ouvert pas mal de discussion entre nous pour amender le contenu par rapport à la version initiale. La discussion portait principalement sur la perte de résolution d'une caméra couleur par rapport à une caméra n&b (à échantillonnage égal bien entendu). , 
Souvent les gens pensent que l'on perd un facteur 2 de résolution. En réalité tout dépend si on considère la couche luminance ou chrominance, et tout dépend avec quel algo ces couches sont générées.
Toujours est-il qu'il est admis dans la littérature que la perte est de l'ordre de 30% et non pas 50%. 

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot. Une fois que l'on composite j'ai tendance à me dire qu'avec la turbu et les dérives de la monture, chaque détail est tantôt en face d'un pixel R, un pixel B, un pixel V. Et intuitivement j'ai l'impression que du coup, on n'a pas forcément une grosse perte de détail par rapport à une matrice monochrome. A moins que l'alignement se fasse après dématrissage et que le dématrissage induise forcément une perte irréversible ? 

On a une perte de dynamique en revanche et la dynamique participe à la résolution, mais en même temps si on veut l'info couleur avec le capteur monochrome il faudra bien filtrer, donc pas soucis de simplification mettons de côté cette question de la dynamique, la question de base est déjà assez compliquée je pense :) On suppose donc que l'on est à dynamique identique sur les deux matrices. 
Je ne sais pas ce que ça inspire aux cadors du domaine  @Marc Delcroix@Christophe Pellier@cbuil

@JPProst, @christian viladrich, @Thierry Legault

Je mets la vidéo en lien pour ceux qui veulent voir : 

 

Modifié par jldauvergne
  • J'aime 3
  • J'adore 1
  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Ah au fait, pour la question du post, la réponse est oui :)

Maintenant dans quelle proportion ? ;)

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour. :)

 

Là où je ne suis pas d'accord , c'est avec avec la différence de sensibilité évoquée  "Couleur vs monochrome" ... surtout au delà  de 525 nm.

 

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

 

5df50c0745c0e_z_P1070011_monovscouleur_bis_1000.jpg.effc8a973b2f1d27340f5c236864c94b.jpg

 

 

( Désolé pour les coups de "Tipp-Ex" ... travail à l'ancienne. :ph34r: )

 

 

Edit :

 

@olivdeso  + @Chris277  ( entre autres ) :  raisonnement faux ( voir plus loin ) ... donc désolé pour cette connerie de ma part. :S

 

 

Modifié par fljb67
  • Confus 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut JL,

 

La réponse a ta question n'est pas claire et ne le sera jamais parce que la comparaison est faussée d'entrée de jeu par deux facteurs,

qui font que l'on ne compare pas que les capteurs :

- le sur-échantillonage assez abondant des images planétaires,

- et surtout la turbulence atmosphérique qui produit une sorte de dithering.

 

Ces deux effets combinés profitent surtout au capteur de Bayer.

Au point d'en rapprocher sensiblement les performances en termes de résolution, par rapport au monochrome.

 

------------------------------------------------------------------------------------------------------------

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE.

Mais ça le planéteux, il s'en fiche.

-----------------------------------------------------------------------------------------------------------

 

Lucien

 

 

  • J'aime 3

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 35 minutes, Lucien a dit :

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE

 

Salut Lucien. :)

 

J'avoue être sûr d'avoir intégré ce que tu voulais dire par là. ... à part le fait que la caméra couleur serait pourrie si conditions que tu as cité seraient réunies.

 

Mon impression est-elle bonne ou pas ?

 

Modifié par fljb67

Partager ce message


Lien à poster
Partager sur d’autres sites

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution.

 

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Lucien

 

 

 

  • J'aime 1
  • Haha 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 30 minutes, Lucien a dit :

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, Marc S a dit :

Pour info et pour recouper  les renseignements....

 

On avait déjà entamé ce sujet sur ce poste :

Oui j'avais lu ce fil, ça converge avec ce que je dis avec le chiffre de 25%. (Il me semble qu'il est difficile de donner un chiffre au pourcent près car l'impact de la détérioration du motif considéré dépend de sa forme et de sa couleur). 
La contribution de @mala05 a en tout cas un peu remis les points sur les I. Même si certains continuent à douter. 

Si quelqu'un a vraiment envie d'affirmer le chiffre de 50% qu'il tente de le démontrer d'abord, on parlera ensuite :)

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, Lucien a dit :

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Ok, lu. ^^

 

Autrement, il faudrait faire une distinction entre "signal" et résolution ( je parle en rapport avec la vidéo ).

 

... car niveau signal "global" entre 400 et 700 nm, d'après les courbes, le capteur "couleur" fait ~ jeu égal avec le capteur monochrome.

 

Après, les courbes "constructeur" valant ce qu'elles valent ... je peux tout à fait me planter. :ph34r:

 

Modifié par fljb67

Partager ce message


Lien à poster
Partager sur d’autres sites

Donc je n'ai pas intérêt à remplacer une ZWO ASI 224MC par une ASI 290MM pour améliorer la résolution à 1200mm de focale, en partant du principe que je ne fais pas un fixation sur la couleur de ce que je photographie.

Modifié par STF8LZOS6

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, jldauvergne a dit :

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

 

JL,

Qu'est-ce que tu entends par 30% de difference ?

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !:D

 

Lucien

 

 

Modifié par Lucien

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, Lucien a dit :

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !

Oui c'est ça. 

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 3 heures, fljb67 a dit :

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

Je ne sais pas quel raisonnement tu fais mais il est faux. En sensibilité effective, un capteur avec une matrice de bayer est environ 1/3 moins sensible tout simplement car il y a un filtre devant chaque pixel. Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jldauvergne a dit :

Je ne sais pas quel raisonnement tu fais mais il est faux ....

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

 

 

 

il y a une heure, jldauvergne a dit :

Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

 

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

 

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

 

Modifié par fljb67

Partager ce message


Lien à poster
Partager sur d’autres sites

Je vous suggère de jeter un oeil à l'entropie de l'information:  elle est additive.

https://fr.wikipedia.org/wiki/Entropie_de_Shannon

Reste à trouver la pondération statistique d'information apportée par chaque élément de codage.

Particulièrement valable si il y a recouvrement de l'espace de codification.

-> A priori uniquement valable en cas de sur-échantillonage approprié.

-----------------------

Une réponse : ça dépend des qualités chromatiques de l'objet.

Ici : fort sur-échantillonage 3.83x

1ere : tous canaux (bleu non focusé du à mauvais choix du filtre couleur => propriété négative)

2eme image : 3 canaux (G+G+R) => H(G,R) > H(G,R,B) # à méditer.

2019-10-05_T_19-35-53-0742nb_3.jpg.4b573dfbbb00bc118ddecc50793bd686.jpg2019-10-05_T_19-35-53-0742nb_4.jpg.220354d3a9b35f8e236265cae018c2c6.jpg

Taux probable ici <<75%, contraste non optimal (2bits G, 1 bit R), perte en luminosité du à la matrice à pondérer, apport de chaque couleur en qty d'information : inconnu mais probablement très fort pour G. (en proportion du ressenti visuel / est-ça la cible qualitative de l'image ?)

Modifié par lyl
  • J'aime 1
  • Confus 2

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 47 minutes, fljb67 a dit :

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

  • Merci 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 48 minutes, fljb67 a dit :

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

la matrice de Bayer ce sont des filtres devant chaque pixel, un pixel donné ne capte qu'une seule couleur. 
Si un pixel à un filtre Vert on sait quelle est l'info en vert. Le B et le R sont extrapolés des pixels voisins. 
Les pixels sont disposés ainsi avec 1 sur 2 de couleur verte. 
https://fr.wikipedia.org/wiki/Matrice_de_Bayer#/media/Fichier:Bayer_pattern_on_sensor.svg 

 

 

il y a 50 minutes, fljb67 a dit :

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

Oui, c'est ça. 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 2 minutes, jldauvergne a dit :

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 6 minutes, lyl a dit :

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Ton message précédent est incompréhensible (pour moi en tout cas). Si tu peux formuler clairement, ...
Là comme ça, je ne vois pas trop ce que l'entropie de l'information vient faire ici. On parle ici dans le cas d'observation planétaire d'objets qui émettent dans tout le spectre visible, et la source ne change pas, c'est la caméra qui change. 
Ce que je cherche c'est une réponse dans la pratique, pas une réponse aux limites en fonction de qualités chromatiques exotiques de l'objet visé. Il est bien entendu qu'une matrice de bayer pour observer une nébuleuse qui n'émet que en H beta ce n'est pas bien. Mais ce n'est pas ma question.

  • Haha 2

Partager ce message


Lien à poster
Partager sur d’autres sites

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

* La matrice de Bayer est quasiment orthogonale sur la plage de couleur mémorisée : il ne peut y avoir que contribution partielle à cause du filtre R ou G ou B

Pour faire simple : si on est incapable de dire ce qu'apporte en contraste un photosite d'une des couleurs dans un échantillonnage de masse d'une image comme tu as précisé au début de ton exposé, c'est pas la peine de poursuivre.

 

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 24 minutes, lyl a dit :

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

Tu as raison que ça compte, mais oublions cet aspect, je pose la question dans l'absolu. 
Ce qui me gène avec l'échantillonnage, c'est que non déjà on ne sur-échantillonne pas forcément "suffisamment", et surtout en règle de base on applique la règle de Shannon ce qui est insuffisant pour voir les plus petits détails qu'une optique peut dévoiler. 

On nous explique ici et là que pour bien faire il faut échantillonner à un f/d de 3,8x la taille du pixel. Perso je suis à 8,3x et je pense que ça m'apporte quelque chose par rapport à 8,3 (parce que l'optique suit notamment). Je suis sans doute un peu haut mais ça marche (il y a aussi des contraintes de montage optique, et je trouve ça intéressant d'être haut pour faire un traitement plus précis). 
Et ce qui est sûr c'est que j'ai des détails plus fins avec ma caméra n&b à 8,3x qu'avec la couleur qui est à 6,4x. 

 

 

il y a 28 minutes, lyl a dit :

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

C'est tout le sens de ma question de savoir quel raisonnement est juste, mais encore une fois je ne vois pas ce qu'apporte l’histoire de l’entropie de Shannon, car elle porte sur la source, pas sur le récepteur. 

Partager ce message


Lien à poster
Partager sur d’autres sites

JL,

 

Tu souhaites que l'on obtienne un chiffre précis ;

de perte de résolution dans le cas de l'utilisation d'un capteur de Bayer par rapport à l'utilisation d'un capteur monochrome

et en technique de prise de vue rapide avec turbulence et par l'utilisation de logiciels d’alignement et d'empilement d'images qui souvent recourent à la techniques multi-points. Avec ou sans utilisation d'un ADC...un facteur échantillonnage variable et avec passage dans un logiciel d'accentuation par Ondelettes...

( Souvent débats tournent en rond parce que l'on ne dit pas tout au départ. :D On sous-entend, on suppose sans le dire...:D

Bon, la couleur du sujet est  ce qu'elle est. On passe allégrement la-dessus. :D

 

Cette problématique est typiquement celle qui dans la technique de l'ingénieur :

-  ne peut que recevoir une réponse floue !

 

Il y a deux façons de mesurer une résolution optique :

- sur le ciel en secondes/d'arc et avec des étoiles doubles...voir définition,

- au labo sur des mires et avec une procédure rigoureuse : mire de contraste : paires de lignes par millimètre.

 

Si la comparaison image à image peut donner une indication  :  exemple l'une semble plus résolue que l'autre,

ce n'est pas une mesure pour sortir un chiffre.

 

Pour résumer-résumer-résumer :

 

Il est communément admis qu'au labo et sur mire, la perte de résolution d'un capteur Bayer soit de l'ordre de 40% par rapport au capteur mono.

Ce chiffre s"explique par le fait qu'il y a seulement la moitié des pixels V et que avec les traitements, ce soit le facteur limitant au global.

C'est déjà se placer dans une hypothèse assez favorable pour les pixels R et B. En cas de forte dominante colorée B ou R, la perte sera plus importante.

Donc moitié moins de pixels donc résolution en baisse d'un facteur Racine(2) soit 41.4%, que  l'on arrondit à 40%.

Mais ça c'est déjà une simplification pour ceux aiment la simplicité des chiffres et aiment déjà moins les courbes de contraste. :D

 

 

Sur le ciel du planéreux, comme je l'indiquais plus haut, l’affaire est autre :

 

- turbulence qui étale l'information spatialement, (voir les techniques de dithering et drizzle )

- sur-échantillonnage fréquent,

- addition d'images...

en pratique ça rapproche pas mal les performances des deux capteurs et termes de résolution.

La perte en résolution sera comprise entre 0% et 40% ! Toujours pour ceux qui aiment les chiffres.

 

Résolution qu'aucun amateur ne mesure je le rappelle :

je ne sais si un astronome-amateur a déjà mesuré une résolution optique en France et en 2019,

J'en doute. Donc on discute de chiffres que l'on ne peut mesurer. On est dans le subjectifs des parfums de luxe.

 

--------------------------------------------------

Si maintenant on souhaite donner des conseils pratiques afin de tirer le meilleur parti de chacun des capteurs,

c'est un autre débat.

Si on se débrouille bien avec son capteur de Bayer, on tentera de se rapprocher d'une perte de 0% plutôt que de 40%.

Je suis très malin moi Mossieu ! :D   Et souvent j'y arrive parce que le facteur limitant la résolution de mes images n'est pas le Bayer.

Et toc !:D

Et je dis que le Bayer est aussi bon que le mono en résolution. NON, NON, très mauvaise formulation  !

_____________________________

 

Chercher un chiffre moyen de perte de résolution, ça me fait penser :

au gus qui a la tête dans l'eau très chaude et les pieds dans l'eau glacée, en moyenne il est bien !  :D

 

Je ne reviens par sur le sujet.

Sauf si quelqu'un m'indique qu'il vient de mesurer une résolution spatiale sur l'une de ces images. :D

Bon dimanche à tous,

 

Lucien

Modifié par Lucien
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Essayons d'expliquer le principe du symbôle et l'adéquation à l'image analogique.

Pour commencer, une petite vidéo plus pratique en anglais exposant quelques arguments mono/bayer matrix/filtre spécialisé

https://youtu.be/3RRYljn8358

 

Un peu de vulgarisation de la théorie pas simple.

Le principe de décomposition dans un capteur : le passage dans le monde numérique.

fourier.png.fe1d007cc01fde5e6ef34cdc957c0668.pngnumerisation.png.38068e66033eee75d76c84c6299a9aeb.png

 

Théorie autour de la numérisation, la décomposition dans l'espace de Fourier :

En N&B, appelons a(ω) la fonction luminance de la fréquence ω, S la luminance totale du signal sur la plage. On a donc, vu du capteur un assemblage pour ω [min,max], S =  Σ a(ω) de la luminance capturée modulée par la sensitivité du capteur, heureusement c'est additif.

a(ω) est le résultat de la convolution du signal et de la sensitivité du codeur.

Ex. : Jupiter ⊗ Capteur, imaginez le rendu par fréquence.

Jupiter.jpeg.24325480a97c287b05099a916cb1ef97.jpegQE.png&key=6ce55a3e67cd56ed2b7dc17f5c55a

 

=> on est mono symbôle. Le codage dépend de l'assemblage des photosites avec le même taux de quantité d'information, qu'on peut identifier à son entropie unique H(N&B)

+ le rapport Signal / Bruit est fort car peu d'éléments s'interpose entre le signal et la capture.

 

En RGB, matrice de Bayer, quand on est en sur-échantillonnage.

La source est alors convoluée avec les filtres de chaque couleur pour sortir 3 signaux.

On simplifie en passant en tri-symbôle, avec b(ω), g(ω), r(ω) les luminances respectives sur la même plage Sb =  Σ b(ω), Sg et Sr

ZWO-ASI-1600-Pro-CMOS-Telescope-Camera-C

 

L'entropie recomposée, assemblage de la quantité d'information de l'image couleur vaut la somme des entropies moins l'entropie conjointe (Formule de Bayes en probabilité)

https://fr.wikipedia.org/wiki/Théorème_de_Bayes

1cb996ed4ecaee7ec370206ec23c6c30bf1be440

 

En entropie sur 2 symbôles : L'information mutuelle I(B,G) = H(B) + H(G) - H(B,G)

I(B,G,R)  = I(B,G) + H(R) - H(B,R) - H(G,R)

 

Sur certains capteurs, et plutôt type de filtre, on a une quasi orthogonalité entre les couleurs et les entropies conjointes sont faibles (négligeables)

 

Ca plus la perte de signal à travers les filtres, on a une perte de la quantité d'information

canal-bruit.png.f92c891ee902ef84542ecf2c5111717f.png

 

Chaque symbôle n'échappe pas à l'application du théorème pour son entropie

 

C = Bande x log (1 + Signal/Bruit)

 

Ce qui revient à appliquer un coefficient à chaque entropie H(couleur RGB) ~ Entropie émise x log ( 1 + S/B)

 

=> considérer le rendement du filtre sur le ratio S/B

- perte due au filtre

- information incomplète ( malgré une certaine symétrie) due à la surface de capture partielle du photosite dans le pixel.

 

Voilà, j'espère que la perte due au découpage en "symbôle" que sont les couleurs de la matrice de Bayer dans la théorie de l'information sont un peu plus explicite.

Modifié par lyl

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant



  • Contenu similaire

    • Par guy03
      Bonsoir
      Quelle est la marque SVP de cette bino en 31.75. Je viens d'observer avec sur ma lunette de 80/480 la full moon. Le pied .... car je n'ai pas besoin de barlow pour avoir la netteté comme avec la mienne, une TS grand champ. Du coup la lune est plus petite et c'est hyper agréable!!! Avec la TS, la lune est plus grosse et prend presque tout le champ des oculaires de 20mm par exemple. Avec cette petite bino je me suis vraiment éclaté en observant la lune. J'avais 2 oculaires de 20mm Masuyama. J'obtiens la netteté avec des oculaires de 20mm ou plus comme des 25. Avec des 15mm ce n'est pas possible mais pas grave.Merci et bon ciel surtout!


    • Par lkaiser
      Bonjour,
       
      Pour obtenir un grossissement particulier, j'ai besoin de fixer directement la tête de ma barlow TeleVuex2 sur le nosepiece livré avec ma camera ZWO.
      Problème : ce n'est pas le même filetage, mais un qui est très légèrement différent... super 
      Et en bout de cette tête j'ai déjà fixé des filtres 
       
      Je ne trouve pas d'info sur cette bonne blague, si quelqu'un a une astuce, je suis preneur
       
      Merci
       
      Lionel
    • Par Marko
      Bonjour à tous

      Je viens de faire acquisition d'un A7S defiltré - refiltré via Irphotomax. Je vais l'utiliser avec ma lulu 66/400 et son réducteur 0.8 (66/320).
      Après lecture de plusieurs sujets, je me suis complétement perdu dans mes choix.
      Je pensai prendre un objo Sony FE 28mm F2 pour tout ce qui est voie lactée, aurores boréales ... bref, du grand champ.
      Est ce que cet objectif est bon ? est ce qu'il correspond à ce que je veux faire ? Il y a t'il mieux ou aussi bien moins cher ?
       
      D'ici cet été, je pensai l'accompagner d'un Samyang 135mm.
      Est ce que ça va faire doublon avec la lunette ??
      Je prends toutes idées, critiques etc ...
      Je vous remercie d'avance pour votre aide et vos réponses.
      Cordialement
      Marc
    • Par Laurent fd3
      Bonjour,
      Avant de commander un 150mm plan, qui peut paraitre grand pour un 500mm f3.3 seulement, mais j'ai l'intention de faire un peu de photo avec mon A7s...
      Quelle taille fond vos secondaires ?
      Laurent.
    • Par xmeex
      Bonjour à tous.
       
      Depuis l'acquisition d'un C11 en juillet 2023, j'ai renoué avec l'astro et je me suis lancé dans l'astrophoto planétaire.
      Comme beaucoup d'autres, Saturne et Jupiter m'ont fait de l'oeil (à moins que ça soit l'inverse).
      J'ai vite compris que sans collimation impeccable, pas de haute définition envisageable. Et un Schmidt-Cassegrain, c'est très sympa pour le planétaire, mais qu'est-ce que c'est sensible à la collimation !
      Par défaut, le secondaire du C11 est muni de 3 vis phillips.
      Par facilité et par peur de toucher la lame avec un tournevis dans le noir, je les ai remplacé par des bob's knobs de chez Pierro Astro.
      Quelle facilité de manipulation ! Maintenant, je n'avais plus qu'à m'entraîner pour que cet exercice devienne naturel et rapide.
      Je n'utilise que la collimation à la caméra, ce qui permet de faire les réglages et voir en même temps le résultat.
      Avec mon ciel très "mouvant", j'ai du quand même apprendre à être patient car impossible de voir la tâche d'Airy pour finaliser. Donc stacking de la vidéo de l'étoile, réglage/stacking/réglage ...
       
      Bref, le tour de main, maintenant, je l'ai. En revanche, je constate que ma collim ne tient même pas durant une session d'observation, ce que je considère quand même comme le minimum syndical.
       
      Le soucis, j'en suis persuadé, vient des vis boutons. Probablement légèrement trop fine et, malgré un serrage correct (pas trop pour éviter le trefoil), je ressens que c'est près à bouger. De plus, le ressenti entre les doigts du dernier serrage n'est pas satisfaisant. Je confirme finalement par l'expérience ce que j'ai pu lire quelques fois sur les forums. 
       
      La mort dans l'âme, je décide de revenir à des vis plus classiques, mais cette fois avec clé allen. J'opte pour des vis BTR en titane M3 0.5 / 12mm selon les spec Celestron. 10€ la vis frais de port compris ça pique mais je me dis "qu'est-ce que je risque" ?
       
      Et bien franchement, si vous avez ce soucis, allez-y !
      Les vis sont parfaitement ajustées au filet => bon suivi du réglage la clé allen est plus facile à manipuler que le tournevis et offre une sensation de serrage plus précise lorsqu'on peaufine au 32ème de tour. La collimation tient. Du moins durant ma session. Vu le démontage systématique, je revérifie en début de session et refait un réglage minime si nécessaire.  
      Pour info, la réf de mes nouvelles vis (or anodisé) : 
      https://www.bst-moto.com/vis-titane-chc-m3-x-0-5mm-x-12mm-art_fr_757162.html

       
      Bonne journée et bon ciel à tous.
       
      Xavier
  • Évènements à venir