jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Recommended Posts

Hello

Christophe De La Chapelle vient de publier une vidéo sur les caméras n&b vs couleur. En bossant dessus ça a ouvert pas mal de discussion entre nous pour amender le contenu par rapport à la version initiale. La discussion portait principalement sur la perte de résolution d'une caméra couleur par rapport à une caméra n&b (à échantillonnage égal bien entendu). , 
Souvent les gens pensent que l'on perd un facteur 2 de résolution. En réalité tout dépend si on considère la couche luminance ou chrominance, et tout dépend avec quel algo ces couches sont générées.
Toujours est-il qu'il est admis dans la littérature que la perte est de l'ordre de 30% et non pas 50%. 

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot. Une fois que l'on composite j'ai tendance à me dire qu'avec la turbu et les dérives de la monture, chaque détail est tantôt en face d'un pixel R, un pixel B, un pixel V. Et intuitivement j'ai l'impression que du coup, on n'a pas forcément une grosse perte de détail par rapport à une matrice monochrome. A moins que l'alignement se fasse après dématrissage et que le dématrissage induise forcément une perte irréversible ? 

On a une perte de dynamique en revanche et la dynamique participe à la résolution, mais en même temps si on veut l'info couleur avec le capteur monochrome il faudra bien filtrer, donc pas soucis de simplification mettons de côté cette question de la dynamique, la question de base est déjà assez compliquée je pense :) On suppose donc que l'on est à dynamique identique sur les deux matrices. 
Je ne sais pas ce que ça inspire aux cadors du domaine  @Marc Delcroix@Christophe Pellier@cbuil

@JPProst, @christian viladrich, @Thierry Legault

Je mets la vidéo en lien pour ceux qui veulent voir : 

 

Edited by jldauvergne
  • Like 3
  • Love 1
  • Thanks 1

Share this post


Link to post
Share on other sites
Publicité
En vous inscrivant sur Astrosurf,
ce type d'annonce ne sera plus affiché.
Astronomie solaire : la bible est arrivée !
400 pages, plus de 800 illustrations !
Les commandes sont ouvertes sur www.astronomiesolaire.com

Ah au fait, pour la question du post, la réponse est oui :)

Maintenant dans quelle proportion ? ;)

  • Like 1

Share this post


Link to post
Share on other sites

Bonjour. :)

 

Là où je ne suis pas d'accord , c'est avec avec la différence de sensibilité évoquée  "Couleur vs monochrome" ... surtout au delà  de 525 nm.

 

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

 

5df50c0745c0e_z_P1070011_monovscouleur_bis_1000.jpg.effc8a973b2f1d27340f5c236864c94b.jpg

 

 

( Désolé pour les coups de "Tipp-Ex" ... travail à l'ancienne. :ph34r: )

 

 

Edit :

 

@olivdeso  + @Chris277  ( entre autres ) :  raisonnement faux ( voir plus loin ) ... donc désolé pour cette connerie de ma part. :S

 

 

Edited by fljb67
  • Confused 2

Share this post


Link to post
Share on other sites

Salut JL,

 

La réponse a ta question n'est pas claire et ne le sera jamais parce que la comparaison est faussée d'entrée de jeu par deux facteurs,

qui font que l'on ne compare pas que les capteurs :

- le sur-échantillonage assez abondant des images planétaires,

- et surtout la turbulence atmosphérique qui produit une sorte de dithering.

 

Ces deux effets combinés profitent surtout au capteur de Bayer.

Au point d'en rapprocher sensiblement les performances en termes de résolution, par rapport au monochrome.

 

------------------------------------------------------------------------------------------------------------

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE.

Mais ça le planéteux, il s'en fiche.

-----------------------------------------------------------------------------------------------------------

 

Lucien

 

 

  • Like 3

Share this post


Link to post
Share on other sites
il y a 35 minutes, Lucien a dit :

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE

 

Salut Lucien. :)

 

J'avoue être sûr d'avoir intégré ce que tu voulais dire par là. ... à part le fait que la caméra couleur serait pourrie si conditions que tu as cité seraient réunies.

 

Mon impression est-elle bonne ou pas ?

 

Edited by fljb67

Share this post


Link to post
Share on other sites

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution.

 

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Lucien

 

 

 

  • Like 1
  • Haha 1

Share this post


Link to post
Share on other sites
il y a 30 minutes, Lucien a dit :

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

  • Like 1

Share this post


Link to post
Share on other sites
Il y a 3 heures, Marc S a dit :

Pour info et pour recouper  les renseignements....

 

On avait déjà entamé ce sujet sur ce poste :

Oui j'avais lu ce fil, ça converge avec ce que je dis avec le chiffre de 25%. (Il me semble qu'il est difficile de donner un chiffre au pourcent près car l'impact de la détérioration du motif considéré dépend de sa forme et de sa couleur). 
La contribution de @mala05 a en tout cas un peu remis les points sur les I. Même si certains continuent à douter. 

Si quelqu'un a vraiment envie d'affirmer le chiffre de 50% qu'il tente de le démontrer d'abord, on parlera ensuite :)

Share this post


Link to post
Share on other sites
Il y a 2 heures, Lucien a dit :

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Ok, lu. ^^

 

Autrement, il faudrait faire une distinction entre "signal" et résolution ( je parle en rapport avec la vidéo ).

 

... car niveau signal "global" entre 400 et 700 nm, d'après les courbes, le capteur "couleur" fait ~ jeu égal avec le capteur monochrome.

 

Après, les courbes "constructeur" valant ce qu'elles valent ... je peux tout à fait me planter. :ph34r:

 

Edited by fljb67

Share this post


Link to post
Share on other sites

Donc je n'ai pas intérêt à remplacer une ZWO ASI 224MC par une ASI 290MM pour améliorer la résolution à 1200mm de focale, en partant du principe que je ne fais pas un fixation sur la couleur de ce que je photographie.

Edited by STF8LZOS6

Share this post


Link to post
Share on other sites
Il y a 2 heures, jldauvergne a dit :

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

 

JL,

Qu'est-ce que tu entends par 30% de difference ?

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !:D

 

Lucien

 

 

Edited by Lucien

Share this post


Link to post
Share on other sites
il y a 7 minutes, Lucien a dit :

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !

Oui c'est ça. 

Share this post


Link to post
Share on other sites
Il y a 3 heures, fljb67 a dit :

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

Je ne sais pas quel raisonnement tu fais mais il est faux. En sensibilité effective, un capteur avec une matrice de bayer est environ 1/3 moins sensible tout simplement car il y a un filtre devant chaque pixel. Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

  • Like 1

Share this post


Link to post
Share on other sites
il y a une heure, jldauvergne a dit :

Je ne sais pas quel raisonnement tu fais mais il est faux ....

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

 

 

 

il y a une heure, jldauvergne a dit :

Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

 

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

 

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

 

Edited by fljb67

Share this post


Link to post
Share on other sites

Je vous suggère de jeter un oeil à l'entropie de l'information:  elle est additive.

https://fr.wikipedia.org/wiki/Entropie_de_Shannon

Reste à trouver la pondération statistique d'information apportée par chaque élément de codage.

Particulièrement valable si il y a recouvrement de l'espace de codification.

-> A priori uniquement valable en cas de sur-échantillonage approprié.

-----------------------

Une réponse : ça dépend des qualités chromatiques de l'objet.

Ici : fort sur-échantillonage 3.83x

1ere : tous canaux (bleu non focusé du à mauvais choix du filtre couleur => propriété négative)

2eme image : 3 canaux (G+G+R) => H(G,R) > H(G,R,B) # à méditer.

2019-10-05_T_19-35-53-0742nb_3.jpg.4b573dfbbb00bc118ddecc50793bd686.jpg2019-10-05_T_19-35-53-0742nb_4.jpg.220354d3a9b35f8e236265cae018c2c6.jpg

Taux probable ici <<75%, contraste non optimal (2bits G, 1 bit R), perte en luminosité du à la matrice à pondérer, apport de chaque couleur en qty d'information : inconnu mais probablement très fort pour G. (en proportion du ressenti visuel / est-ça la cible qualitative de l'image ?)

Edited by lyl
  • Like 1
  • Confused 2

Share this post


Link to post
Share on other sites
il y a 47 minutes, fljb67 a dit :

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

  • Thanks 1

Share this post


Link to post
Share on other sites
il y a 48 minutes, fljb67 a dit :

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

la matrice de Bayer ce sont des filtres devant chaque pixel, un pixel donné ne capte qu'une seule couleur. 
Si un pixel à un filtre Vert on sait quelle est l'info en vert. Le B et le R sont extrapolés des pixels voisins. 
Les pixels sont disposés ainsi avec 1 sur 2 de couleur verte. 
https://fr.wikipedia.org/wiki/Matrice_de_Bayer#/media/Fichier:Bayer_pattern_on_sensor.svg 

 

 

il y a 50 minutes, fljb67 a dit :

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

Oui, c'est ça. 

Share this post


Link to post
Share on other sites
il y a 2 minutes, jldauvergne a dit :

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Share this post


Link to post
Share on other sites
il y a 6 minutes, lyl a dit :

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Ton message précédent est incompréhensible (pour moi en tout cas). Si tu peux formuler clairement, ...
Là comme ça, je ne vois pas trop ce que l'entropie de l'information vient faire ici. On parle ici dans le cas d'observation planétaire d'objets qui émettent dans tout le spectre visible, et la source ne change pas, c'est la caméra qui change. 
Ce que je cherche c'est une réponse dans la pratique, pas une réponse aux limites en fonction de qualités chromatiques exotiques de l'objet visé. Il est bien entendu qu'une matrice de bayer pour observer une nébuleuse qui n'émet que en H beta ce n'est pas bien. Mais ce n'est pas ma question.

  • Haha 2

Share this post


Link to post
Share on other sites

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

* La matrice de Bayer est quasiment orthogonale sur la plage de couleur mémorisée : il ne peut y avoir que contribution partielle à cause du filtre R ou G ou B

Pour faire simple : si on est incapable de dire ce qu'apporte en contraste un photosite d'une des couleurs dans un échantillonnage de masse d'une image comme tu as précisé au début de ton exposé, c'est pas la peine de poursuivre.

 

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

 

Share this post


Link to post
Share on other sites
il y a 24 minutes, lyl a dit :

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

Tu as raison que ça compte, mais oublions cet aspect, je pose la question dans l'absolu. 
Ce qui me gène avec l'échantillonnage, c'est que non déjà on ne sur-échantillonne pas forcément "suffisamment", et surtout en règle de base on applique la règle de Shannon ce qui est insuffisant pour voir les plus petits détails qu'une optique peut dévoiler. 

On nous explique ici et là que pour bien faire il faut échantillonner à un f/d de 3,8x la taille du pixel. Perso je suis à 8,3x et je pense que ça m'apporte quelque chose par rapport à 8,3 (parce que l'optique suit notamment). Je suis sans doute un peu haut mais ça marche (il y a aussi des contraintes de montage optique, et je trouve ça intéressant d'être haut pour faire un traitement plus précis). 
Et ce qui est sûr c'est que j'ai des détails plus fins avec ma caméra n&b à 8,3x qu'avec la couleur qui est à 6,4x. 

 

 

il y a 28 minutes, lyl a dit :

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

C'est tout le sens de ma question de savoir quel raisonnement est juste, mais encore une fois je ne vois pas ce qu'apporte l’histoire de l’entropie de Shannon, car elle porte sur la source, pas sur le récepteur. 

Share this post


Link to post
Share on other sites

JL,

 

Tu souhaites que l'on obtienne un chiffre précis ;

de perte de résolution dans le cas de l'utilisation d'un capteur de Bayer par rapport à l'utilisation d'un capteur monochrome

et en technique de prise de vue rapide avec turbulence et par l'utilisation de logiciels d’alignement et d'empilement d'images qui souvent recourent à la techniques multi-points. Avec ou sans utilisation d'un ADC...un facteur échantillonnage variable et avec passage dans un logiciel d'accentuation par Ondelettes...

( Souvent débats tournent en rond parce que l'on ne dit pas tout au départ. :D On sous-entend, on suppose sans le dire...:D

Bon, la couleur du sujet est  ce qu'elle est. On passe allégrement la-dessus. :D

 

Cette problématique est typiquement celle qui dans la technique de l'ingénieur :

-  ne peut que recevoir une réponse floue !

 

Il y a deux façons de mesurer une résolution optique :

- sur le ciel en secondes/d'arc et avec des étoiles doubles...voir définition,

- au labo sur des mires et avec une procédure rigoureuse : mire de contraste : paires de lignes par millimètre.

 

Si la comparaison image à image peut donner une indication  :  exemple l'une semble plus résolue que l'autre,

ce n'est pas une mesure pour sortir un chiffre.

 

Pour résumer-résumer-résumer :

 

Il est communément admis qu'au labo et sur mire, la perte de résolution d'un capteur Bayer soit de l'ordre de 40% par rapport au capteur mono.

Ce chiffre s"explique par le fait qu'il y a seulement la moitié des pixels V et que avec les traitements, ce soit le facteur limitant au global.

C'est déjà se placer dans une hypothèse assez favorable pour les pixels R et B. En cas de forte dominante colorée B ou R, la perte sera plus importante.

Donc moitié moins de pixels donc résolution en baisse d'un facteur Racine(2) soit 41.4%, que  l'on arrondit à 40%.

Mais ça c'est déjà une simplification pour ceux aiment la simplicité des chiffres et aiment déjà moins les courbes de contraste. :D

 

 

Sur le ciel du planéreux, comme je l'indiquais plus haut, l’affaire est autre :

 

- turbulence qui étale l'information spatialement, (voir les techniques de dithering et drizzle )

- sur-échantillonnage fréquent,

- addition d'images...

en pratique ça rapproche pas mal les performances des deux capteurs et termes de résolution.

La perte en résolution sera comprise entre 0% et 40% ! Toujours pour ceux qui aiment les chiffres.

 

Résolution qu'aucun amateur ne mesure je le rappelle :

je ne sais si un astronome-amateur a déjà mesuré une résolution optique en France et en 2019,

J'en doute. Donc on discute de chiffres que l'on ne peut mesurer. On est dans le subjectifs des parfums de luxe.

 

--------------------------------------------------

Si maintenant on souhaite donner des conseils pratiques afin de tirer le meilleur parti de chacun des capteurs,

c'est un autre débat.

Si on se débrouille bien avec son capteur de Bayer, on tentera de se rapprocher d'une perte de 0% plutôt que de 40%.

Je suis très malin moi Mossieu ! :D   Et souvent j'y arrive parce que le facteur limitant la résolution de mes images n'est pas le Bayer.

Et toc !:D

Et je dis que le Bayer est aussi bon que le mono en résolution. NON, NON, très mauvaise formulation  !

_____________________________

 

Chercher un chiffre moyen de perte de résolution, ça me fait penser :

au gus qui a la tête dans l'eau très chaude et les pieds dans l'eau glacée, en moyenne il est bien !  :D

 

Je ne reviens par sur le sujet.

Sauf si quelqu'un m'indique qu'il vient de mesurer une résolution spatiale sur l'une de ces images. :D

Bon dimanche à tous,

 

Lucien

Edited by Lucien
  • Like 1

Share this post


Link to post
Share on other sites

Essayons d'expliquer le principe du symbôle et l'adéquation à l'image analogique.

Pour commencer, une petite vidéo plus pratique en anglais exposant quelques arguments mono/bayer matrix/filtre spécialisé

https://youtu.be/3RRYljn8358

 

Un peu de vulgarisation de la théorie pas simple.

Le principe de décomposition dans un capteur : le passage dans le monde numérique.

fourier.png.fe1d007cc01fde5e6ef34cdc957c0668.pngnumerisation.png.38068e66033eee75d76c84c6299a9aeb.png

 

Théorie autour de la numérisation, la décomposition dans l'espace de Fourier :

En N&B, appelons a(ω) la fonction luminance de la fréquence ω, S la luminance totale du signal sur la plage. On a donc, vu du capteur un assemblage pour ω [min,max], S =  Σ a(ω) de la luminance capturée modulée par la sensitivité du capteur, heureusement c'est additif.

a(ω) est le résultat de la convolution du signal et de la sensitivité du codeur.

Ex. : Jupiter ⊗ Capteur, imaginez le rendu par fréquence.

Jupiter.jpeg.24325480a97c287b05099a916cb1ef97.jpegQE.png&key=6ce55a3e67cd56ed2b7dc17f5c55a

 

=> on est mono symbôle. Le codage dépend de l'assemblage des photosites avec le même taux de quantité d'information, qu'on peut identifier à son entropie unique H(N&B)

+ le rapport Signal / Bruit est fort car peu d'éléments s'interpose entre le signal et la capture.

 

En RGB, matrice de Bayer, quand on est en sur-échantillonnage.

La source est alors convoluée avec les filtres de chaque couleur pour sortir 3 signaux.

On simplifie en passant en tri-symbôle, avec b(ω), g(ω), r(ω) les luminances respectives sur la même plage Sb =  Σ b(ω), Sg et Sr

ZWO-ASI-1600-Pro-CMOS-Telescope-Camera-C

 

L'entropie recomposée, assemblage de la quantité d'information de l'image couleur vaut la somme des entropies moins l'entropie conjointe (Formule de Bayes en probabilité)

https://fr.wikipedia.org/wiki/Théorème_de_Bayes

1cb996ed4ecaee7ec370206ec23c6c30bf1be440

 

En entropie sur 2 symbôles : L'information mutuelle I(B,G) = H(B) + H(G) - H(B,G)

I(B,G,R)  = I(B,G) + H(R) - H(B,R) - H(G,R)

 

Sur certains capteurs, et plutôt type de filtre, on a une quasi orthogonalité entre les couleurs et les entropies conjointes sont faibles (négligeables)

 

Ca plus la perte de signal à travers les filtres, on a une perte de la quantité d'information

canal-bruit.png.f92c891ee902ef84542ecf2c5111717f.png

 

Chaque symbôle n'échappe pas à l'application du théorème pour son entropie

 

C = Bande x log (1 + Signal/Bruit)

 

Ce qui revient à appliquer un coefficient à chaque entropie H(couleur RGB) ~ Entropie émise x log ( 1 + S/B)

 

=> considérer le rendement du filtre sur le ratio S/B

- perte due au filtre

- information incomplète ( malgré une certaine symétrie) due à la surface de capture partielle du photosite dans le pixel.

 

Voilà, j'espère que la perte due au découpage en "symbôle" que sont les couleurs de la matrice de Bayer dans la théorie de l'information sont un peu plus explicite.

Edited by lyl

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By Chrishapha2019
      Bonjour à tous...
       
      J'ai une petite question sur La Bresser lunette 127/1200 :
       
      J'ai actuellement une Frehel 120/1000 (pâle copie de Celestron vendue par Nature & découvertes il y a déjà pas mal de temps).
      Certains la trouve très bien et d'autres (comme moi) la trouve très moyenne : contraste très pauvre sur Jupiter ou par ex je ne peux même pas monter au grossissement RESOLVANT. Sur la lune c'est correct mais même avec un 12mm c'est moyen et même pas la peine de tenter le 9mm..
       
      En revanche en H alpha j'arrive malgré tout à monter avec un 7mm quand le ciel est clair sans nuages. Donc dans de bonnes conditions on peut monter au grossissement résolvant  (1D à 0.75D ; voire à  1.5D).  J'ai pû utiliser le 5mm (x200) mais l'image est pénible et n'apporte rien de plus.
       
      Quand j'ai observé  en H alpha (aujourd’hui)  après avec la Bresser 102/1350 c’était un autre monde : un piqué et un contraste impressionnant !!  J'ai eu l'impression de redécouvrir la protubérance solaire sur laquelle j'avais déjà passé 1h avec la frehel!!!
       
      Bref ; cela m'amène à demander : Est ce que la BResser 127/1200 est aussi bonne optiquement que la 102/1350 ??
       
      Quels sont ceux qui ont observé avec ? et qu'en pensez vous en planétaire ? voire en solaire lumière blanche ou H alpha...
       
      Merci beaucoup d'avance ; car vos réponses vont guider ma décision d'acheter ou non cette lulu : la 150/1200 est trop lourde pour ma monture donc pas possible .
       
      Chris
       
    • By Marc684
      Bonjour,
      J'ai acquis récemment une 72ed avec son correcteur de champ dédié 0,85x
      J'ai fait quelques tests rapidement hier soir après la déception de l'annulation du lancement et j'ai utilisé le même montage que sur mon newton pour respecter le backfocus de 55 mm (j'ai juste remplacé le correcteur de coma par le correcteur 0,85x)
      Et on observe un problème sur les brutes et donc sur le stack de test final (20 images de 180" que je n'ai pas traitées plus que ça)
      On peut voir clairement que la partie est problématique avec des étoiles allongées , comme si le correcteur n'était pas centré et mes étoiles sur le bord gauche ne sont pas hyper bien non plus
      Voici d'abord une brute

      Et maintenant le stack vite fait

      Est ce un problème de collimation ? tilt ? backfocus ?
      Merci de votre aide
      Marc
    • By Ben2407
      Bonjour à tous,
       
      Ayant desormais une ASI2600 avec un capteur de taille APSc, je me rends compte que mes photos plafonnent à seulement 13 à 17% de courbure de champ.
      Je me demande donc si c’est normal ? Ou si cela vient du backfocus de mes bagues qui n’est peut-être pas optimal derrière mes flatteners ou Réducteurs.

      Si certains d’entre vous ont deja optimisé leurs setups au niveau des backfocus, pourriez vous me dire quels sont vos resultats en terme de courbure de champ (si possible avec une mesure faite par CCD Inspector)
       
      Je suis principalement intéressé par vos résultats sur les lunettes:
      - FSQ106ED avec et sans réducteur,
      - FSQ85ED avec flattener et avec reducteur,
      - et FS60 avec flattener et avec reducteur,
      en indiquant bien sur la taille du capteur (24x36, APSc ou autres) et si possible le tirage optique exact de vos bagues (du flattener/reducteur au capteur) ainsi que l’epaisseur du ou des filtres utilisés.
       
      Mais si ce sujet intéresse des personnes possédant d’autres lunettes Takahashi, cela peut aussi être l’occasion de partager ici toutes les mesures.
      Et je pourrai faire la synthese dans un tableau que je partegerai avec vous tous
       
      Merci d’avance pour votre participation
      Bon ciel à tous
      Benoit
       
    • By SkyGuy
      Bonjour à tous,
      J’utilise depuis 3 ans une AP130GT en astrophotographie couplée à un réducteur APM Riccardi ×0.75 et une CCD G2-4000 (capteur ≈ 15mm × 15 mm).  Néanmoins je souhaite repasser à la focale native de la lunette et je cherche donc un aplanisseur de champ.
      Après de nombreuses recherches, je suis arrivé à la liste suivante :
      - aplanisseur AP 2.7’’  éliminé car trop cher (>1100 € !!)
      - aplanisseur APM Riccardi Model 1 (3’’) ( 395 €)
      -aplanisseur 2.5’’ TS  (290 €)

      Des avis ? Y- aurait-il des utilisateurs de ces correcteurs ? Je ne trouve que très peu de retours d’expérience (surtout pour l’APM)...  
      Merci d’avance ! :)
    • By Haltea
      Salut a tous,
      J'ai mon nouveau setup depuis quelques semaines maintenant : lacerta 250/1000 et qhy ccd 174mm cool, correcteur de coma GPU.
      Je progresse , mes images s'améliorent mais je me pose quelques questions . J'ai toujours des étoiles un peu allongées et je n'arrive pas à définitivement régler le problème.
       
      1) la collimation : je la réalise au cheshire et vais prendre l'habitude de vérifier sur une etoile mais je lis ici et là que le réglage fin sur une etoile poserai problème à f/d 4 avec les gros newton, du fait de l'ofset et d'un cercle noir qui ne serai donc pas centré, même si le scope est bien collimaté.
      Vous êtes assez nombreux à utiliser avec succès des gros newton à f/d 4 voir moins , quelle méthode utilisez vous?
      2) j'ai essayé de régler le backfocus au poil près, 55mm. Sachant que la distance de la cam avec son adaptateur (livré avec la cam) est donné à 18 mm, j'ai mesuré le reste au pied à coulisse.
       
      Si voyez des pistes d'amélioration,  n'hésitez pas, voici deux images et une brute
      M13 avec des poses de 0.5 secondes et m109 avec des poses de 3 secondes
       
      Merci par avance 😉
       
       
       



  • Images