jldauvergne

Est ce que l'on perd en résolution avec une matrice de bayer ?

Recommended Posts

Hello

Christophe De La Chapelle vient de publier une vidéo sur les caméras n&b vs couleur. En bossant dessus ça a ouvert pas mal de discussion entre nous pour amender le contenu par rapport à la version initiale. La discussion portait principalement sur la perte de résolution d'une caméra couleur par rapport à une caméra n&b (à échantillonnage égal bien entendu). , 
Souvent les gens pensent que l'on perd un facteur 2 de résolution. En réalité tout dépend si on considère la couche luminance ou chrominance, et tout dépend avec quel algo ces couches sont générées.
Toujours est-il qu'il est admis dans la littérature que la perte est de l'ordre de 30% et non pas 50%. 

Ma question est de savoir si quelqu'un sait quelle est la perte effective dans notre domaine spécifique, car 30% c'est sur du one shot. Une fois que l'on composite j'ai tendance à me dire qu'avec la turbu et les dérives de la monture, chaque détail est tantôt en face d'un pixel R, un pixel B, un pixel V. Et intuitivement j'ai l'impression que du coup, on n'a pas forcément une grosse perte de détail par rapport à une matrice monochrome. A moins que l'alignement se fasse après dématrissage et que le dématrissage induise forcément une perte irréversible ? 

On a une perte de dynamique en revanche et la dynamique participe à la résolution, mais en même temps si on veut l'info couleur avec le capteur monochrome il faudra bien filtrer, donc pas soucis de simplification mettons de côté cette question de la dynamique, la question de base est déjà assez compliquée je pense :) On suppose donc que l'on est à dynamique identique sur les deux matrices. 
Je ne sais pas ce que ça inspire aux cadors du domaine  @Marc Delcroix@Christophe Pellier@cbuil

@JPProst, @christian viladrich, @Thierry Legault

Je mets la vidéo en lien pour ceux qui veulent voir : 

 

Edited by jldauvergne
  • Like 3
  • Love 1
  • Thanks 1

Share this post


Link to post
Share on other sites
Advertising
By registering on Astrosurf,
this type of ad will no longer be displayed.
Planetary Astronomy
Observing, imaging and studying the planets
A comprehensive book about observing, imaging, and studying planets. It has been written by seven authors, all being skillful amateur observers in their respective domains.
More information on www.planetary-astronomy.com

Ah au fait, pour la question du post, la réponse est oui :)

Maintenant dans quelle proportion ? ;)

  • Like 1

Share this post


Link to post
Share on other sites

Bonjour. :)

 

Là où je ne suis pas d'accord , c'est avec avec la différence de sensibilité évoquée  "Couleur vs monochrome" ... surtout au delà  de 525 nm.

 

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

 

5df50c0745c0e_z_P1070011_monovscouleur_bis_1000.jpg.effc8a973b2f1d27340f5c236864c94b.jpg

 

 

( Désolé pour les coups de "Tipp-Ex" ... travail à l'ancienne. :ph34r: )

 

 

Edit :

 

@olivdeso  + @Chris277  ( entre autres ) :  raisonnement faux ( voir plus loin ) ... donc désolé pour cette connerie de ma part. :S

 

 

Edited by fljb67
  • Confused 2

Share this post


Link to post
Share on other sites

Salut JL,

 

La réponse a ta question n'est pas claire et ne le sera jamais parce que la comparaison est faussée d'entrée de jeu par deux facteurs,

qui font que l'on ne compare pas que les capteurs :

- le sur-échantillonage assez abondant des images planétaires,

- et surtout la turbulence atmosphérique qui produit une sorte de dithering.

 

Ces deux effets combinés profitent surtout au capteur de Bayer.

Au point d'en rapprocher sensiblement les performances en termes de résolution, par rapport au monochrome.

 

------------------------------------------------------------------------------------------------------------

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE.

Mais ça le planéteux, il s'en fiche.

-----------------------------------------------------------------------------------------------------------

 

Lucien

 

 

  • Like 3

Share this post


Link to post
Share on other sites
il y a 35 minutes, Lucien a dit :

Sur des images fixes si l'optique tient la route, TU JETTES LA BAYER DANS LA CORBEILLE

 

Salut Lucien. :)

 

J'avoue être sûr d'avoir intégré ce que tu voulais dire par là. ... à part le fait que la caméra couleur serait pourrie si conditions que tu as cité seraient réunies.

 

Mon impression est-elle bonne ou pas ?

 

Edited by fljb67

Share this post


Link to post
Share on other sites

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution.

 

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Lucien

 

 

 

  • Like 1
  • Haha 1

Share this post


Link to post
Share on other sites
il y a 30 minutes, Lucien a dit :

En gros sur des images fixes :

une caméra tri-CCD de 10 millions de pixels fait aussi bien qu'une caméra couleur Bayer de 20 millions de pixels.

En termes de résolution

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

  • Like 1

Share this post


Link to post
Share on other sites
Il y a 3 heures, Marc S a dit :

Pour info et pour recouper  les renseignements....

 

On avait déjà entamé ce sujet sur ce poste :

Oui j'avais lu ce fil, ça converge avec ce que je dis avec le chiffre de 25%. (Il me semble qu'il est difficile de donner un chiffre au pourcent près car l'impact de la détérioration du motif considéré dépend de sa forme et de sa couleur). 
La contribution de @mala05 a en tout cas un peu remis les points sur les I. Même si certains continuent à douter. 

Si quelqu'un a vraiment envie d'affirmer le chiffre de 50% qu'il tente de le démontrer d'abord, on parlera ensuite :)

Share this post


Link to post
Share on other sites
Il y a 2 heures, Lucien a dit :

Je suis excessif quand je disais que l'on jette la Bayer, j'aurais du mettre des :D:D:D.

 

Ok, lu. ^^

 

Autrement, il faudrait faire une distinction entre "signal" et résolution ( je parle en rapport avec la vidéo ).

 

... car niveau signal "global" entre 400 et 700 nm, d'après les courbes, le capteur "couleur" fait ~ jeu égal avec le capteur monochrome.

 

Après, les courbes "constructeur" valant ce qu'elles valent ... je peux tout à fait me planter. :ph34r:

 

Edited by fljb67

Share this post


Link to post
Share on other sites

Donc je n'ai pas intérêt à remplacer une ZWO ASI 224MC par une ASI 290MM pour améliorer la résolution à 1200mm de focale, en partant du principe que je ne fais pas un fixation sur la couleur de ce que je photographie.

Edited by STF8LZOS6

Share this post


Link to post
Share on other sites
Il y a 2 heures, jldauvergne a dit :

Non ça c est faux . 30% de différence.  

Plongez vous dans la biblio à ce sujet mais ça c est acquis 

 

JL,

Qu'est-ce que tu entends par 30% de difference ?

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !:D

 

Lucien

 

 

Edited by Lucien

Share this post


Link to post
Share on other sites
il y a 7 minutes, Lucien a dit :

Je suppose que c'est en résolution linéaire donc ça fait 1.3 X 1.3 = 16,9 millions de pixels Bayer pour égaler 10 millions de pixels mono.

Si c'est acquis alors on ne discute plus !

Oui c'est ça. 

Share this post


Link to post
Share on other sites
Il y a 3 heures, fljb67 a dit :

Ci dessous, les courbes "monochrorme" + somme  { R + V + B }  de la "couleur" :

Je ne sais pas quel raisonnement tu fais mais il est faux. En sensibilité effective, un capteur avec une matrice de bayer est environ 1/3 moins sensible tout simplement car il y a un filtre devant chaque pixel. Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

  • Like 1

Share this post


Link to post
Share on other sites
il y a une heure, jldauvergne a dit :

Je ne sais pas quel raisonnement tu fais mais il est faux ....

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

 

 

 

il y a une heure, jldauvergne a dit :

Tu as compris comment ça marche un capteur couleur avec matrice de bayer ?

 

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

 

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

 

Edited by fljb67

Share this post


Link to post
Share on other sites

Je vous suggère de jeter un oeil à l'entropie de l'information:  elle est additive.

https://fr.wikipedia.org/wiki/Entropie_de_Shannon

Reste à trouver la pondération statistique d'information apportée par chaque élément de codage.

Particulièrement valable si il y a recouvrement de l'espace de codification.

-> A priori uniquement valable en cas de sur-échantillonage approprié.

-----------------------

Une réponse : ça dépend des qualités chromatiques de l'objet.

Ici : fort sur-échantillonage 3.83x

1ere : tous canaux (bleu non focusé du à mauvais choix du filtre couleur => propriété négative)

2eme image : 3 canaux (G+G+R) => H(G,R) > H(G,R,B) # à méditer.

2019-10-05_T_19-35-53-0742nb_3.jpg.4b573dfbbb00bc118ddecc50793bd686.jpg2019-10-05_T_19-35-53-0742nb_4.jpg.220354d3a9b35f8e236265cae018c2c6.jpg

Taux probable ici <<75%, contraste non optimal (2bits G, 1 bit R), perte en luminosité du à la matrice à pondérer, apport de chaque couleur en qty d'information : inconnu mais probablement très fort pour G. (en proportion du ressenti visuel / est-ça la cible qualitative de l'image ?)

Edited by lyl
  • Like 1
  • Confused 2

Share this post


Link to post
Share on other sites
il y a 47 minutes, fljb67 a dit :

 

Niveau "signal", j'ai additionné les % "R + V +B" des courbes données par le constructeur pour le capteur couleur.

 

Si mon raisonnement est faux, je l'assume totalement. ^^

 

Après, j'insiste sur le fait que mes courbes postées ne soient en rapport que niveau "signal".

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

  • Thanks 1

Share this post


Link to post
Share on other sites
il y a 48 minutes, fljb67 a dit :

Pas trop en  lisant les divers posts concernant cet aspect. ( posts parfois contradictoires ).

la matrice de Bayer ce sont des filtres devant chaque pixel, un pixel donné ne capte qu'une seule couleur. 
Si un pixel à un filtre Vert on sait quelle est l'info en vert. Le B et le R sont extrapolés des pixels voisins. 
Les pixels sont disposés ainsi avec 1 sur 2 de couleur verte. 
https://fr.wikipedia.org/wiki/Matrice_de_Bayer#/media/Fichier:Bayer_pattern_on_sensor.svg 

 

 

il y a 50 minutes, fljb67 a dit :

Résultat retenu pour ma part ( peut être erroné ) : Genre 25 à 30% de résolution en moins par rapport à un capteur monochrome ayant la même taille de pixels si j'ai bien lu.

Oui, c'est ça. 

Share this post


Link to post
Share on other sites
il y a 2 minutes, jldauvergne a dit :

Un pixel donné n'est sensible qu'à une de ces 3 couleurs. Les additionner n'a pas de sens physique pour définir la sensibilité. 

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Share this post


Link to post
Share on other sites
il y a 6 minutes, lyl a dit :

Il faut voit ça en quantité d'information, merci de potasser l'entropie de l'information.

Ton message précédent est incompréhensible (pour moi en tout cas). Si tu peux formuler clairement, ...
Là comme ça, je ne vois pas trop ce que l'entropie de l'information vient faire ici. On parle ici dans le cas d'observation planétaire d'objets qui émettent dans tout le spectre visible, et la source ne change pas, c'est la caméra qui change. 
Ce que je cherche c'est une réponse dans la pratique, pas une réponse aux limites en fonction de qualités chromatiques exotiques de l'objet visé. Il est bien entendu qu'une matrice de bayer pour observer une nébuleuse qui n'émet que en H beta ce n'est pas bien. Mais ce n'est pas ma question.

  • Haha 2

Share this post


Link to post
Share on other sites

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

* La matrice de Bayer est quasiment orthogonale sur la plage de couleur mémorisée : il ne peut y avoir que contribution partielle à cause du filtre R ou G ou B

Pour faire simple : si on est incapable de dire ce qu'apporte en contraste un photosite d'une des couleurs dans un échantillonnage de masse d'une image comme tu as précisé au début de ton exposé, c'est pas la peine de poursuivre.

 

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

 

Share this post


Link to post
Share on other sites
il y a 24 minutes, lyl a dit :

Dans tous les cas courant en planétaire on sur-échantillonne suffisamment pour être sous la résolution, donc l'apport des 4 photosites se discute en contraste apporté quand on recombine la luminance.

Tu as raison que ça compte, mais oublions cet aspect, je pose la question dans l'absolu. 
Ce qui me gène avec l'échantillonnage, c'est que non déjà on ne sur-échantillonne pas forcément "suffisamment", et surtout en règle de base on applique la règle de Shannon ce qui est insuffisant pour voir les plus petits détails qu'une optique peut dévoiler. 

On nous explique ici et là que pour bien faire il faut échantillonner à un f/d de 3,8x la taille du pixel. Perso je suis à 8,3x et je pense que ça m'apporte quelque chose par rapport à 8,3 (parce que l'optique suit notamment). Je suis sans doute un peu haut mais ça marche (il y a aussi des contraintes de montage optique, et je trouve ça intéressant d'être haut pour faire un traitement plus précis). 
Et ce qui est sûr c'est que j'ai des détails plus fins avec ma caméra n&b à 8,3x qu'avec la couleur qui est à 6,4x. 

 

 

il y a 28 minutes, lyl a dit :

Je suis désolée, mais il est clair qu'on ne peut pas parler d'additionner des grandes quantités de bits d'informations sans avoir un minimum de socle en théorie de l'information numérique qui sont fortement modélisée par des mathématiques : probabilité et statistiques.

C'est tout le sens de ma question de savoir quel raisonnement est juste, mais encore une fois je ne vois pas ce qu'apporte l’histoire de l’entropie de Shannon, car elle porte sur la source, pas sur le récepteur. 

Share this post


Link to post
Share on other sites

JL,

 

Tu souhaites que l'on obtienne un chiffre précis ;

de perte de résolution dans le cas de l'utilisation d'un capteur de Bayer par rapport à l'utilisation d'un capteur monochrome

et en technique de prise de vue rapide avec turbulence et par l'utilisation de logiciels d’alignement et d'empilement d'images qui souvent recourent à la techniques multi-points. Avec ou sans utilisation d'un ADC...un facteur échantillonnage variable et avec passage dans un logiciel d'accentuation par Ondelettes...

( Souvent débats tournent en rond parce que l'on ne dit pas tout au départ. :D On sous-entend, on suppose sans le dire...:D

Bon, la couleur du sujet est  ce qu'elle est. On passe allégrement la-dessus. :D

 

Cette problématique est typiquement celle qui dans la technique de l'ingénieur :

-  ne peut que recevoir une réponse floue !

 

Il y a deux façons de mesurer une résolution optique :

- sur le ciel en secondes/d'arc et avec des étoiles doubles...voir définition,

- au labo sur des mires et avec une procédure rigoureuse : mire de contraste : paires de lignes par millimètre.

 

Si la comparaison image à image peut donner une indication  :  exemple l'une semble plus résolue que l'autre,

ce n'est pas une mesure pour sortir un chiffre.

 

Pour résumer-résumer-résumer :

 

Il est communément admis qu'au labo et sur mire, la perte de résolution d'un capteur Bayer soit de l'ordre de 40% par rapport au capteur mono.

Ce chiffre s"explique par le fait qu'il y a seulement la moitié des pixels V et que avec les traitements, ce soit le facteur limitant au global.

C'est déjà se placer dans une hypothèse assez favorable pour les pixels R et B. En cas de forte dominante colorée B ou R, la perte sera plus importante.

Donc moitié moins de pixels donc résolution en baisse d'un facteur Racine(2) soit 41.4%, que  l'on arrondit à 40%.

Mais ça c'est déjà une simplification pour ceux aiment la simplicité des chiffres et aiment déjà moins les courbes de contraste. :D

 

 

Sur le ciel du planéreux, comme je l'indiquais plus haut, l’affaire est autre :

 

- turbulence qui étale l'information spatialement, (voir les techniques de dithering et drizzle )

- sur-échantillonnage fréquent,

- addition d'images...

en pratique ça rapproche pas mal les performances des deux capteurs et termes de résolution.

La perte en résolution sera comprise entre 0% et 40% ! Toujours pour ceux qui aiment les chiffres.

 

Résolution qu'aucun amateur ne mesure je le rappelle :

je ne sais si un astronome-amateur a déjà mesuré une résolution optique en France et en 2019,

J'en doute. Donc on discute de chiffres que l'on ne peut mesurer. On est dans le subjectifs des parfums de luxe.

 

--------------------------------------------------

Si maintenant on souhaite donner des conseils pratiques afin de tirer le meilleur parti de chacun des capteurs,

c'est un autre débat.

Si on se débrouille bien avec son capteur de Bayer, on tentera de se rapprocher d'une perte de 0% plutôt que de 40%.

Je suis très malin moi Mossieu ! :D   Et souvent j'y arrive parce que le facteur limitant la résolution de mes images n'est pas le Bayer.

Et toc !:D

Et je dis que le Bayer est aussi bon que le mono en résolution. NON, NON, très mauvaise formulation  !

_____________________________

 

Chercher un chiffre moyen de perte de résolution, ça me fait penser :

au gus qui a la tête dans l'eau très chaude et les pieds dans l'eau glacée, en moyenne il est bien !  :D

 

Je ne reviens par sur le sujet.

Sauf si quelqu'un m'indique qu'il vient de mesurer une résolution spatiale sur l'une de ces images. :D

Bon dimanche à tous,

 

Lucien

Edited by Lucien
  • Like 1

Share this post


Link to post
Share on other sites

Essayons d'expliquer le principe du symbôle et l'adéquation à l'image analogique.

Pour commencer, une petite vidéo plus pratique en anglais exposant quelques arguments mono/bayer matrix/filtre spécialisé

https://youtu.be/3RRYljn8358

 

Un peu de vulgarisation de la théorie pas simple.

Le principe de décomposition dans un capteur : le passage dans le monde numérique.

fourier.png.fe1d007cc01fde5e6ef34cdc957c0668.pngnumerisation.png.38068e66033eee75d76c84c6299a9aeb.png

 

Théorie autour de la numérisation, la décomposition dans l'espace de Fourier :

En N&B, appelons a(ω) la fonction luminance de la fréquence ω, S la luminance totale du signal sur la plage. On a donc, vu du capteur un assemblage pour ω [min,max], S =  Σ a(ω) de la luminance capturée modulée par la sensitivité du capteur, heureusement c'est additif.

a(ω) est le résultat de la convolution du signal et de la sensitivité du codeur.

Ex. : Jupiter ⊗ Capteur, imaginez le rendu par fréquence.

Jupiter.jpeg.24325480a97c287b05099a916cb1ef97.jpegQE.png&key=6ce55a3e67cd56ed2b7dc17f5c55a

 

=> on est mono symbôle. Le codage dépend de l'assemblage des photosites avec le même taux de quantité d'information, qu'on peut identifier à son entropie unique H(N&B)

+ le rapport Signal / Bruit est fort car peu d'éléments s'interpose entre le signal et la capture.

 

En RGB, matrice de Bayer, quand on est en sur-échantillonnage.

La source est alors convoluée avec les filtres de chaque couleur pour sortir 3 signaux.

On simplifie en passant en tri-symbôle, avec b(ω), g(ω), r(ω) les luminances respectives sur la même plage Sb =  Σ b(ω), Sg et Sr

ZWO-ASI-1600-Pro-CMOS-Telescope-Camera-C

 

L'entropie recomposée, assemblage de la quantité d'information de l'image couleur vaut la somme des entropies moins l'entropie conjointe (Formule de Bayes en probabilité)

https://fr.wikipedia.org/wiki/Théorème_de_Bayes

1cb996ed4ecaee7ec370206ec23c6c30bf1be440

 

En entropie sur 2 symbôles : L'information mutuelle I(B,G) = H(B) + H(G) - H(B,G)

I(B,G,R)  = I(B,G) + H(R) - H(B,R) - H(G,R)

 

Sur certains capteurs, et plutôt type de filtre, on a une quasi orthogonalité entre les couleurs et les entropies conjointes sont faibles (négligeables)

 

Ca plus la perte de signal à travers les filtres, on a une perte de la quantité d'information

canal-bruit.png.f92c891ee902ef84542ecf2c5111717f.png

 

Chaque symbôle n'échappe pas à l'application du théorème pour son entropie

 

C = Bande x log (1 + Signal/Bruit)

 

Ce qui revient à appliquer un coefficient à chaque entropie H(couleur RGB) ~ Entropie émise x log ( 1 + S/B)

 

=> considérer le rendement du filtre sur le ratio S/B

- perte due au filtre

- information incomplète ( malgré une certaine symétrie) due à la surface de capture partielle du photosite dans le pixel.

 

Voilà, j'espère que la perte due au découpage en "symbôle" que sont les couleurs de la matrice de Bayer dans la théorie de l'information sont un peu plus explicite.

Edited by lyl

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now



  • Similar Content

    • By lambda
      Bonjour à vous.
      Je viens ici démarrer un petit sujet sur ces cailloux auxquels on ne pense pas d'abord en premier lieu pour équiper nos caméras et boitier APN. 
      Les objectifs de nos projecteurs de diapo familiaux, de rétroprojecteurs de facs et autres, .... Vieilles optiques teintées de nostalgie pour les plus de 40 ans à la louche et dénichables dans les vides greniers et autres broc's IRL ou en ligne....
       
      Beaucoup de ces objectifs de rétro-projecteurs, projeteurs de diapos, et autres épidiascopes en tout genre des époques vintages seconde moitié du XXème siècle et produits souvent à l'Est sont vraiment sympas, souvent pas chers, et offrant le gros avantages de fournir un cercle image de grande dimensions (allant souvent bien au delà du format full format.... ça va jusqu'à des cercles images allant jusqu'à 8-10 cm de diamètres sans souci...).
      De par leur destination, ils sont aussi souvent conçus pour projeter une image plane sur une surface de projection éloignée elle aussi plate.... Et ce qui est très intéressant pour nous, c'est que ça marche évidemment dans l'autre sens.... 

      Du coup, ces deux avantages nous servent bien avec nos capteurs pas très grands en général. On bosse avec le "coeur de la meule de fromage", le meilleur quoi, dans une zone de projection restreinte centrée autour de l'axe optique. Niveau aberrations optiques, c'est quand même bien contenu du coup...

      En contre partie, le rendu est parfois un parfois peu "mou", la balance des couleurs pas toujours neutre, et bien-sûr, il faut bricoler autour pour l'adapter à nos caméras et/ou APN.... Mais c'est marrant et fait partie quelque part du charme, parce qu'on se fait alors nos propres objectifs "sur mesure", uniques....
      Ah oui, aussi, pas de diaphragme ajustable et évidemment (mais perso, voulant un max de photons en un minimum de temps, aucun souci), on oublie la communication intélligente entre optique et boitiers modernes... 

      Dès que je trouve un caillou sympa du genre dans mes chinages, entre 1 et quelques dizaines d'Euros grand grand max, je récupère.... Bien pratique pour bricoler, faire des manips en tout genre...

      par ex, dans mes tiroirs en ce moment de gauche à droite:
      - RETINAR f-250mm KODAK (ouvert à la louche à 4.5)
      - zoom grossièrement parafocal MAGINON WILL-WETZLAR (comme ton objo) f=85-150mmmm MC
      - RETINAR f=60mm KODAK
      - LEITZ WETZLAR COLORPLAN1:2.5/90mm
      - V/S-HEIDOSMAT 2.4/90 MC
      - ZETT TALON 1:2.8/85 MC
      - zoom grossièrement parafocal SCHNEIDER-KREUZNACH XENOVARON 1.3/12-30 MC

      Je bricole aussi avec:
      - un objo de chez LOMO (35mm/1.2) (ref: 16KP-1.2/35 OKP1-35-1 P)
      - un objo de chez LOMO (160mm/2)
      Les deux ne sont pas sur les photos, ils sont en branle sur mes bricoles en usage en ce moment....

      Comme dit en introduction, pour du DIY, cela reste une source géniale pour se faire des objectifs maisons avec un ratio qualité/prix imbattable, à caractéristiques égales avec des cailloux du commerce (minus l'ergonomie de montage et d'usage il est vrai...)

      à+,
      Lambda


    • By breiz atao
      Bonjour à tous
       
      J'ai besoin de vos lumières,  je voudrais me lancer dans la CCD
      Pour l'instant je m'entraîne avec ma ZWO 662 avec mon hélios 102mm achro sans guidage 
      J'ai  téléchargé phdguiding,  car je voudrais faire de l'autoguidage avec ( 662 ) quand je ne fais pas de planétaire,  mais voilà, gros soucis
      PHD ne reconnaît pas la camera
      Une solution  ?
       
      Merci pour vos retour 
       
      Olive
       
       
       
    • By astrocg
      bonjour
      je cherche à ôter le baume ou la colle (cause effet vitreux sur les images) qui est présente sur les lentilles du doublet
      ensuite puis-je remonter le doublet sans remettre du baume ou de la colle?
      ou y a t il un produit de substitution à employer (style de l'huile)?
    • By Cedricdd
      Bonjour, 
      Nouveau ici je ne sais pas si mon annonce est au bonne endroit?  
       
      je mets en ventre ma lunette zenith star 61 et son réducteur la marque en vente  https://www.leboncoin.fr/sports_hobbies/2290712148.htm
       
       
       
      lunette en très bonnes état photo complémentaire sur demande sans problème vendu complète avec la sacoche de transport et facture acheté chez l’astronome à Lorient et toujours sous garantie. Les images ci-dessous on été réalisé avec une caméra monochrome Asi 294mm et filtre h alpha une fois le réducteur mis en place cela donne 289 de focal à f4,72 donc idéal pour du grand champ rapide . Lunette compacte et matériaux de qualité, le masque de bahtinov dans le capuchon de la lentille frontal est très pratique également. Je la mets en vente au prix de 950€ 
       
      cordialement Cédric 









       
    • By jean dijon
      Bonjour,
       
      j'envisage (à voir?) de faire un doublet BK7- FPL55,  je sais que la mise en forme doit être faite avec des outils ayant la bonne courbure par contre je n'ai pas la moindre idée de la façon de polir un tel verre qui semble t'il est plus sympa que le FPL53.
      Si quelqu'un a des infos je suis preneur.
       
      jean
  • Upcoming Events