danielo

Nouvelle camera

Messages recommandés

Salut,
Déjà, la starlight intègre la gestion d'une petite caméra de guidage et comporte le système d'autoguidage qui pilote directement la monture.
L'ensemble des 2 caméras et de l'autoguidage est piloté par 1 seul câble USB relié au PC.
Sinon, elle est refroidie à -30° en dessous de la température ambiante et possède effectivement le même capteur.
Amicalement,
AG

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour,

merci pour la reponse! Quand meme 1300 euros c'est cher le port d'autoguidage, surtout vu le prix d'une interface Pierro...

Partager ce message


Lien à poster
Partager sur d’autres sites
il n'y a pas vraiment de prix ferme annoncé pour aucune d'entre elles...

la monochrome à base du 285 doit être à priori la moins couteuse.

Partager ce message


Lien à poster
Partager sur d’autres sites
C'est une bonne nouvelle cette nouvelle cam à base de ICX285. SAC IMAGING doit sortir aussi un model avec pour base ce capteur N/B (model NGC285) aux alentours de 1500€ à la fin de l'année. Il faudra surveiller les tarifs StarLight Xpress pour sa SXV H9 : je suis prêt à parier que les tarifs vont baisser pour contrer la concurence qui se profile !!!! Affaire à suivre ...
A+, Philippe

Partager ce message


Lien à poster
Partager sur d’autres sites
Ouaip, à suivre. Tiens-nous au courant si tu as des nouvelles

Partager ce message


Lien à poster
Partager sur d’autres sites
Quel est l'interêt d'avoir des caméras, avec de si petits pixels (3.45µ et 3.125µ) ? Pour avoir un échantillonage correct il faudrait avoir entre 340 et 470 de focale, il n'y a pas beaucoup de tube ayant une si courte focale, à par les télés !

Où alors avec un binning mais alors là on n'est plus à 3 Mpix

Partager ce message


Lien à poster
Partager sur d’autres sites
Non bugs denis, ce sont des cams couleurs, les pixels sont petits mais c'est sans compter la matice de bayer qui se trouve devant. Pour l'echantillonage, il faut regrouper les pixels par quatre pour avoir un point image : donc cela donne des pixels théoriques de 6,90 et 6,25 !!!
Vaut mieux acheter une cam N/B (avec l'ICX285, pixel de 6,45) et faire les couleurs derrière des filtres colorés. Le rendement sera bien meilleur avec en plus la possibilité de shooter les couleurs désirées (Ha, OIII ...)
A+, Philippe

[Ce message a été modifié par C8+ (Édité le 14-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
>>donc cela donne des pixels théoriques de 6,90 et 6,25 !!!
Non, Philippe c'est une idée reçue qui est inexacte. La perte en résolution d'une matrice couleur est je dirais de l'ordre de 20% et non de 50%. Lors de l'extraction de la couleur, le signale de luminance est effectivement obtenu en moyennant le photosite courant avec ses trois photosites voisins. Mais ensuite, on ne se décale pas de deux photosites pour passer aux quatres suivant comme tu le sous entends. En fait, on se déplace de seulement un photosite. Au finale, on obltient une image de la même résolution mais avec une définition un peu en retrait car l'extraction génère du coup un léger lissage. Concraitement, si on travaille un peu en sous-échantillonné, cela ne pose pas problème dans le pratique.

Pour en revenir au sujet, je trouve très bien qu'il commence a y avoir enfin de la concurence. SBIG et StarLight devront revoir leur tarifs.

[Ce message a été modifié par Mala (Édité le 14-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
NON Mala, le déplacement d'un photosite comme tu le sous-entends est une interpolation logiciel et non un signal représentatif de la réalité de l'information reçue. Certe, on est pas tout à fait à 50% de perte, mais certainement pas à 20% comme tu le déclares !!! J'ai dit cela pour faire simple !!!
Pour les couleurs, cela pose vraiment un problème dans la pratique : la bande spectrale enregistrée pour les couleurs est celle de la matrice de Bayer !!!!

Partager ce message


Lien à poster
Partager sur d’autres sites
Je t'en prie, prends ton temps. Explique moi on est là pour ça.

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonjour Mala,

Une caméra couleur utilise une matrice CCD à filtres de Bayer, chaque pixel est recouvert d’une pastille colorée rouge, verte ou bleue selon l’arrangement suivant :

Pour obtenir une image couleur (RVB) avec cette matrice, le logiciel interne à la caméra fait un certain nombre de calculs.
Les valeurs RVB de l’image couleur sont données par une moyenne des valeurs des
signaux des pixels voisins :

Pour un point de l’image qui correspond à un pixel vert du CCD :

R = moyenne des signaux des 2 pixels rouges voisins
V = signal du pixel vert
B = moyenne des signaux des 2 pixels bleus voisins

Pour un point de l’image qui correspond à un pixel bleu du CCD :

R = moyenne des signaux des 4 pixels rouges voisins
V = moyenne des signaux des 4 pixels verts voisins
B = signal du pixel bleu

Pour un point de l’image qui correspond à un pixel rouge du CCD :

R = signal du pixel rouge
V = moyenne des signaux des 4 pixels verts voisins
B = moyenne des signaux des 4 pixels bleus voisins

Cet arrangement des filtres colorés sur la matrice CCD marche très bien pour la photographie standard, c’est même celui qui donne le moins d’artefact dans la restitution des couleurs. Certain fabricants de capteurs pour les appareils photo numérique font maintenant des mosaïques de quatre couleurs, rouge, vert, bleu et vert-bleu genre turquoise, cet arrangement permet un meilleur rendu des tons verts et chairs.

En revanche, tous ces calculs de moyenne sur les pixels voisins réduit la capacité de la matrice à résoudre les fins détails, cela revient à une « perte » de résolution par rapport à la même matrice sans le filtre de Bayer.

A+, Philippe

Partager ce message


Lien à poster
Partager sur d’autres sites
Aller, à mon tour de défendre mon beaf-teak.

L'utilisation d'une matrice de Bayer, ou tout autre d'ailleurs, induit bien une perte sensible de résolution, j'en convient tout à fait. Mais je vais essayer de te démontrer qu'on est plus proche de mes chiffres que des 50% (soit du binning 2x2).

Restons sur ton exemple avec une matrice de bayer. Si ton raisonnement est tout a fait cohérent, en fait dans la pratique aucun logiciel ne fonctionne comme ça car la perte de définition serait effectivement très grande (au bénéfice cependant de la qualité du signal).

Bornons nous au carré des 4 premiers pixels en haut à gauche de ton exemple. On a donc:
-----------
| Vr | R |
-----------
| B | Vb |
-----------
comme je le disais dans mon premier post, on se déplace en fait d'un seul photosite à la fois et non de deux. Le calcul du signal du pixel vert en haut à gauche (Vr) se fait sur le carré des 4 pixels. Généralement, on commence par dissocier le signal colorimétrique du signal de chrominance (j'expliquerais pourquoi ensuite).


La luminance, pour le pixel Vr, se calcul alors de la manière suivante:
L = (R + Vr + Vb + B)/4;
Tout se passe donc comme si notre matrice subissait un filtre passe bas avec un noyau
----------
| 1 | 1 |
----------
| 1 | 1 |
----------
et un dénominateur de 4 pour conserver la dynamique du signal.

Ensuite, on calcul la chrominance. Dans le même ordre d'idée, on peut très bien dire:
Rouge = photosite R
Vert = photosite (Vr+Vb)/2
Bleu = photosite B
Le problème, c'est qu'avec cette technique pour la couleur on peut très vite avoir des artefacts provoquant de liserés colorés sur les arrêtes tranchées. Du coup, on préfère souvent prendre la technique que tu présentes pour extraire le signale de chrominance. En travaillant sur un carré de 3x3, on a ainsi un signal plus lissé minimisant les artefacts.

Là se pose un autre petit souci. En utilisant une matrice 2x2 pour la luminance et une matrice 3x3 pour la chrominance, on se retrouve avec un décalage d'un demi pixel entre la luminance et la chrominance. Cela vient de la matrice 2x2 qui est décentrée. On doit donc décaler le signal de luminance d'un demi pixel en diagonal.

Enfin, on recompose l'image RGB (on peut aussi tout à fait rester en LRGB). A noter que l'on doit aussi intégrer des coéficients pour chaque couche. De mémoire en arrondissant: CoefR=0.3, CoefV=0.6 et CoefB=0.1 afin de tenir compte de la réponse de l'oeil humain.

Revenons en à la perte de définition. Concrètement, la définition de l'image est donnée par la couche de luminance. On peut considérer qu'une perte de 50% revient à travailler en binning 2x2 (en français: les pixels sont regroupés quatre par quatre pour former une image finale qui est donc deux fois plus petite en largeur et hauteur).

Voici pour faire un tests, une mire (on va dire que c'est une toute petite galaxie de 7 pixels de diamètre).
En haut à gauche, une image noir et blanc pleine résolution. On va supposer que c'est une image brute parfaite d'un capteur noir et blanc.
En haut à droite, la même image en binning 2x2 (perte de 50% de la définition) et ramenée à l’échelle pour l’exemple.
En bas à gauche, j'ai appliqué le lissage avec le noyau de 4 pixels.
En bas à droite, j'ai ensuite binné en 2x2 l'image lissée (là aussi ramené à l’échelle pour l’exemple).

La luminance de l'image après simulation d'une extraction colorimétrique, en bas à gauche, parle d'elle-même. Si le signal est bien lissé, on est tout de même loin de la perte de 50% du binning 2x2. Utiliser une caméra couleur systématiquement en binning 2x2 serait pour moi un non sens si l'échantillonnage et le temps de pose permettent de travailler à pleine résolution.

Par contre, cela n'enlève effectivement rien au problème du choix de la bande passante qui est imposé par une matrice de Bayer, ou une matrice à filtres secondaires, sans compter la perte de signal par rapport à une couche de luminance faite avec une CCD N&B.

[Ce message a été modifié par Mala (Édité le 15-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonsoir Mala,
Ben oué, je crois que l'on est assez d'accord !!! Ton explication est exhaustive Pour revenir à nos moutons : une cam couleur avec des pix de 3,45, en bining 2x2 cela fait 6,90, on applique un facteur de 1,3, cela nous 6,90/1,3 = 5,30. Pour calculer l'échantillonage, il faut considérer que cette cam couleur posséde des pix de 5,30 microns. Donc à la louche, cela fait 38% (j'ai vraiment éxagéré avec 50%)!!! Me trompe-je ?

[Ce message a été modifié par C8+ (Édité le 15-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bon puisque t'as déjà eu le courrage de tout lire, je termine (pas eu le temps à cause du repas).

Pourquoi mon estimation à 20% (à la louche je te l'accorde)? Et bien en fait, je n'ai pas terminé. L'extraction de la luminance génère donc un passe bas. La convolution est donc parfaitement connue. Mathématiquement, on peut donc la compenser au même titre qu'on prétraite une image avec des PLU et des darks.

En appliquant une déconvolution équivalente, voici ce que l'on obtient:

Ici j'ai appliqué une déconvolution Richardson-Lucy. Si une déconvolution n'est jamais parfaite, on peut néanmoins constater que notre "petite galaxie" retrouve bien sa structure orginelle. Concrètement, nous n'avons encore fait que prétraiter le signal.

Alors 20% ou pas?

[Ce message a été modifié par Mala (Édité le 16-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Ben alors là ,super vos lumières sur les photosites !
ça fait longtemps que je cherche à savoir quel fwhm j'obtiendrais avec une super cam n et b astro ,considérant des pix n et b de même taille que sur le 300D ?
Donc en ce moment je coince sur une fwhm de 5 ,
alors se serais environ 4 de fwhm en faisant le petit calcul avec 20%; Bon C8+ , pô d'autres arguments? adjugé vendu! PHIL

Partager ce message


Lien à poster
Partager sur d’autres sites
HAAAA !!! Mala, t'es fort !!! J'avais pas intégré la déconvolution !!! Faudrait-il donc encore minorer les 38% pour tendre vers 20% ? Bien expliqué
A+, Philippe

Partager ce message


Lien à poster
Partager sur d’autres sites
Un truc m'échappe, les pixels "élementaires" (R ou V ouB) font 3.45 ce qui fait un pixel "couleur" de 6.9. Un Canon 350D a des pixel de 6.4, cela signifie t'il que c'est le pixel "élémentaire" qui fait 6.4 (et donc 12.8 couleur) ou bien le couleur qui fait 6.4 (et donc 3.2 pour l'élémentaire)

Partager ce message


Lien à poster
Partager sur d’autres sites
>>alors se serais environ 4 de fwhm en faisant le petit calcul avec 20%;
Philippe (constructor), attention a ne pas faire un produit en croix trop vite. La perte de résolution s'applique au niveau du pixel générant donc un étalement de celui-ci sur ses voisins. Avec une FWHM de 5 (Pixels? secondes d'arcs?), je suppose que tes étoiles s'étalent sur bien plus qu'un pixel. Pour une même mesure avec un capteur N&B, la différence sera donc minorée.

>>HAAAA !!! Mala, t'es fort !!!
Philippe (C8+), je savais bien que je finirais par te convaincre! Non, plus sérieusement, en fait j'ai eu tout le temps de me pencher sur la question en écrivant SLDriver pour piloter des CCD Starlight sur Mac. Utilisant régulièrement une MX7c, j'étais en première ligne pour me poser plein de questions quand à l'extraction colorimétrique (et dans le cas de la MX7c c'est encore moins trivial avec des filtres CYMG).

bugs denis,
>>les pixels "élémentaires"...
Parlons de photosites puisque c'est comme ça qu'on les appelle.

>>...ont 3.45 ce qui fait un pixel "couleur" de 6.9.
euh là je sais pas trop quoi te dire. J'ai usé mon clavier pour montrer à Philippe que c'était loin d'être le cas et toi tu remets les pieds dedans. Prends le temps de bien relire mes précédents posts et on en rediscute si tu veux.

>>Un Canon 350D a des pixel de 6.4, cela signifie t'il que c'est le pixel
>>"élémentaire" qui fait 6.4 (et donc 12.8 couleur)
Ces photosites font effectivement 6.4 micron et cela correspond à la surface générée pour un pixel au final.

Bon, on a complètement dérivé du sujet initial mais comme ça intéresse je termine juste avec une dernière simulation pour valider mon estimation pifométrique.

J'ai tenté de recréer la perte de résolution par le biais d'un rééchantillonage bicubique. Voici ce que cela donne:

Cela semble confirmer ma première estimation. La perte de résolution entre un capteur N&B et un capteur couleur serait de l'ordre de 20%. Cela bien sûr sous réserve d'un prétraitement correct (déconvolution) du signal.

En appliquant cette méthode, pour illustrer avec du concrêt, voici le genre d'image que j'obtiens avec ma MX7c en pleine résolution: M57

[Ce message a été modifié par Mala (Édité le 17-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Bonsoir Mala,
C'est vrai que tu m'as convaincu mais il y a un petit bémol que je soumet à ta perspicacité, je me méfie énormément des calculs de déconvolution : les déconvolutions ont une facheuse tendance a "créer de l'information" tout en affinant les étoiles. Visuellement, l'image parait beaucoup plus flatteuse alors qu'en regardant de plus prés, des infos nouvelles apparaissent !!! Mais bon, dans le traitement initial de l'image, j'espère que cela n'est pas le cas !!!
A+, Philippe
PS : ta M57 est superbe

[Ce message a été modifié par C8+ (Édité le 17-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Mala,merci de ce complément de réponse,bon sur le fond tu as raison,tu connais bien ces choses,mais sur la forme il serait plus juste de parler de 50% en moins pour un capteur N et B car le traitement de déconvolution s'il est bien éfficace ,est difficile et trés long;moi avec mon portable,ça mouline un sacré moment et l'image montre bien des étoiles réduites mais aussi des artefacts de toutes sortes,pourtant j'ai fais la séparation RGB avant.Iil me faudrais une grosse bécane et surement procéder autrement?PHIL

[Ce message a été modifié par constructor (Édité le 18-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
>>les déconvolutions ont une facheuse tendance a "créer de l'information"
>>tout en affinant les étoiles.
Lorsqu'ils sont trop poussés ils générent des rebonds en effet mais dans notre cas on en est loin. Sur la simulation que j'ai fait la fonction RL est itérée seulement deux fois. Il n'y a donc pas de risque d'artefacts et le gain est bien "réel". La simulation sur la pseudo galaxie en est un exemple mais on pourrait prendre tout autres formes et constater qu'on les "retrouve".

>>mais sur la forme il serait plus juste de parler de 50% en moins pour un
>>capteur N et B...
NON (dommage que j'ai pas de marqueur gras, rouge indélibile et qui tache ), même si tu laisses la déconvolution de côté, la perte n'est pas de 50%. Je pensais avoir convaincu. Ceci:

est loin d'être une image dégradée à 50% comme ça:

On serait plutôt dans les 30% à mon avis.

>>...car le traitement de déconvolution s'il est bien éfficace ,est
>>difficile et trés long;
Heu, tu fais quoi exactement? Dans le cas du prétraitement que j'évoque, il s'agit d'appliquer une PSF connue (pas de sélection sur une étoile) et de faire 2 passes.

Pour la PSF, j'ai pris le noyau 3x3 suivant:
010
111
010

L'idéal serait un noyau 2x2 identique à la convolution, câd:
11
11
Mais mon algo prend seulement une psf symétrique de taille impaire.
J'ai fait un essai sur la luminance d'une image de mon 20D (8mega pixels) cela prend 15 secondes avec mon vieux Mac (Power PC G4 1,25Ghz).

Voici ce que cela donne sur une brute d'M57 pour la MX7c:

Il est par contre important d'utiliser un algo de reconstruction comme le RL. Les filtres passe haut classiques n'apportant aucun gain potentiel en définition.

[Ce message a été modifié par Mala (Édité le 18-09-2006).]

Partager ce message


Lien à poster
Partager sur d’autres sites
Salut,

Merci pour ces explications très détaillées !

Extrêmement intéressant.

A+
--
Pascal.

Partager ce message


Lien à poster
Partager sur d’autres sites
Merci Mala,t'est sympa! l'exemple de décon que tu présentes sur m 57 est top ,je veux faire pareil.Donc j'ai besoin d'une solution concrète,je dispose pour le moment d'iris,mon ordi apprécie pas trop la manip RL,je crois aussi que la selection d'étoile est obligatoire avec iris...quel soft utilise-tu,est-il disponible qq part?
Bon je retourne dans iris,ça va fumer!!!

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant