cbuil

Membre
  • Compteur de contenus

    1 232
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

40 Neutre

À propos de cbuil

  • Rang
    Membre très actif
  1. Grosse différence de couleurs entre JPEG et RAW

    CPI-Z, la question est bonne. Mais d'une part je ne lit pas cette infos dans l'exif (je ne sais même pas si elle est systématiquement disponible). En fait, comme on le voit , il n'est pas trop dur de faire soit même la balance sur une feuille blanche en lumière du jour comme référence. Même cette méthode est assez arbitraire, après tout la lumière du soleil est modifiée par l'atmosphère, la zone réputé blanche ne l'est peut pas... Remarquer que les appareils photo proposent eux même un calage manuel de la balance du blanc, et puis que celle-ci est variable suivant que l'on a un éclairage artificiel (tungstène, lampe fluo, ...), naturel. Bref, ce n'est pas un problème si immédiat, et je préfère que l'on se fasse soit même un protocole (à faire une fois à priori). J'ajoute que si le boitier est modifié (genre Astrodon) on pert tout repère "officiel". Le télescope lui-même (transmission spectrale) ou la hauteur de l'astre sur l'horizon (absorption différentielle en fonction de l'élévation) peuvent intervenir aussi. Le plus rigoureux en fait surement de faire la balance sur une étoile du champ de type solaire (type G), mais bon, on peut ne pas aller dans ces extrêmes. D'une manière générale, faut-il vraiment qu'une image astronomique prise avec un équipement astro mime exactement ce que "verrait" l'oeil ? Pour certaines applications oui, mais pour d'autres non (l'oeil est un récepteur comme un autre avec ces caractéristiques propres, qui n'ont rien d'universelles). Christian
  2. Grosse différence de couleurs entre JPEG et RAW

    Vous faites une mauvaise interprétation des paramètres RGB dans la boite de dialogue Appareil photo. Ces paramètres sont simplement copié dans la commande Balance RGB du menu photo numérique (faites le test, modifiez ces paramètres dans la boite de dialogue, les modifications se propagent dans la Balance RGB si vous cliquer le bouton Appliquer). De même, il est absolument inutile de faire la conversion RGB de chaque image individuelles d'une séquence de 500. Cela prend du temps pour rien. La bonne méthode est de décoder les fichiers RAW via la commande Décodage des fichiers RAW (via le menu photo numérique, puis dropper). On obtient une séquence de fichier FITS. Ici on peut par exemple soustraire le signal thermique sur la séquence, diviser par un flat-field... (c'est le bon moment pour le faire) . On transforme ensuite la séquence RAW en une séquence couleur (commande Conversion d'une séquence CFA). Ensuite encore, au besoin, en recentre les images (registration en se servant d'une étoile par exemple). On additionne les 500 images. Et c'est finalement sur le résultat de l'addition (une image) que l'on applique la fameuse balance des blancs - à la FIN donc. Cet ordre des opérations est important, et c'est celui qui permet d'avoir le meilleur résultat. He les p'tit jeune, vous aller trouver pas mal de tutorial la dessus (!), y compris depuis la page IRIS, par exemple celui-ci : http://www.astrosurf.com/buil/iris/roadmap/helpfr.htm qui comme par hasard, prend comme appui le traitement d'une image de M57... hum. Christian B
  3. Grosse différence de couleurs entre JPEG et RAW

    Bon, je viens sur le post. J'ai pu télécharger le fichier de Emmanuel. 1. Décodage du RAW avec l'option Canon(5D/20D... 2. Chargement du RAW via le menu fichier 3. décodage du RAW (Conversion d'une image CFA via le menu Photo Numérique). 4. Commande en ligne "back" sur un petit carré dans une zone noire du fond de ciel 5. Balance RGB dans le menu Photo Numérique avec les paramètres (au pif) R : 1,2 G : 0.6 B : 0.92 6. Petit ajustement des seuils et voila. Je ne sais pas trop où est le problème initial. Cela me parait correct pour une image posée 80 secondes environ, non ? Je pense que IRIS décode bien le 14 bits. Noter encore que l'on peut faire le décodage plus directement en travaillant avec l'option de conversion CFA en séquence. Certains l'on dit, Lucien en particulier, fort bien, c'est une erreur de chercher à maitriser son appareil en RAW en visant un objet astro, il y a plein de pièges. Il faut bien sur faire une banale photo d'un pot de fleur ou de maisons avec un ciel bleu, puis trouver la balance RVB avec par exemple la commande WHITE sur une zone réputée blanche de l'image. Mais attention au préalable, il faut avoir retirer le dark/offset de l'image, soit avec le commande BLACK sur une zone noire de l'image, mais ce n'est pas du tout heureux sur une image domestique (rien n'est noir), soit en faisant une image RAW avec le bouchon devant l'objectif, puis en faisant la soustraction (des images RAW important) de la scène et du dark. Il y a plein de tutorial qui expliquent cela. On applique la même balance trouvée sur les images du ciel bien sur. Attention, on oubli bien souvent les fondamentaux (par paraisse ?) : la soustraction de l'offset est un de ces fondamentaux. Christian B
  4. Salut Gérard, bien belle image de M45. Un télescope qui pique, une caméra que j'aime bien (je l'utilise même presque exclusivement en spectro à présent à cause du faible bruit, bien valorisé dans cette application) et bien, sur la technique = bonne recette. A propos de technique, ta réalisation demanderait un peu plus détail, car le détecteur est couleur à la base, ce qui change un peu les habitudes... Pour l'image L tu semble employer un filtre CLS, mais quid de la matrice de Bayer : tu somme simplement les pixels RVB pour faire une pseudo image N&B ("panchromatique") ? Pour les couches RVB, tu te contente des plans RVB naturels de la matrice de Bayer, ou tu ajoute en plus des filtres (dans le premier cas, tu obtient directement en une fois les couches RVB et alors ton commentaire sur l'image est un peu ambiguë, dans le second cas, quel serait l'apport de filtres optiques ajoutés et d'une acquisition séquentielle) ? Enfin, je suppose que pour obtenir une bonne dynamique d'image, tu a pas mal fragmenté les poses. Par curiosité, tu a acquis combien de Go pour ce cliché ? Christian B
  5. ms, vous avez une forte propension à ramener constamment cette discussion sur l'eVscope vers vos propres travaux, je ne suis pas je crois le premier à le dire. Je ne doute pas de l'intérêt des dits travaux, mais moi j'ai tendance à faire une différence entre ceux qui disent et ceux qui réalisent en allant jusqu'au bout, comme les petits jeunes à l'origine de l'eVscope... On ne peut pas avoir le même point de vu de valeurs entre ces deux situations, se serait trop simple. Je ne crois pas en outre que le prix annoncé soit de 2000 Euros, j'ai l'impression que c'est 1000 Euros. Et comme le marché est mondial... Je veux pas trop faire de politique, mais il est clair que l'on a perdu pas mal de place dans l'industrie ces dernières années en France. Mais il y a un tournant que notre pays semble bien prendre, c'est celui du numérique et des systèmes intégrés - c'est vraiment extrêmement important et je suis content qu'une startup française (une de plus) fasse du buzz dans cette direction. Pourvu que ca dure (j'ai confiance car on est est ouvert, imaginatif et bon dans ces technologies numériques). Manifestement, un des critères de jugement de la qualité de l'eVscope est sur le rendu visuel probable d'un écran électronique et là, ca tape dur. Hum, quand je vois comment les astrophotographes distordent les images qu'ils obtiennent, parfois à tort, parfois à raison (question d'appréciation...), je m'interroge sur la pertinence d'un tel critère de jugement. De toute manière, pas mal d'images vont finir sur un ordinateur avec le possibilité de traitement divers et variés avec les softs de son choix (faut espérer qu'ils transmettent les brutes, mais de toute manière s'ils ne le font pas, des concurrents les feront pour eux, on n'est qu'au début de l'histoire). Et si on va sur le sujet du rendu visuel, la capteur CMOS qui équipe le dispositif est de type couleur, et donc on restitue des images couleurs. Donc, on va dire que c'est nul car avec l'oeil rivé à l'oculaire en ne devine que fort rarement les couleurs ! Ces critiques ne tiennent pas. Montrer par exemple le ciel en couleur aux gens qui passent devant ce télescope, c'est bien sur une dimension supplémentaire très importante, et qui ajoute à l'attractivité. Je comprend bien que l'on peut ajouter une webcam à un télescope Dobson + quelques fils + un ordinateur... et obtenir quelque chose d'équivalent pour moins cher (à voir...). Mais clairement, quant on dits cela on oublie la qualité première du dispositif, celle d'un SYSTEME (une notion par toujours acquise des commentateurs), un objet complet avec GPS, motorisation, complexité cachée, ... La grande différence entre un bricolage et une réalisation industrielle bien pensée et aboutie. Ce produit va largement trouver son public (on en trouvera dans des FNAC, au dela même des Natures et Découvertes). Ce n'est peut être pas le public de ce forum... mais même dans ce forum, vous aller trouver des gens qui adhèrent au potentiel ludique et pédagogique d'un eVscope et consort (et même si on trouve des défauts à celui-ci, il faut retenir la tendance et le potentiel de progression). Christian B
  6. Serendiîty, faut-il préciser que la critique à toute sa place et son utilité ? Non bien sur comme tu le relève justement toi même, avec raison. Si j'évoque le mot dur de "rétrograde", c'est que je trouve que bien au contraire on devrait s'enthousiasmé de voir des systèmes d'observation aussi intégrés, et finalement simples d'usages - je vais donner un ou deux exemples. Cela m'énerve en fait un peu de voir autant de négatif dans certains propos (mais il est utile d'en analyser les raisons, je suis d'accord). Ce type de télescope (faudrait parler de système) rend possible l'observation en ville car il facilite considérablement le pointage et le traitement des images via l'oculaire électronique ou via l'ordinateur, ce qui va révéler des tas d'objets que l'on pense impossible à voir sous un ciel pollué. Bien sur cela ne vaudra pas une image profonde prise sous un ciel noir, loin s'en faut, mais il y a de quoi mettre le pieds à l'étrier pour pas mal de gens, des jeunes en particulier. On vit la réalité de la pollution lumineuse, faut-il pour autant renoncer ? Pour ma part je fais de la spectro de pointe sous un ciel avec une magnitude limite de 2. Je m'adapte. Ces télescopes astucieusement fait, vont participer de la même démarche. L'astronomie en ville, c'est une vraie révolution et une vraie découverte potentielle pour un très large public. Quant il y aura des dizaines, des centaines de télescopes de ce type, on pourra mettre des images en commun via les réseaux. On peut par exemple imaginer sur une campagne décidée sur les réseaux, sommer l'ensemble des centaines d'images réalisées par des observateurs de part le monde pour créer l'équivalent d'un télescope de plus d'un mètre de diamètre, ou encore faire du suivi temporel 24/24h grace à la magie de l'imagerie électronique et d'Internet. J'adore par ailleurs le rapprochement entre le JPM115 et ce type d'instrument que l'on discute ici. Tout est là. Il faut s'enthousiasmer car rien n'est encore vraiment dit de ce que l'on peut faire avec ces avancées techniques, et qu'il faut encore penser et échanger - donc ce débat à toute sa place ici, je trouve. Je salut par ailleurs la volonté d'entrepreneurs qui avancent dans le concret et qui prennent des risques. Christian B
  7. Les "petits" instruments dont on parle ici, et les suivant, qui parfois deviendrons plus grand, sont tout sauf des gadgets. Ils vont constituent des outils d'initiation hyper attractifs pour bon nombre de gens qui n'auraient pas observer le ciel autrement. C'est en devenir et c'est génial. Et parmi les gens en questions, certains vont poursuivre dans ce beau loisir, parfois même devenir professionnel, et ceux là vont vraiment s'esclaffer s'ils lisent dans quelques années la "ringardise" de certains propos tenu ici ! Il est par ailleurs particulièrement croustillant de relever le dénigrement de certains qui arguent qu'il n'y a rien de bien original dans tout ceci, que cela existe depuis longtemps, qu'on y avait déjà pensé et que c'est voué à l'échec puisque d'autres ce sont planté. C'est bien peu connaitre l'histoire des techniques et avoir bien peu construit de ces mains... et s'il y a du "business" à faire, y compris par de nouveaux acteurs, c'est tant mieux, Ainsi va le monde qui avance et tant pis pour les jaloux qui se croient les gardiens du Temple. En prime, avec un peu d'imagination (c'est bien l'imagination !), on doit pouvoir faire un peu de bonne science avec ce type d'instrument, ou au minimum faire de bons TP dans le milieu scolaire et universitaire. Au fait, piloter un télescope en remote situé dans un ferme, sur lequel on ne met jamais l'oeil, c'est de l'astronomie ou pas ? Christian B
  8. Il me parait difficile de mettre sur le même plan un système d'optique adaptative est un oculaire dit "électronique". Le champ d'applications du premier est plus vaste. Il ne s'arrête pas à l'imagerie planétaire. Je pense en particulier (et entre-autre) à la spectrographie où un tel système peut potentiellement faire gagner un facteur deux en collection de flux quant il est mis en route, ou faire gagner l'équivalent en résolution spectrale. Faire alors avec un télescope de 400 / 500 mm ce que permet de faire un télescope de 600 / 700 mm (voir plus, ce n'est pas linéaire), représente une économie financière bien supérieure au coup du système OA. Celui-ci est amorti. Et la spectro c'est vraiment important (en ce moment s'achève un workhop pro/am d'une semaine à l'Obs. de Meudon où on parle de belle science, de belles manips et de belle collaboration pro/am en spectrographie). On avait effectivement discuté de cela lors des dernières RCE en petit groupe (avoir mis la lame dichroïque est le bon plan). Pour le moment cela ne peut fonctionner que sur des étoiles brillantes, certes, mais les progrès en matière de détection optoélectroniques sont continus... Difficile aussi de critiquer l'optique active en évoquant le grand champ, car ce n'est pas le domaine privilégié de ce type de système (bien que dans mon métier du spatial on y travaille pour des satellites d'observation de la Terre, plutôt le versant actif donc, et avec de grands nom de l'industrie). Je pense comme Jean-Luc qu'il est parfaitement possible de discriminer les effets basse fréquence et haute fréquence pour identifier les défauts statiques ou quasi-statiques. Faut pas voir le noir partout. Bien sur, la démocratisation passe par une mise en oeuvre simple, genre boite noire, et un cout raisonnable. Je suis très optimiste sur ces deux points. L'expérience montre que l'on se trompe bien souvent si on oublie de ce projeter. Si je m'étais arrêté aux difficultés techniques et aux sarcasmes vers 1985 lorsque j'ai fait mes premières caméras CCD "bricolés"... on voit la suite. Pour la spectro, c'est pareil, cela devient une discipline à part entière chez les amateurs - la chose a pris 10 à 15 ans, mais l'essentiel, c'est le résultat. L'optique adaptative/active est une révolution chez les pros. C'est bien sur une révolution lorsque cela infusera le milieu amateur car on ouvre de nouvelles perpectives observationnelles et la technique s'effacera devant cela (faut voir par exemple la technologie qu'il y a derrière un télescope GoTo, mais aujourd'hui tout le monde appui sur un bouton pour le mettre en oeuvre s'en se soucier de la chose !). Alors oui vraiment, Jean-Luc à raison de parler de révolution. Christian B
  9. Utilisation de IRIS

    Il ne faut pas oublier les "deux point" effectivement, et faire genre : c:\images\nuit10 Le plus sur est d'aller dans Réglage (menu Fichier), puis la section Chemin du répertoire de travail, cliquer sur le bouton "...", dans la boite de dialogue qui s'ouvre chercher le répertoire où l'on a mis les images, sélectionner et faire OK. Le chemin ce met automatiquement.
  10. Oui l'aspect apparent du spot "bleu" (le fameux halo bleuté que l'on note avec les réfracteurs par exemple) est dépendant de l'échantillonnage. Il est plus ou moins gênant sur le plan esthétique en photographie. En revanche en spectro, et même avec une fente large ou une fibre (de 50 microns typiquement), l'effet photométrique est immédiatement problématique et assez violent sur le plan quantitatif. Je révise mon point de vu sur les coatings de telecompresseurs (la coupure brutale du coating du réducteur Takahashi FSQ85ED est en revanche avérée), et finalement, il est bien possible lyl que ton Kepler soit fort bon sur ce point. Le soucis majeur est le chromatisme, mais cela n'est pas neuf. En tout cas, pour bien mettre en évidence un problème éventuel de transmission il va falloir faire une mesure fine.
  11. J'ai refait des mesures en changeant fortement le protocole, à savoir en ne me servant plus d'une étoile comme source de lumière, mais d'un montage sur table comme indiqué dans un précédent message, en éclairant le système réducteur de focale + fibre via un écran diffuseur éclairé par une lampe halogène à 4700 K. Voici la transmission mesurée du réducteur Celestron : C'est bien différents des mesures sur étoiles. En fait, sans trop rentrer dans les détails, on est ici face à un vieux piège typiquement rencontré en spectro : lorsque le réducteur est en place, une aberration chromatique apparait (on a affaire à un dispositif à lentilles) et dans ces conditions, la taille de la tache image stellaire au bout du télescope dépend de la longueur d'onde. Typiquement, elle s'élargie dans le bleu, et comme la fibre optique elle ne change pas de taille, cette dernière collecte moins de signal dans le bleu que dans le vert ou le rouge, d'où la forte perte de rendement constatée précédemment. En fait, le réducteur continu a être le responsable d'une perte de signal dans le bleu, mais pas à cause d'un problème de transmission optique (ou disons que marginalement), mais à cause du chromatisme qu'il génère (ce que l'on ne voit pas avec un télescope tout miroir, sauf une part liée au chromatisme de l'atmosphère elle-même si on n'observe pas au zénith). J'avais zappé cet effet que j'avais pourtant bien étudié à une époque, qui cause des dégâts lorsqu'on veux faire de la spectrophotométrie de précision. Zut. Les astrophotographes sont bien moins concernés par cela. Olivier G. a aussi utilisé une source uniforme pour faire ça mesure du réducteur Astro-Physics (après une tentative pas obligatoirement concluante sur étoile, peut être pour la raison citée précédemment). Je possède moi-même le réducteur Astro-Physics. Voici mon résultat : Je ne retrouve pas exactement le résultat de Olivier, ce qui montre au passage que la mesure est délicate (l'usage de fibre optique n'est pas idéal). Je pense que Olvier est plus dans le vrai. Bref, en mettant de coté le problème de chromatisme, assez spécifique à la spectro, l'effet de transmission des correcteurs testés s'avère finalement faible. Affaire close. Christian
  12. Oups Christian_d, non bien sur ce n'est pas un Edge. je ne sais pas pourquoi je qualifie de Edge mon C11 ! La fatigue s'en doute. Je voulais dire que le traitement des surface est qualifié de StarBright (XLT), pas plus. Donc pas de lentilles supplémentaires outre le correcteur (et la lame de fermeture). On a l'impression que c'est le bon niveau coté traitement tube optique. Et si on lit la documentation Celestron, cet ensemble de traitement semble correct dans le bleu. Le problème c'est bien le correcteur il semble. Olivier G., bien intéressent que tu te lancé dans le test de ton coté, c'est vraiment fondamental de consolider l'impression générale pour agir ensuite. Christian
  13. Myriam, je pense que la mesure sur table n'est pas trop évidente, mais cela ce tente. Le problème est d'avoir une référence. L'idéal est de faire une mesure relative entre ce qui se passe dans le bleu et dans le rouge (laser rouge et laser bleu pas exemple), mais ce n'est pas facile. Le plus et précis finalement est de ce servir des étoiles... ou même de la lumière du jour tout simplement, avec la caméra au foyer du télescope. Je rebondit sur ce que dit jmr, avec la possibilité d'utiliser un APN et la matrice de Bayer, en comparant simplement, en visant par ciel clair, le ciel lui-même de jour et de comparer le signal avec et sans réducteur. Le seul bémol est que les pixels bleu ne vont pas trop dans le bleu avec une Bayer, mais c'est mieux que rien. Il ne faut peut être pas généraliser le problème relevé sur quelques modèles de réducteur. Ce sont peut-être des cas particuliers. Est-ce effrayant : disons que tout le monde à vécu avec cela, même si on met en évidence que c'est une pratique courante des constructeurs (faut donc faire des essais et des contre-mesures pour bien assurer la chose). En cela, ce n'est pas si effrayant. Mais de fait, on bichonne son télescope, on essaye d'avoir un gros diamètre et paf, il y a un grain de sable qui grippe dans le train optique mais on ne le repère pas toujours. D'une manière générale, je trouve qu'il y a un peu de laxisme de la part des observateurs vis a vis de l'optimisation en flux (spectraux) des équipements. On parle par exemple beaucoup de front d'onde, mais pas de cet aspect de la performance, tout aussi important en fait .
  14. Jean-Michel, voici la comparaison du spectre d'une même étoile avec les mêmes paramètres de traitement, en rouge observé avec un C11 Edge + réducteur Celestron, en noir avec un Newton Kepler de 200 mm (les spectres sont normalisée vers 660 nm) : Ce graphe est une illustration du propos de ce fil (on voit comment l'écart se creuse dans le bleu). Cependant, ici, je ne fais pas le distinguo entre le tube optique C11 et le tube optique C11 équipé de son réducteur. D'autres mesures que j'ai réalisées semblent indiquer que le responsable de la dégradation dans l'UV est pour une très large part le réducteur de focale. Je n'ai pas fait de mesures spécifiques, mais j'ai l'impression que le C11 avec ca lame, exploité tel quel (f/10) demeure raisonnablement transparent dans le bleu et l'UV. Voici sous forme de courbe, le rendement relatif des combinaison C11+réducteur et Newton : Il faudrait tester d'autres modèles de réducteur pour voir si le problème est général, et si les fabricants ne se sont pas donner le mot en quelque sorte... Christian B
  15. Non Chonum, je ne pense pas que le problême soit ici celui de l'absorption interne dans le verre, même un flint courant, dès lors que les effets sont nettement perceptibles dès 450 nm et même avant. Certes, il y a de l'absorption dans les verres, et même une opacité totale, mais nettement plus loin dans l'UV. On parle ici du très proche UV. Je doute fort que le réducteur Celestron (par exemple) soit fait à partir d'un verre aussi sophistiqué que le LaSF52 vu son prix. Mon expérience avec le réducteur de focale de la lunette FSQ-85ED (reducer QE 0.73) est édifiante. J'ai fais des mesures spectrographiques très soignées. Sans le réducteur, cette lunette possède une très bonne transmission dans le bleu profond malgré le nombre de lentilles et l'usage de verres spéciaux (et aussi une très bonne correction chromatique dans cette partie du spectre). Par exemple, j'arrive à observer correctement les raies H et K du calcium (Ca II) vers 395 nm. Parfait. Mais dès que le réducteur est en place, c'est radical, on a un mur de blocage très raide dans ces longueurs d'onde. L'équivalent d'un filtre de réjection UV. Et ce n'est pas du tout de l'absorption, les surfaces de ce correcteurs se comportent comme des miroirs (les reflets UV générés m'ont bien fait souffrir !). Christian