Thierry Legault

Membre
  • Compteur de contenus

    7 409
  • Inscription

  • Dernière visite

  • Jours gagnés

    18
  • Last Connexion

    Soon available - 40111

Tout ce qui a été posté par Thierry Legault

  1. M51 T600RC STL11000

    Franck, un Newton a un miroir primaire parabolique. Sur un grand capteur tel que celui de la STL, il est indispensable de corriger la coma, par exemple avec un Paracorr ou un Astrooptik (E. Mallart pourrait t'en dire plus, il en utilise un sur son CN avec la STL). Sur ton RC, le primaire est hyperbolique, donc à mon avis ces correcteurs ne conviendront pas. Il y a ceux des Epsilon, mais ils sont adaptés aux caractéristiques des miroirs de ces télescopes et rien ne prouve, avant d'avoir essayé, qu'ils conviendraient à ton primaire.
  2. C11+ccd

    c'est vrai qu'avec grande focale de C11 et un petit capteur, pour les nébuleuses on peut faire des choses mais ça ne me semble pas le plus adapté, il y a énormément de nébuleuses qui ne vont pas rentrer.Pour le Halpha, il est vrai que le capteur d'autoguidage des sbig va perdre de la lumière sur les étoiles. Ca dépend de la bande passante du filtre, c'est facile à calculer approximativement : un filtre de 10nm couvre 1/30 environ du spectre (400 à 700 nm), donc on perd un facteur 30. Si on avait trouvé une étoile guide assez brillante pour poser 1/10s sans filtre, faudra poser 3s avec le filtre. Ca dépend donc aussi de la qualité de suivi de la monture et du temps qu'elle peut tolérer entre deux rattrapages sans trop dériver.[Ce message a été modifié par Thierry Legault (Édité le 13-04-2007).]
  3. dans la page d'autodither, il est indiqué que ce plugin n'est pas compatible avec l'AO-7, donc je suppose pas avec l'AO-L non plus, si c'est ça va falloir que je continue avec MaximDL !
  4. M51 T600RC STL11000

    je ne comprends pas ce que tu veux me dire constructor. Pour le côté Newton je suis assez d'accord, finalement est-ce que ça n'aurait pas été aussi intéressant de garder le Newton à 3,2 avec un bon correcteur et travailler en bin1, ce qui aurait donné à peu près le même échantillonnage (donc même temps de pose) avec bien plus de champ ?
  5. M51 T600RC STL11000

    d'accord avec toi Franck, moi ce que je ferais c'est de regarder la fwhm en début de séance et si ça dépasse environ 2 pixels, je passerais en binning. Si c'est pour modifier le RC en Newton, oublie : un primaire de Newton c'est parabolique, un primaire de (vrai) RC c'est hyperbolique Ou alors faut mettre un correcteur comme celui des Taka Epsilon dont le primaire est hyperbolique aussi.
  6. ah ok, c'est pour ça que je n'avais pas trouvé l'option. Je suis content, j'ai appris quelque chose aujourd'hui, merci Vincent
  7. M51 T600RC STL11000

    c'est une bien jolie image Michel, avec un traitement simple et de bon goût Et en plus, elle a le pouvoir de ressuciter les disparus du forum !
  8. Philippe, je ne vois pas où tu aurais pu lire ça...dans mon bouquin peut-être ? Je suppose que tu te demandes si CCDsoft est capable de faire ces petits décalages aléatoires automatiquement à la prise de vue ? Je ne crois pas, ou alors l'option est bien cachée. Par contre, MaximDL le fait (option "dithering") et c'est bien pratique, plus besoin de donner un petit coup de raquette toutes les 2 ou 3 images.Je complète ma réponse : ça sert surtout à lisser les défauts des images de prétraitement. On a beau faire des médianes ou des moyennes de darks, d'offsets etc, il reste des défauts dans ces images, à commencer par du bruit évidemment, éventuellement une trame. Or il faut voir que c'est le même dark médian qui sert à corriger toute la série d'images, donc un défaut va être amplifié autaut de fois qu'il y a d'images à prétraiter. Mais si on fait ces petits décalages, ça va faire un lissage spatial des images de prétraitements. Du coup, on a probablement besoin de faire moins d'images, moins de darks en particulier, ce qui n'est pas négligeable parce que ça prend du temps. Pour les trames de fond je dirais que ça dépend, je pense que ça peut aider pour les trames verticales ou horizontales, par contre une trame en diagonale peut être le signe d'une mauvaise correction de dark, avec justement un décalage des images petit à petit en oblique qui provoque des trainées, donc pas sûr que ça corrige tous les problèmes non plus.Pour ce qui est des étoiles très fines qui n'occupent qu'un seul photosite et dont la couleur n'est pas représentative, je crois que c'est plus une question théorique qu'un problème pratique. Déjà, ça ne peut se produire qu'avec une très courte focale (sinon la turbu étale l'image), donc un objectif photo, et il faut un objectif de très haute qualité et suffisamment diaphragmé (au dessus de F/4 en général). Et surtout avec ça, il faut une mise au point d'enfer ! En plus, comme on ne fait pas d'autoguidage en général avec ces courtes focales, les petits défauts de mise en station ou les flexions se chargent de faire les décalages. D'ailleurs, on voit bien dans la galerie que même avec des objectifs "qui piquent à mort", les étoiles font plus d'un pixel.
  9. Un classique : M66

    <<La météo nous gâte ces temps-ci ! En plus, ces belles nuits correspondant aux périodes de congés, que demander de plus ?>>ben...des congés D'accord avec Cédric, curieux fond de ciel complètement uniforme avec une bordure de galaxie qui disparait un peu artificiellement dans ce fond, comme si le fond avait été mis à zéro puis remonté. Et puis les centres de galaxies qui jurent avec les étoiles autour, j'arrive toujours pas, je finis par me demander s'il ne faudrait pas éliminer les étoiles et ne montrer que les galaxies. Bref, je pense que les brutes ont du potentiel mais trop de traitement tue le traitement !
  10. a éviter que des défauts répétitifs (pixel chaud mal corrigé, trame de fond...) se retrouvent toujours au même endroit dans les images recentrées. C'est pas indispensable, mais c'est mieux. [Ce message a été modifié par Thierry Legault (Édité le 09-04-2007).]
  11. Amas Virgo en ... blanc et noir

    "Je vais sans doute lancer une polémique, mais l'absence d'autoguidage, qui limite donc les poses en durée, présente l'avantage d'acquérir un plus grand nombre d'images dans le même intervalle de temps, et donc d'apporter un certain gain dans le rapport signal/bruit."Il n'y a pas à polémiquer, cette affirmation est fausse, tout simplement . Ce qui fait le rapport signal/bruit (RSB), c'est la durée _totale_ de pose. Le meilleur RSB est obtenu en ne découpant pas cette pose, mais pour des raisons pratiques et pour limiter les risques il est en général préférable de découper en plusieurs poses individuelles (problèmes de suivi, saturations, arrivée de nuages etc.). A durée totale égale, tant qu'on ne découpe pas trop, le RSB ne baisse pas, mais à partir d'une certaine limite, découper trop va dégrader le RSB car le bruit de lecture va intervenir n fois au lieu d'une. Cette limite dépend des conditions (intensités de l'objet et du fond de ciel etc.) et du matériel (bruit de lecture en particulier). Dans le cas courant, une pose de 60min sera équivalente à 4 poses de 15min, mais pas à 3600 poses d'une seconde ! Dans ton cas, il n'est pas possible de dire immédiatement si la durée des poses (1min30) a dégradé le RSB par rapport à des poses plus longues, il faudrait regarder certains chiffres, mais l'image est sympa et c'est ça qui compte !
  12. M106 en LLRVB

    effectivement j'ai le même problème du nombre de nuits limité qui oblige à optimiser le temps disponible (c'est pour ça que je fais du binning 2 !). Mais par exemple, une nuit tu fais les RVB en bin1 (sur un objet brillant de préférence), et au traitement tu fais un bin2 des RVB puis un agrandissement de 2, ça te donnera une bonne idée du résultats comparés.
  13. M106 en LLRVB

    oui, tu fais ce que tu veux et tu peux essayer les deux possibilités (et puis tu nous fais part de tes conclusions). Ce qui est bon pour certains n'est pas forcément bon pour toi, les avis des autres et des autres faut parfois prendre un peu de distance et se faire sa propre idée, c'est comme ça que les "experts" (enfin, supposés tels ) ont fait, mais ça ne leur donne pas la science infuse pour autant
  14. M106 en LLRVB

    je travaille principalement à 1,7"/pixel, je fais toutes les RVB en binning 2 et quand je compare les luminances avec les LRVB je ne trouve pas que ça dégrade la finesse. Les étoiles ne deviennent pas carrées pour autant. http://www.astrophoto.fr/ngc4631_large.html http://www.astrophoto.fr/m101_large.html http://www.astrophoto.fr/cocoon_large.html http://www.astrophoto.fr/b33_large.html Ca c'est pour le LRVB, pour le HaRVB je suis d'accord que ça peut faire des effets d'auréoles colorées parce que les étoiles sont bien plus petites (car beaucoup moins intenses) en Ha.[Ce message a été modifié par Thierry Legault (Édité le 07-04-2007).]
  15. L'Observatoire Flammarion sur ARTE

    pour ceusses qui apportent un instrument, doivent-ils faire 100 ou 200m à pied ou il y a moyen de poser la voiture à proximité de là où sera l'instrument ?
  16. Que faire avec 800 milliards $

    la bd s'appelle Kid Paddle
  17. Que faire avec 800 milliards $

    je ne sais pas si les martiens sont méchants mais les xions, ça c'est sûr... on l'a échappée belle !!! http://www.astrosurf.com/legault/kidpaddle_222a.jpg http://www.astrosurf.com/legault/kidpaddle_222b.jpg
  18. M106 en LLRVB

    ahhh...je suis content de ne plus être le seul à remarquer les centres de galaxies traités un peu fort
  19. Vénus 02/04 toujours mieux

    le niveau de détail est impressionnant ! Mais où s'arrêtera-t-il ?
  20. Lune 8e jour - clavé 80 mm

    superbe !
  21. M33 au 200 ouvert à 1.8

    ben moi j'ai une solution très simple pour faire le même effet qu'un doubleur (et même quasiment qu'un tripleur) : passer les images en full à 8 Mpixels, au lieu de 1 Mpixel.Et ça coûte pas un rond. Elle est pas belle la vie ?
  22. C'est décidé, j'arrête la photo du ciel...

    oui mais Cartier-Bresson faisait de la photo noir et blanc, et le noir et blanc c'est quand même assez éloigné de ce qu'on voit, en un sens Bien que je ne sois pas trop fana des fausses couleurs à la Hubble, on peut d'ailleurs se poser la même question pour les images de nébuleuses en Halpha présentées en noir et blanc, c'est joli et on voit bien les contrastes, mais finalement entre représenter Halpha en noir et blanc et la représenter en vert, peut-on dire que l'un est plus représentatif que l'autre ? J'ai bien peur que sur ces histoires de couleurs en bande étroite on n'en sorte pas, après tout une image du Soleil en Halpha c'est beau, mais ça ne correspond pas du tout au Soleil tel qu'on le voit à l'oeil nu (enfin, avec un filtre neutre ou à travers une couche de nuages qui filtre).[Ce message a été modifié par Thierry Legault (Édité le 01-04-2007).]
  23. C'est décidé, j'arrête la photo du ciel...

    effectivement Kaptain, la question des couleurs en ciel profond est un des aspects de la question (mais c'est loin d'être le seul, et peut-être pas le plus critique, et je trouverais dommage que la discussion ne se concentre que sur cet aspect). C'est vrai que l'oeil ne voit pratiquement pas les couleurs en ciel profond mais pour moi, même si je ne vois pas la Tête de Cheval rouge à l'oculaire d'un gros télescope, le Halpha c'est rouge. Pour s'en convaincre, il suffit d'observer le Soleil dans un filtre Halpha, ou tout simplement de regarder en plein jour à travers un filtre Halpha pour nébuleuses. Pareil pour OIII, les nébuleuses planétaires brillantes sont bien vertes à l'oculaire, de même que le coeur de M42. A partir de là, je ne dirais pas qu'une photo montre ou ne montre pas la "réalité" (mot que j'ai pris le soin de ne pas employer ), je dirais qu'à mon sens une image de ciel profond qui montre Halpha en rouge est bien plus représentative (au sens photographique du terme) de l'objet photographié qu'une image qui la montre en vert, pour moi les deux ne sont pas équivalentes (après, on peut préférer l'une à l'autre pour des raisons purement esthétiques, mais c'est encore autre chose). Je ne porte pas de jugement de valeur, je pense juste qu'on ne peut pas tout mettre sur le même plan sous prétexte que le "réalisme" absolu n'existe pas (ce qui est vrai). [Ce message a été modifié par Thierry Legault (Édité le 01-04-2007).]
  24. C'est décidé, j'arrête la photo du ciel...

    non Serge, tu n'es pas seul à t'interroger. Aujourd'hui, les outils informatiques permettent de faire tout et n'importe quoi, mais est-ce que tout se vaut pour autant, et est-ce qu'on peut tout faire sans se poser de question ?A mon avis la problématique n'est pas simple car il y a une foule de cas très différents : compositages, mosaiques, combinaison d'images de temps de pose différents, assemblages/collages, reconstitution d'événements, traitements sélectifs sur zone, fausses couleurs, colorisation RRGB ou HaRGB ou SII-Ha-OIII etc. Il est difficile de tracer une frontière entre, à un bout, ce qui relève de la simple commodité d'acquisition et de traitement (exemple : combiner plusieurs poses identiques en ciel profond afin de simuler une pose longue, là je pense que ça ne choque personne) et, à l'autre bout, la fabrication d'une image du type de l'assemblage a posteriori du passage de la comète SW3 à côté de M57 qui me choque, comme toi : à partir du moment où je sais que c'est un montage, je n'arrive plus à profiter de la beauté de la photo, la manipulation technique resurgit et je ne peux plus en faire abstraction. A mon avis, un des dangers est de finir par tout mettre sur le même pied d'égalité, entre la prouesse photographique d'être au bon endroit au bon moment (avec toute la préparation et la maîtrise technique que ça suppose), et la prouesse (?) informatique qui consiste à photographier les éléments séparément et refabriquer tranquillement l'événement a posteriori sur ordinateur. Et encore, il y a plusieurs niveaux de reconstitution, entre le chapelet d'éclipse qui n'est pas ambigu puisque la Lune ou le Soleil y apparaît plusieurs fois, et les reconstitutions du type de celle que tu présentes en début de ce fil.Je l'ai déjà dit ici, pour moi la première qualité d'un traitement d'image c'est justement de ne pas apparaître, on ne doit pas voir qu'il y a eu traitement (même si on le sait, évidemment). Par exemple, les traitements d'accentuation sur le coeur d'une galaxie, quand je vois au premier coup d'oeil que le coeur de la galaxie est net et que ses extensions partent dans le flou, ainsi que les étoiles autour, ça me choque parce que la photo devient incohérente et qu'une photo c'est un tout et pas un ensemble de petits bouts de ciel juxtaposés les uns aux autres. La notion d'incohérence peut prendre de multiples formes, par exemple on voit des images de M42 où il y a eu combinaison de poses courtes et de poses longues, avec finalement des extensions faibles qui sont devenues plus brillantes que le coeur, alors que c'est l'inverse dans la réalité. C'est joli certes, mais est-ce encore M42 ? Oui, mais peut-être de moins en moins. A un moment donné, ne va-t-on pas passer de la "photo de M42" à la "peinture inspirée de M42" ? Le simple fait que le résultat soit esthétique suffit-il à tout justifier ? La photo du mannequin pour la pub sur les collants, dont on a rallongé les jambes et retouché le visage (et le reste), est-ce encore elle ou un objet virtuel ? Le jour où, en première page d'un journal de sport, on verra une photo du but décisif refabriquée en collant une photo du ballon, du joueur et du gardient de but prises séparément dans des postures similaires, est-ce que les supporters l'apprécieront autant que la "vraie" photo du but ?Je suis tombé par hasard sur le règlement d'un concours de photo animalière, dont voici un passage : <<<<Seuls sont autorisés : un léger recadrage, la correction des poussières, les modifications globales de l’image (contraste, balance des couleurs, saturation, luminosité, courbes, accentuation…). Le recours aux superpositions, aux masques et aux corrections par couche ou par sélection est interdit.>>> On n'est visiblement pas les seuls à s'interroger sur certaines limites. Bien sûr on ne fait pas ici un concours de photo astro et il ne s'agit pas de fixer des règles contraignantes, chacun est libre de faire ce qui lui plait, mais ça n'empêche pas de s'interroger, et à mon avis le minimum à faire, à partir du moment où on commence à faire des manipulations d'images un peu hors des traitements de base, c'est de le signaler clairement. [Ce message a été modifié par Thierry Legault (Édité le 01-04-2007).]
  25. M101 + NGC5474 LHa_HaRVB

    le boîtier de l'AO-L semble effectivement assez large, mais quand on lance un exercice on voit que la lame s'incline d'un angle qui est assez important, il lui faut donc un minimum de place et j'ai du mal à imaginer, avec ses 38mm d'épaisseur externe (donc moins que ça en interne), qu'on puisse gagner les 20 à 25mm nécessaires.