patry

Membre
  • Compteur de contenus

    3 284
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

13 Neutre

À propos de patry

  • Rang
    Membre très actif

Informations personnelles

  1. C'est bête comme choux, mais effectivement c'est mieux en le disant (ou en le calculant) : 1ms = 1/1000e de seconde 2ms = 1/500s 4ms = 1/250s 5ms = 1/200s (ces deux valeurs sont souvent celles de la synchroX, durée d'ouverture totale des rideaux d'un obturateur mécanique transversal. De rares modèles sont plus rapides que le 1/250e, minolta 9xi par exemple) 8ms = 1/125s 10ms = 1/100s 16ms ~ 1/60s (valeur largement exploitée de l'époque de la DMK21, également valeur de synchroX des boitiers d'entrée de gamme avec le 1/125e). 20ms = 1/50s 25ms = 1/40s 50ms = 1/20s 100ms = 1/10s 200ms = 1/5s 250ms = 1/4s 500ms = 1/2s 1000ms = 1s Avec nos capteurs électroniques, on peut assez largement dépasser le 1/1000e de seconde et alors on parle en micro-seconde (µs) avec 1000µs = 1ms Sachant qu'une micro-seconde, c'est une éternité déjà pour les processeurs dont on arrive à leur faire faire pas mal de calculs dans cet intervalle. En imagerie, le problème n'est pas tant la capture de l'image (on saurait faire un capteur qui déclenche à la µs et moins), mais sa conversion (il faut convertir des électrons, c'est à dire une tension, en un nombre numérique), puis son transfert vers une mémoire, cela pour chaque photosite (puits de réception de photon) qui deviendra alors un pixel. Et avec le nombre de photosites des capteurs cela prend du temps. D'où la prédominance des CMOS sur les CCD car l’électronique est grandement simplifiée mais c'est là un autre débat. C'est pour cela qu'il faut distinguer la capture (qui permet de figer la turbulence) de la capture+transfert ce qui donne (peu ou prou) le débit d'image. Tu peux exposer à 1ms tout en ayant 20 i/s ! Tu ne peux pas faire l'inverse par contre, débiter 100i/s avec une exposition au 1/20e ! Marc
  2. De 20 à 40ms en lunaire, je suis admiratif. Comme valère, j'étais à 15ms GRAND MAXIMUM avec la PLA-Mx et au 23A de surcroît, sinon la turbulence foutait en l'air toute l'image a l'appartement qui disposait d'un site que je trouvais pas mal. Avec la 178, et après déménagement, je me cantonne sagement à 10ms, voire 15ms au grand maximum, mon site étant nettement moins bon. En planétaire, toutes mes captures avec un temps de pose supérieur à 20~25ms finissent de toute façon à la poubelle en général et sont bien moins définies que celles à 10ms avec plus de gain. Cela doit donc VACHEMENT dépendre du site, et pour ma part je suis admiratif quand je vois des captures de planètes lointaines à 50, 100 voire 200ms régulièrement. A ce niveau là c'est du ciel profond pour moi ! Marc
  3. Pour information voila la bande passante de mon jeu de filtres LRGB Astronomik : La mesure est remarquablement stable (avec d'autres séries de filtres), signe que le processus de production est bien maîtrisé. Voila celui de mon UHC-E Et enfin le IR742 en vue large (200~1000nm) ... et détaillée avec la coupure a ... 744nm (2nm d'écart .. remboursez !!). la transmission oscille un peu dans l'IR ... entre 98,5% et 99% de transmission ! La transmission (échelle verticale 0 à 1%) de 400 à 700nm Marc
  4. Concernant les filtres colorés je trouve personnellement leur usage un peu particulier. Je parle en visuel, en photo, avec une caméra c'est bien sur un autre débat et d'autres contraintes que peu de filtres remplissent ! En visuel, passer d'une vision sans filtre a une vision "filtrée" va effectivement éteindre certaines formation et, par effet de contraste, rendre mieux visible d'autres détails. Du coup, la liste de filtres de pascal, je l'ai écumé de long en large pour finalement prendre voici quelques années mon premier filtre qui me semblait le plus "versatile" : un 23A. Pas trop sombre (j'avais un C8 à l'époque) il s'utilisait presque partout. Mais quelle déception de voir que dans ma roue à filtre, avec/sans ne changeait rien. Sans ; je ne vois effectivement pas ce petit nuage sur Jupiter. Avec, là oui, je le vois bien maintenant. De nouveau sans ; ha bin non, il était là sous mon nez et je ne le voyais pas. Plus tard j'ai pris un triplet RGB astronomik (pour la photo) et j'ai le même constat : finalement il faut bien "apprendre" à observer et surtout prendre son temps de bien observer. Comme quoi je trouve qu'il s'agit plus d'une aide à l'apprentissage de l'observation qu'autre chose et on est loin de l'image avec/sans un filtre OIII par exemple qui, et c'est certainement lié à sa sélectivité, montre des choses qu'on ne voit pas sans ! Aujourd'hui mes filtres (RGB, 23A, W47, IR742) ne sont utilisés qu'en imagerie : le 23A pour la résolution au C11 (laisse passer R+IR), les R et G pour la même chose, le B quasiment jamais (la résolution moyenne de mon site ne permet pas son utilisation), l'IR742 quand c'est trop moche au 23A, et le W47 c'était pour l'ADC mais je lui préfère la méthode visuelle. Les autres filtres UHC-E, gris neutre (pour être associé à un filtre solaire D3,8 en visuel), IRcut et polarisant sont d'un tout autre usage. Maintenant avec un instrument plus petit (90mm à ce que j'ai compris) il faut bien choisir car l'image va vite devenir sombre si on veut grossir un peu pour y voir des détails, et encore plus si on s'amuse à filtrer. Et bien sur plus le filtre est passant, moins il est contrasté et donc moins il est utile ! Marc Nota ; Il est amusant de combiner les filtres. Alors pas entre les astronomik qui se croisent peu (c'est parfait pour la photo) et en général pas avec des filtres colorés sauf cas particuliers. Par exemple, W47+bleu donne un bleu très sélectif. UHC-E + R ne laisse passer qu'une grosse bande (640-660nm) autour de Ha (655nm), et UHC-E + V, améliore la sélection (490-520nm) autour de OIII (500nm). Cela ne remplace évidemment pas ces filtres très spécifiques mais cela permet d'isoler des spectres particulières et l'association permet de trouver un contraste meilleur qu'avec un UHC seul par exemple.
  5. FRANKASTRO> Il n'y a pas franchement de différence avec la version ZWO et les autres ADC ! Quand les molettes sont superposées, tu n'a aucune correction, et plus tu va "ouvrir", moins les prismes seront en phase et provoqueront alors un chromatisme qui, comme par hasard, se retrouvera inversé par rapport à celui engendré par le ciel. Après, tu tourne dans un sens ou l'autre selon les modèles, il faut toujours que le bloc d'ADC ait sa référence bien verticale ; à 0° d'ouverture, les molettes sont à droite, perpendiculaire au sol sur mon ADC PA au C11, et dans ces conditions, l'ADC n'engendre ni chromatisme, ni défaut optique notable. Un résultat de test sur le forum d'en face avait été fait sur mon exemplaire (une des premières séries d'ADC de PA). De mémoire les prismes seuls sont de très grande qualité, et il faut faire attention au montage car le moindre excès de serrage se voit immédiatement (au banc en tout cas). Pour trouver la bonne ouverture, je recommande de se mettre en condition d'imagerie avec donc un F/D important (cela aide à la précision de réglage de l'ADC). Moi je le fais en visuel ; je visualise les franges R/B puis leur inversion B/R. Le bon réglage se trouve au milieu des deux positions. Avec 2 ou 3 itérations tu ne distingue plus du tout de chromatisme. En cela, une graduation aide vachement à retrouver les positions. Tu peux le faire aussi à la caméra avec un filtre W47 (violet) qui laisse passer très justement les 2 extrêmes du spectre (B et R+IR). Tu aura donc 2 images en vidéo que tu veillera à superposer. Par contre la verticalité sera à maintenir tout le long de la séance d'imagerie. Ce qui signifie que pour des période longues (plusieurs heures), il faudra re-orienter le bloc, et refermer (au lever) ou re-ouvrir (en direction du coucher) l'écartement des molettes. Cela permet ainsi de conserver une correction chromatique qui va être de l'ordre de la seconde d'arc pour les hauteurs faibles (intrabande). Par contre à 20° de hauteur, les dégâts de la turbulence seront considérables et l'ADC (qui ne corrige que le chromatisme) fera ce qu'il pourra pour améliorer le résultat. Et à l'inverse, quand la cible est très haute (>>45° sur la lune p.ex) le degré de correction sera quasi invisible (au C11). Dans ce cas, moi j'essaie de m'en passer pour limiter mon tirage optique. Marc
  6. Grosse différence de couleurs entre JPEG et RAW

    Juste une question en passant, j'ai essayer de fouiller les options de DSS, et j'ai trouvé un truc très bizarre : "équilibrer le fond RGB" coché (par défaut ?). Et il ce faisant, le fond (très orange chez moi) va être artificiellement corrigé en gris et donc les couleurs réelles de mes objets très modifiées. Ne faut-il pas laisser le fond comme il est, et de faire le post-traitement avec un véritable outil de traitement photo ? J'utilise DxO de façon assez régulière pour mes traitements diurnes, donc j'imagine qu'il doit arriver à me corriger une image astro de temps en temps. Marc
  7. quartz piezo pour suivi en déclinaison ?

    En effet mais une molette peut être largement suffisante et évite l'emploi d'un second moteur. Pour rebondir sur l'idée (pas à la noix du tout) de la grenouille, cela irait bien pour piloter un AO ce truc. Marc
  8. Grosse différence de couleurs entre JPEG et RAW

    J'ai exactement le même problème sous DSS qui m'équilibre naturellement mes plans R,G et B (vérification à la pipette sur le TIFF résultant), alors qu'à la base, j'avais bien des couleurs distinctes. Du coup, j'ai beau tirer la saturation rien n'y fait sauf quelques variations minimes. J'ai réussi à ressortir des couleurs en convertissant mes RAW en TIFF non compressés 16 bits (>140Mo/image ... glups) et en traitant ces fichiers TIFF. Là j'ai bien de la couleur au bout sur le TIFF composité. Marc
  9. controle des optiques

    CPI-Z ; excellent cet ouvrage, je ne le connaissait pas. Je viens de parcourir les premiers chapitres, c'est très bien expliqué je trouve. Marc
  10. quartz piezo pour suivi en déclinaison ?

    Tu veux l'utiliser pour quoi exactement ? Parce que je ne suis pas certain de comprendre ; en déclinaison, soit cela ne bouge pas, hormis pour la turbulence, soit il y a un (très) lent mouvement dans un sens du à l'imperfection de la MES et dans ce cas, des "centièmes de mm" ne vont peut être pas être suffisant ? Marc
  11. Avec PHD2, les caméras QHY (>QHY5) et ZWO sont reconnues. Pour la QHY5 (=PL1M) il faut passer par le pilote WDM. Sinon il y a peut être un pilote ASCOM disponible ... mais les fonctionnalités de la caméra ne seront probablement pas toutes présentes. Je suis actuellement en train moi aussi de tester un autoguidage au chercheur de la 80ED histoire de dépasser 20 à 30" de pose. Avec PHD j'arrivais à avoir quelque résultat à la PL1M + ST4, mais de façon incompréhensible parfois l'autoguidage plantait. Là je suis en train d'évaluer la même chose avec PHD2 maintenant. J'ai vu hier que metaguide pouvait peut être faire des choses aussi mais il me semble plus complexe (plus puissant ?) à appréhender pour moi qui découvre le CP actuellement. Marc
  12. fonctionnement d'un héliostat

    Alors essaie de mettre un berceau pour le miroir primaire, le miroir secondaire sera incliné pour recevoir l'image du miroir primaire dans la lunette. Marc
  13. fonctionnement d'un héliostat

    Cela me semble difficile à moi aussi à partir de ce gif. Entre le "midi" solaire de Décembre et le même "midi" solaire de Juin, le soleil aura progressé en hauteur de presque 50° ! Du coup, l'image projetée par le miroir "horaire" (M1), sera elle aussi +/- haute sur le second miroir (M2). Comme ce miroir M2 doit être dans l'axe de la lunette, il me semble illusoire de ne pas avoir un degré de liberté de plus. Du coup, il me semble plus simple de compenser, avec le miroir "horaire", cette différence dans la configuration à 2 miroirs. Si tu l'incline dans l'axe de la hauteur (vu au méridien) en plus de lui conserver son axe de rotation en AD, il sera en mesure de toujours projeter l'image du soleil sur M2. Comme le signale Sébastien, il faut bien déterminer l'écartement entre M1 et M2 pour que M2 soit moins haut que la hauteur du soleil en Décembre. Tu peux aussi envisager une solution à un seul miroir comme cela avait été fait en 1900 (projection solaire façon "cinémascope"). Mais là encore le miroir a 2 degrés de liberté sinon il te servira entre 1 et 2 jours par an !!! Marc
  14. De façon plus générale, est-ce productif d'investir une (grosse ?) dizaine de k€ pour tenter d'imager dans un site inadéquat au CP, à 2m de focale sur la base d'un instrument de 50 à 70kg ? Le tout avec un diamètre forcément sous-exploité en CP (encore plus à la description du site) ? Du coup a mon avis à moi aussi, un setup léger sur une base de 200 à 300mm bien né (optique, mécanique et monture, F/D 4 ou moins), plus un excellent détecteur sera certainement plus productif, plus rapide à utiliser (pour mettre en température une galette de 22kg il faut combien de temps ?). Je conserverais le 400 pour de l'imagerie planétaire et en visuel, domaines où il doit exceller vu son pedigree. Ou bien, si tel n'est plus ton besoin, il y aura bien des astram pour te le reprendre. Question subsidiaire : pourquoi le secteur lisse c'est la galère ? Si la mécanique (comprendre le profil du secteur) est bon, le reste c'est de l’électronique assez basique. Un calcul simple te donnera la vitesse de rotation du galet et de là la vitesse de rotation du moteur. Tu aura facilement un suivi de haut niveau. Si tu veux du goto par contre effectivement là c'est plus compliqué. Marc
  15. C5 passe-partout.

    Effectivement ce n'était pas le débat ! Simplement de trouver un instrument pour débuter (et progresser) entre 100 et 150mm. Il se trouve que dans cette plage on peut trouver des réfracteurs, mais de là a proposer une APO de 150 à un débutant je ne m'y risquerais pas. Et de là a proposer une achro de 150 (histoire d'économiser 10~15k€ d'un coup) et de le trouver meilleure qu'un N200, là non plus je ne m'y risquerais pas. Je plussoie stanislas (comme quoi ça arrive), comme quoi l'obstruction n'est qu'un défaut mineur qui finalement n'est gênant que dans des conditions d'observation particulières. Et évidemment, ce n'est pas un problème en photo car le post-traitement va permettre de retrouver le contraste perdu. N'est-ce pas là le rôle des ondelettes (et équivalent) ? Il est bien plus important d'avoir un RMS au top qu'un peu d'obstruction d'après moi. Marc