brizhell

Membre
  • Compteur de contenus

    1 509
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

311 Très bonne réputation

1 abonné

À propos de brizhell

  • Rang
    Membre très actif

Informations personnelles

  • Centres d'intérêt
    Astronomy, astronomy and astronomy
  • Site personnel
  • Instruments
    LX200 classic 8" and C8 PowerStarPec modified

Visiteurs récents du profil

1 959 visualisations du profil
  1. Fabrication "maison" de caméra tri-cmos ?

    Ben non, justement... En métrologie, la sensibilité a une définition précise : https://fr.wikipedia.org/wiki/Qualité_métrologique_d'un_appareil_de_mesure#Sensibilité Comparera à flux identique une surface de 1 pixel et une surface de 4 pixels, c'est comparer 2 choses différentes en terme de quantité de signal, pas en terme de sensibilité. Quitte à passer pour le chieur de service (mais c'est mon métier qui veut ça), non. Quand on fait du binning sur la matrice R ou V ou B avant interpolation, on n'augmente pas la sensibilité mais la quantité de signal que l'on a reçu. Et là en effet, on augmente le RSB au détriment de l'échantillonage
  2. Fabrication "maison" de caméra tri-cmos ?

    Non, ce n'est pas la sensibilité que tu module d'un facteur 4, mais la quantité de signal. Encore une fois il s'agit de deux choses différentes. Le raisonnement que j'ai fait précédemment uniquement sur le rouge, peu être étendu aux autres couleurs, avec un facteur 2 au lieu de 4 pour le vert, puisque tu a 2pixels vert sur 4. Pour les même considérations que celles que j'ai fait dans le rouge (éclairement en rouge = Phi(rouge)), tu aura aussi Phi(bleu) Phi(vert), à considérer identique dans les deux cas de figure (Bayer ou TriCMOS). Chacune de tes trois caméras aura la même sensibilité qu'une caméra unique dans chaque bande RVB, mais captera une quantité de signal plus grande (ce qui n'est pas la condition suffisante pour réduire le temps de pose puisque cette plus grande quantité de signal sera diluée sur une plus grande surface de capteur . Ça c'est exact, et comme dit plus haut, tu peut étendre ce raisonnement dans le vert et dans le bleu La sensibilité moyenne du capteur est donnée en général sur le datasheet de la matrice, il faut en plus considérer la bande passante et l'atténuation des filtres de la matrice de Bayer. Mais hors matrice de Bayer, il faut regarder de près le rendement des dichroïques....
  3. Fabrication "maison" de caméra tri-cmos ?

    Non, les résultats sont différents car on ne parle pas de la même quantité mesurée, et cela fausse ton raisonnement, je m'explique : En effet il y a une distinction entre les deux. Ce que l'on appelle le flux c'est la quantité de photons distribuée sur une unité de surface (m², mm², µ²). La sensibilité du capteur c'est la capacité du capteur à transformer les photons en électrons par unité de surface et par unité de temps. (et non pas sur la surface sensible utile). Les pixels dans les deux cas ont la même taille, ce qui veut dire qu'a temps de pose égales, chaque pixels recevra la même quantité de photon. Donc dans les deux cas, chaque pixels unique représentant la même surface, aura la même réponse à l'éclairement. C'est ici qu'est ton erreur, La surface que représente 25 pixels n'est pas comme tu le dit "sensiblement égale" a celle que représente 100 pixels : la quantité d'électrons générés par une surface de 25 pixels est effectivement 4 fois moins grand que dans le cas du nombre d'électrons reçu par 100 pixels, mais 100 pixels représentent une surface 4 fois plus grande. Or si je reprend la définition du flux Phi reçu par l'ensemble de ton capteur (qui est constant sur tout le capteur), N(Bayer) le nombre d'électron pour la matrice de Bayer et N(TriCMOS) le nombre d'électron pour le triCMOS : Phi=N(TriCMOS)/100=(4*N(Bayer))/(4*25)=N(Bayer)/25 Donc chaque pixels pris individuellement, dans les deux cas, produira la même quantité d'électrons, qu'il y en ai 25 ou qu'il y en ai 100, ce qui veut dire que pour obtenir N électrons par pixels, il faudra poser autant dans les deux cas. La sensibilité est donc la même. L'interpolation n'ajoute pas de signal, elle comble les lacunes de signal spatial, d'où la remarque de Christian sur l'échantillonnage. Non, il y a deux erreurs ici. La sensibilité n'est pas égale à la quantité de signal, mais on le voit dans ma remarque précédente. Dans un deuxième temps, le RSB dépend de la quantité de signal reçu par unité d'angle solide. Là ça va être un peu plus "touchy" pour comprendre. En gros, si tu prend une nébuleuse dont la magnitude intégrée est de 7 mais qui s'étend sur plusieurs degrés, il va te falloir poser longtemps pour que des détails de quelques minutes d'arc deviennent perceptibles sur tes poses (le signal doit être intégré longtemps pour passer au dessus du seuil de bruit). A contrario, une étoile de magnitude 7, mais dont la taille angulaire est ridiculement petite sera perceptible avec le même télescope, le même train optique, la même caméra en quelques secondes (voir moins en fonction du diamètre du télescope).
  4. Fabrication "maison" de caméra tri-cmos ?

    Sauf erreur de ma part, il y a une énorme contradiction dans cette phrase et une erreur physique de base. Ce n'est pas parce que l'on dispose de 4 fois plus de pixels que l'on a 4 fois plus de flux (donc une sensibilité 4 fois meilleure). La réponse d'un pixel unique au cours de la pose (le nombre d'électrons générés) ne dépend que de la quantité de photons reçus par unité de surface au cours de la pose (cela se calcule en W/µm²/s dans une bande spectrale donnée, R, V ou B) si tu veut faire un calcul rigoureux. Dans une matrice de Bayer, seul un des 4 pixels du groupe de pixels faisant la trichromie reçoit le flux dans une bande donnée. Imaginons que ce soit la bande Rouge et appelons Phi(rouge) ce flux. Le pixel rouge en haut a gauche va se charger de N électrons pendant la pose car il est exposé à un flux Phi(Rouge). Son voisin vert ne reçoit rien, et le voisin de son voisin vert reçoit pendant la pose, lui aussi un flux Phi' que l'on considérera proche de Phi si l'on est dans le cas d'un objet étendu. Bref avec la matrice de Bayer, le pixel vert intermédiaire entre les deux rouges se verra pour l'image rouge, remplacé par une valeur interpolée entre les deux pixels rouge. Mais le premier Pixel rouge sera chargé de N électrons. Dans le cas du TriCMOS, si les pixels ont rigoureusement la même dimension que dans le cas de la matrice de Bayer, le flux lumineux reçu par la matrice recevant la bande rouge sera aussi Phi(rouge) et donc chaque pixel recevant ce flux se chargera aussi de N électrons pendant une pose de la même durée. La différence c'est que les pixels voisins ne sont pas interpolés, c'est tout. Donc dans le cas de la Matrice de Bayer devant un capteur donné, ou dans le cas du même capteur (en taille de pixels) recevant les photons de la bande rouge, le flux de photons dans la bande rouge correspondant est le même par unité de surface et par unité de temps. A pose égales, un pixel sensible au rouge (soit par le filtre de la matrice de Bayer, soit par la sélection dichroïque) se chargera de la même quantité d'électrons. @christian viladrich et @Lucien ont raison, le triCCD ou le triCMOS améliore l'échantillonnage, t en plus permet une prise simultanée dans les trios bandes (ce qui est énorme pour le planétaire !! ). En sensibilité il n'y a a priori pas de différences. En rapport Signal/bruit, il y en a par contre vu que l'on a moins d'informations les interpolations entrainent des erreurs comme le souligne Jean Luc... C'est un très beau projet en tout cas !!
  5. Quel boulot !! Bravo !
  6. Falcon Heavy : l'Odysée de la Tesla dans l'espace

    Mouarf, le principe de réalité est de retour (ChiCyg sort de ce corps !!!.....). http://www.arianespace.com/press-release/arianespace-successfully-performs-the-first-of-21-launches-for-the-oneweb-constellation/ Ils annoncent 2 ans et 21 lancements pour compléter la constellation de 600 satellites. Sur 2019 sais tu combien de lancements de Soyouz Arianespace il reste pour lancer du OneWeb ? Cherche bien sur les calendriers de lancements prévus....
  7. Falcon Heavy : l'Odysée de la Tesla dans l'espace

    Daniel, j'aime beaucoup ton travail sur Mars et ses sondes, mais franchement, là c'est tellement péremptoire..... Que tu n'apprécie pas l'approche de Musk, c'est acté et justifié pour une certaine part, mais pas sur toutes les approches techniques qu'il met en œuvre. C'est acté comme pour d'autres d'ailleurs, tu n'apprécie pas le bonhomme, tu en a le droit. Prétendre par contre que ceux qui considèrent l'approche de Musk comme des gens qui ne réfléchissent pas, c'est, comment dire, juste ...... insipide pour ne pas dire pire (et je te prie de m'en excuser)... Faudrait que je remette la main sur les commentaires et échanges que nous avions eu concernant l'appropriation que l'on peut avoir en tant qu'individu des textes philosophiques, on est dans la même façon de lire la forme des choses, alors que l'important c'est le fond. La question économique est au cœur des préoccupations des investisseurs, ce qu'est Musk, mais ce n'est pas lui qui est au cœurs des choix techniques, il ne fait que surfer sur une vague technologique lui permettant d'avancer politiquement et économiquement les profits de son entreprise. C'est un libéral, et son client (et je répète : client), c'est la NASA. Il ne vole pas ses contrats, et la bataille est rude avec ULA. La preuve dans les batailles que certains considèrent comme geignardes sur l'obtention des marchés à l'international. Ce gars n'est pas un philanthrope, c'est un pragmatique. Son approche, c'est de faire rêver les contribuables qui élisent les politiques qui ouvrent les marchés gouvernementaux au entreprises privées. Il est juste assez malin pour se placer en tête des entreprises qui décrochent ces contrats. Alors certes, toi et moi et autres rêveurs scientifiques, on se lamente du temps que prend l'organisation et le montage d'une mission d'exploration de Mars, d'Uranus et de Neptune, mais maintenant, on a changé d'époque, un gouvernement a lui seul n'est plus capable de financer un vecteur d'envoi d'homme dans l'espace. La vraie question à se poser, c'est pourquoi il faut en passer par le privé pour réaliser cet objectif. Ben cette question, Musk ce l'est posé suffisamment tôt pour être le premier à envoyer un véhicule habitable vers l'ISS (même si cette dernière est une plateforme de moyens, et pas un labo d'expérimentation scientifique). L'intérêt économique, il n'est pas à la colonisation de Mars, il est a avoir les moyens de fournir des services spatiaux accessible au plus grand marché mondial, celui de l'internet en particulier (même si on peut en penser beaucoup de mal.... Ce n'est pas une question de ressources, c'est une question d'intérêt du public prêt a payer pour cela. Et ça, ça passe par la démocratisation des marchés spatiaux, n'en déplaise a Sylvain Huet, qui a le droit d'avoir tord, lui aussi....
  8. Une mission vers Uranus et Neptune ?

    oups non rien, tournesol a déjà posté ça aurais fait redit
  9. Merci Jocelyn !! Ben va falloir que je m'y colle mais c'est prévu en effet. Tu met dans le mille. Sur l'image ci dessous, extraite de l'une des vidéos sur Sirius, dont la hauteur était de 26°18' au moment de la prise de vue (airmass 2.2) on voit très très clairement la réfraction atmosphérique. Il y a encore quelques points d'amélioration à envisager mais le gros du boulot est bien avancé.
  10. Merci Alain, la 2m est en cours de montage (et je déconne pas), en alt/az sur tes conseils d'ailleurs . J'espère bien faire des émules !!! pour le moment suis un peu tout seul
  11. Merci Jean Luc, vais avoir de quoi causer aux RCE...
  12. Merci Christian !! C'est très gentil ! Mais ça reste une étape La partie astro commence à partir de maintenant
  13. Merci, mais j'ai aucun mérite, suis juste obstiné et quand j'ai une idée dans la tête... Entre autres, mais à 1,06mètre de base, la chute de contraste des franges sur Bételgeuse en particulier ne sera que de 17%, c'est chaud patate. Faudra aller plus loin mais c'est en cours. En premier lieu, cette version de la poutre est un démonstrateur de faisabilité en vue de quelque chose de plus grand question largeur de base. Et dans un second temps c'est un outil pour rendre les étoiles doubles subsecondes, accessibles au diamètre d'un C8.
  14. Bon, je vais me faire tirer les oreilles par Jean Philippe Cazard car il me tanne pour que je fasse un papier la dessus. Mais avant de faire quelque chose de sérieux il fallait que j'ai un minimum de résultat, ben depuis ce WE c'est chose faite. Petit rappel. Il y a 5 ans, j'avais fait la démonstration que l'on pouvait résoudre une source monochromatique en dessous du pouvoir séparateur d'un C8 avec une poutre de Michelson faite dans mon garage : http://www.astrosurf.com/topic/58713-poutre-de-michelson-sur-un-celestron-8/#elUserLink_menu Puis pour travailler sur des sources en lumière blanche : http://www.astrosurf.com/topic/60186-un-bricolage-un-peu-original-ligne-a-retard-pour-interférométrique-optique-amateur/ L'étape suivante était d'obtenir des franges d'interférence sur étoiles en combinant la poutre avec un oculaire frangeur, Suis allé lentement car j'ai pas mal de choses sur le feu à coté de ça. Ben depuis ce WE c'est chose faite : http://brizhell.org/Poutre_Frangeur.htm Les résultats sont en bas de page. En résumé le montage : Les premières franges d'interférences sur Bételgeuse (pose de 30ms ASI224 base de 607mm sur le C8 203mm) : franges d'interférences sur Sirius (pose de 9ms ASI224 base de 607mm sur le C8 203mm) : Bref comme c'est plutôt nouveau comme domaine, sauf erreur de ma part, je découvre au fur et a mesure, mais j'ai l'impression que je fini par faire mentir les gens qui disent que c'est trop compliqué de faire de l'interféro au niveau amateur :). L'étape suivante est de faire des mesures, je publierai dans astrophotography Bernard
  15. Sans rentrer dans le détail, il ne faut pas oublier que la dynamique de l'oeil est logarithmique, contrairement aux photosites en Si et leur électronique associée dont la dynamique résultante est linéaire. Je n'ai pas les tables en tête, mais il me semble sauf erreur qu'une dynamique à 6-7 bits est insuffisante pour établir la lecture de contraste effective décelable à l’œil. Il faudrait que je fouille pour retrouver le papier original, mais Jean Dragesco parlait déjà dans les année 1970-80 de la perception de détails de contraste de l'ordre de 0.5% à 1% entre deux taches de diffraction contiguës reléguant le critère de Raleigh aux oubliettes avec ses 17% de chute de contraste entre les PSF..