brizhell

Membre
  • Compteur de contenus

    1 407
  • Inscription

  • Dernière visite

  • Pays

    France

Réputation sur la communauté

172 Bonne réputation

À propos de brizhell

  • Rang
    Membre très actif

Informations personnelles

  • Centres d'intérêt
    Astronomy, astronomy and astronomy
  • Site personnel
  • Instruments
    LX200 classic 8" and C8 PowerStarPec modified

Visiteurs récents du profil

1 226 visualisations du profil
  1. Interféromètre de Bath

    Superbe!! Et très complet ! Merci pour ce partage !
  2. Retinex : balance des blancs automatique

    Ben pour quoi faire ? Le bruit que tu rajoutera a cette image sera de toutes façon spatialement décorrélé, donc la méthode peut se montrer efficace puisque tu te place dans le cas ou le NLF est efficace. De plus si tu fabrique un bruit utilisant les coefficients a, b et c donnés dans la publi, c'est jackpot, puisque ton erreur d'estimateur sera nulle !!! Et de plus ce travail à déjà été fait dans la publi, ça ne rajoute rien à une quelconque démonstration... A la bonne heure !! Et donc ? pour retrouver les détails qui ont disparus (car pour estimer le bruit il faut que les détails du signal aient disparu), tu procède en soustrayant à l'image dont le patch est bon le bruit (enfin la moyenne du bruit dans la patch) que tu a estimé a partir de mauvais patch ??? Cela n'a pas de sens, puisque la nature du bruit est justement d'être aléatoire. Donc les moments spatiaux du bruit dans le patch sur l'image suivante seront différents de ceux du patch flou (enfin sans détails). C'est exactement comme si tu jouait à la roulette, que tu constate que la bille est tombée entre le 12 et le 25, et que tu affirme que la bille tombera entre le 12 et le 25 au coup suivant ..... Visiblement tu n'a pas compris ce que j'ai dit sur l'hypothèse d'ergodicité.... Et dire que les lucky regions sont noyées dans le bruit est une aberration. Les lucky régions, c'est justement celles ou le bruit est minimum..... Tu ne peut réduire le bruit que sous la conditions d'augmenter le rapport S/B en sélectionnant les patchs exempt de bruits, la connaissance du bruit ne t'apporte ici aucune info.... ms, cela fait 10 ans maintenant que tu nous ressert les évolutions de ton oculaire électronique, je suis au bord de la crampe des zigomatiques, car pour le moment, toujours rien. Ben en l'occurence, la balle est dans ton camp, car point de démonstration n'est nécessaire sur une image synthétique, le vrai challenge c'est sur une image planétaire vraie..... Et sans bidonner les résultats comme tu l'a déjà fait a plusieurs reprise, ça serait bien....
  3. Retinex : balance des blancs automatique

    Salut ms , marrant que tu cite cette équipe, j'ai pas besoin de leur écrire un mail pour leur dire qu'ils ont tord (ce qui n'est pas le cas d'ailleurs, mais je précise plus bas), depuis que j'ai quitté l'ENS et que je suis descendu dans le sud, leur labo est juste en face du mien à l'Université de Bordeaux (mon labo s'appelle le LOMA).... Bref je me demande encore si tu comprend vraiment ce que tu lit (surtout en ce qui concerne ta dernière intervention).... je cite : L'idée ici reste d'avoir une estimation de la forme du bruit sur un minimum d'image, et ce sans à priori sur la distribution du bruit aléatoire de chaque pixels ou groupe de pixels. La turbulence génère pour l'image une dégradation spatiale étalant les détails donc faisant disparaître les structures apparentes de l'image. Nous sommes donc dans les conditions que stipule le papier que tu cite et la thèse à savoir que l'on décorrèle spatialement le signal du bruit dans une région uniforme). Jusqu'ici, pas de soucis, pour se représenter la chose, il suffit d'imaginer un fond uniforme sur lequel on a ajouté un bruit par pixels, dont la distribution est Gaussienne, Poissonienne, ou hybride (c'est à dire une combinaison linéaire de différentes distribution de bruit possible, c'est la définition que je te demandait et que tu ne m'a pas donnée). Tu obtient donc une estimation du bruit par zone (coefficient de Kendall) sous condition que les détails de l'images aient disparu. Cette estimation est conditionnée par un critère de convergence (minimisation de l'erreur sur les coefficients du polynome de l'estimateur ) menant à évaluer les moments d'ordre 1 et 2 de la variable aléatoire caractérisant le bruit sur chaque zone avec ce polynôme d'ordre 2. L'estimation obtenue est alors retirée de chaque pixels considérés. C'est séduisant, comme méthode, nouveau sur l'indépendance de la méthode aux présupposés sur la nature du bruit, mais il y a deux écueils. La première est, je cite le papier : "En supposant seulement que le bruit est décorrélé spatialement" ou plus loin : "Nous proposons en première contribution une méthode de détection non paramétrique des zones homogènes qui requiert seulement que le bruit soit non corrélé spatialement". Si cela marche sur l'image de la jolie Léna, c'est parce que le bruit ajouté de manière synthétique a été choisi de manière à justement ne pas être spatialement corrélé (autrement dit chaque pixels est traité indépendamment de manière aléatoire sans s'intéresser au bruit de son voisin). Or sur une image réelle, en planétaire notamment, le bruit est spatialement corrélé pour deux raisons : sur une source ponctuelle, l'étalement des intensités se fait sur plusieurs pixels adjacents (speckles) or le bruit de la source ponctuelle si il est gaussienne, est en racine de l'intensité. Comme l'intensité est étalée sur plusieurs pixels, il y a fort a parier (en fait cela se calcule) que le facteur de corrélation n'est pas nul Et sachant que l'image d'une planète est la convolution de la fonction d'appareil (tache d'airy) par l'objet, ben la corrélation à plusieurs pixels adjacent n'a aucune raison d'être nulle aussi.... Deuxième écueil, c'est la prétention que tu prête à cette méthode de converger plus rapidement avec des poses plus courtes, que ne le ferait l'augmentation les temps d'exposition (poses plus longues). J'ai parcouru la thèse de Camille Sutour en long et large et en travers (bon rapidement, car je suis au boulot), je n'ai trouvé nulle part une quelconque affirmation que le critère de convergence statistique qui en découle était plus rapide que la moyenne temporelle dudit signal (ce que tu sous entends en disant que ces méthodes permettent en courte pose de réduire le bruit aussi bien qu'une pose plus longue). Bien au contraire, au chapitre 3.3, tu à une estimation de la valeur de l'erreur obtenues avec cette méthode en fonction des natures de bruits, et pour lequel l'augmentation du nombre d'échantillon (ou si tu préfère du nombre d'images qui est nécessaire pour augmenter le S/B) n'amène pas d'amélioration sur le bruit inférieure à 7% du signal d'origine. Et pour cause, si c’était le cas, cela violerai un principe simple que l'on appelle l'hypothèse d'ergodicité (je te laisse cherche sur le net). Ce principe veut que pour une variable aléatoire, la moyenne statistique est égale à la moyenne temporelle. En clair, même avec un grand nombre de poses très courtes, tu n'obtiendra pas mieux en rapport S/B qu'une pose unique dont la pose sera égale à la somme de toutes les poses courtes. Cet algo a l'air pas mal pour diminuer le bruit et rendre les images intelligibles, mais pas pour en restaurer la finesse autrement qu'avec des patchs locaux façon AS3 plus performant ?? comment ? quelle méthode ?? quel code ?? Ben là, je constate un truc, c'est que lorsque JLD t'annonce un débruitage en photoshop sur Léna, il joint le geste à la parole (l'image est dans son post). Lorsque tu annonce faire ça avec EVA, on attend toujours de voir un résultat qui ne soit pas bidonné..... suis pas sur que ce ne soit pas a nous de rire en définitif..
  4. Retinex : balance des blancs automatique

    Heu, sans vouloir ouvrir une polémique, j'espère que tu a conscience que ce que tu écrit là ne veut absolument rien dire.... Tu peut préciser ta notion de bruit hybride stp ? Merci d'avance.
  5. Retinex : balance des blancs automatique

    Non, à temps d'intégration égaux ces deux possibilités ne se valent pas. Fractionner plus n'augmente pas le rapport signal sur bruit. En fait la première affirmation n'est vraie que pour une condition particulière, à savoir que le gain de la chaîne d'acquisition n'amplifie pas en même temps le bruit de lecture. Ce n'est vrai que dans le cas des EMCCD (on augmente le nombre d'électrons à convertir avant d'arriver sur le convertisseur), et là on est dans un régime ou le bruit des poses unitaires est le bruit de fond de ciel. Pour une chaîne d'acquisition ou le gain de l'ampli agit en même temps sur le bruit et sur le signale, ça ne marche pas. J'en avais fait la démonstration aux RCE 2010 ici (transparent 7 et 8) : http://brizhell.org/presentation3.pdf
  6. Retinex : balance des blancs automatique

    Pour les courageux : http://brizhell.org/physique_de_la_turbulence.htm J'avais fait un masque particulier pour mesurer soi même le temps de cohérence basé sur les interférences : http://brizhell.org/physique_de_la_turbulence.htm#Vitesse de variation du Tip/tilt http://brizhell.org/physique_de_la_turbulence.htm#BLISMM Et des mesures sur site : http://brizhell.org/mesures_de_sites.htm On y voit que 70mm et 4ms sont quand même des quantités optimistes pour certains sites.
  7. Projet EM10 USD Arduino

    Bonjour Sébastien Je confirme, c'est bien pour cela qu'elle m'intéresse. Non le projet en soi ne souffre que très peu de la rotation de champs. Je te détaillerai ça en privé car je n'aime pas annoncer des résultats préliminaires sans avoir bouclé la manip. J'ai ce tout ce qu'il faut, question électronique merci pour la ref de l'analyseur logique
  8. Projet EM10 USD Arduino

    Salut Sébastien, Merci pour ta réponse et ces précisions ! Je suis encore dans la lecture de ta librairie, c'est très impressionnant pour quelqu'un comme moi qui n'est pas fondamentalement codeur dans l'âme.... Je travaille depuis un an environ avec des Arduino Méga et leur shield ramp1.4 sur un proto un peu tordu (au sens ou il n'a que peu a voir avec un Dobson), mais qui nécessite 5 moteurs dont 3 doivent assurer le goto en alt/az, mais aussi le suivi..... D’où mon intérêt pour ton système. Si par cas tu change d'avis sur l'implémentation des routines de suivi en alt/az avec une très bonne précision, je serais très très intéressé !! Tes optimisations de codes semblent titiller les perfs que l'on peut obtenir en micro-pas avec des drivers pololu standard voir des versions de driver un peu plus costaud. Bref, comme je suis plus opto-électronicien que codeur, ton approche me semble vachement intéressante. On peut peut être en discuter en off ? Bernard
  9. Projet EM10 USD Arduino

    Magnifique !! J'ai une petite question. Je sais que ton projet est dédié à l'EM10, mais envisage tu de faire un contrôle moteur permettant d'adapter cela sur une monture alt/az ?
  10. Etoile à la plus grande taille apparente ?

    C'est super flatteur mais en fait le principe est moins compliqué que la spectro. C'est le bricolage qui est un peu compliqué. Après ce truc est uniquement fait avec des moyens amateurs. On verra bien si j"arrive à sortir des choses avec.
  11. Etoile à la plus grande taille apparente ?

    Ouais mais pour l'instant c'est "work in progress"... Les résultats préliminaires sont encourageants, mais résultats sur le ciel, pas avant l'automne : Dans le détail : http://www.brizhell.org/Poutre_Frangeur.htm
  12. La compétition scientifique dans le monde

    Suis assez d'accord. C'est l'apprentissage qui manque cruellement à l'éducation des apprenants de tous niveaux (de l’École à l'Université), mais là on sort du sujet au sens ou l'exercice du libre arbitre dans la recherche de la différence entre le vraisemblable et le parfaitement fumeux ne se fait pas en 2 coups de cuillères à pot.... Apprendre à discriminer le vrai du fumeux, ça nécessite un travail qui pour certain dépasse de plusieurs ordre de grandeur l'age de l'Univers Pour redevenir sérieux, faire ses choix en connaissance de cause entre le scientifiquement vrai et le confortable monde imaginaire dans lequel on aimerai se complaire, celui de la pensée magique (les fées et les sorciers, les extraterrestres, et les ovnis, les trolls et les elfes), ça sous entend, à mon sens, apprendre à faire confiance à certaines sources plutôt qu'a d'autre. Or la confiance dans certaines sources s'arrête quand la contrepartie se monnaye en dollars sonnant et trébuchant.... Mais là je m'égare un peu, voire beaucoup....
  13. La compétition scientifique dans le monde

    Joli on dirait du @vaufrèges
  14. La compétition scientifique dans le monde

    C'est un joli voeux pieux, mais malheureusement depuis quelques décennies, cela ne marche plus comme cela. Et c'est fondamentalement, une hérésie du point de vue scientifique que de voir des résultats de la connaissance pris en otage par des éditeurs moins scrupuleux de l'avancée de la science que par le bénéfice économique qu'ils peuvent en retirer. Ça me fait penser au procès des Bogdanoff contre Riazuelo il y a maintenant quelques années. L'astrophysicien à perdu (bon certes les dommages étaient minimes, mais le juge a probablement senti venir le coup de Jarnac) parce que la diffusion du contenu de la thèse des Bogdanoff à été considéré par eux comme une violation de la propriété intellectuelle alors que le fondement de la démarche scientifique est la confrontation aux pairs (dans le sens mise l'épreuve des écrits et expériences aux résultats contradictoire), qui nécessite une large diffusion de la démarche à la fois sur la méthode et sur les résultats. Ça veut dire en gros que certains éditeurs se sont engouffrés dans une brèche de la démarche, à savoir que pour eux, publier a un coût économique (éditorial, infrastructure, etc...) et que leurs investissements propres pour diffuser cette connaissance se justifie au travers d'un indicateur d'efficience que l'on appelle le facteur d'impact (impact factor). Or plus la diffusion et les citations de leur publications sont nombreuses, et plus leur "impact factor" augmente... Donc plus leur plus leur journal à un fort impact, plus il a de l'importance, plus il a de la valeur économique. Cela fait donc d'eux des acteurs incontournables de l'efficacité scientifique ( à fortiori quand on voit que l'évaluation des chercheurs passe dans de nombreux pays par leurs nombre de publications dans des revues prestigieuses à fort facteur d'impact). Dans les deux années qui viennent de passer j'ai reçu nombre de mails émanent des organismes de tutelle du labo dans lequel je suis, décrivant le bras de fer entre des universités , des instituts de recherche (CNRS, INSERM, etc...) et certains éditeurs, concernant les négociations d'accès aux publications, négociations principalement orientées vers le coût des abonnements. Rien ne change, cela reste un pactole pour les revues à fort impact bibliographique (souvent dirigées par des éditeurs connus et dont on sait l'impact négatif) et qui ont monté leur business sur l'idée que la science fait vendre du papier, peu importe ce qu' il y a dedans et une nécessité pour les organismes de recherche de souscrire aux abonnements, car ne pas avoir accès à leur papiers sous entends perdre des billes pour être au top de la construction du savoir scientifique.... Il reste des initiatives locales (j'entends à l'échelle nationale parfois internationales comme c'est le cas pour ArXiv), qui luttent contre les gros éditeurs. En France on peut citer HAL ou le CCDS qui publie gratuitement les travaux des chercheurs https://www.ccsd.cnrs.fr/. Mais ces initiatives sont anecdotiques au regard de l'impact de diffusion de Springer, Elsevier ou IEEE.... Et j'ai peur que ce ne soit pas prêt de changer....
  15. La dérotation WINJUPOS c'est MAGIQUE !!!!!!!

    @ms à ce stade là, ce n'est plus une question de crédibilité technique, ce type de procédé (que tu as employé) est qualifiable de fraude scientifique, je ne sais pas si tu en a conscience. Certes, il n'y a pas de poursuites judiciaires sur ce genre de sujet (sauf pour des chercheurs titulaires payés par l'état), mais en l'occurence, la démonstration est faite que ton approche est purement frauduleuse. Je ne comprend pas comment tu peut persister à défendre ta manière d'appréhender le problème technique de la turbulence dans les images en croyant que tu t'en tirera par une pirouette sémantique douteuse alors que ce qui importe au final, c'est la recherche de la vérité du signal que les imageurs planétaires de compétition que l'on a sur le forum s'évertuent à découvrir... Ces derniers ont déjà le bons outils, les bonnes méthodes, et au delà des mes simples compétences théoriques, c'est eux qui font la démonstration expérimentales que leur image est conforme à l'objet, ils savent, eux largement plus que moi, ce qu'il en retourne vraiment de ce qu'il conviens de faire du point de vue du traitement pour avoir une image vraie !! Je me délecte de voir ce qui sort de ces petites cameras rapides mise entre les mains de gars comme JLD, Wilexpel, Marc, Christophe, Gerard, Bernard, Polo, LaurentLab, Dfremont et autres (et je m'excuse auprès de ce que j'oublie). Mais par pitié, ms, arrête de polluer ces posts avec des choses qui sont vraiment trés, trés, trés limites........