jldauvergne

eVscope : 300 000$ en 2h !! C'est dingue.

Messages recommandés

il y a 50 minutes, Bruno- a dit :

 

Non, mais tu as dit que ceux qui avaient prédit que ça ne marcherait pas ont eu tort.Si tu penses qu'ils ont eu tort, c'est donc que tu considères que ça a marché.

 

Mais pour ce beau syllogisme emprunt d'homme de paille :) Tu nous gâtes de figures de style :) 
Je n'ai vu personne affirmer que techniquement ça ne fonctionnerait pas. Les critiques  portaient surtout sur l’intérêt du concept en lui même. Sur ce point et uniquement sur ce point, le financement participatif apporte un bon début de réponse, il y a de la demande, donc le concepts suscite de l’intérêt auprès de certains publics. Donc oui les Cassandre sur ce projet avaient tord car leurs critiques portaient bien sur la pertinence de l'idée et non sa faisabilité. La faisabilité ne pose pas de question, tout ce que va faire ce produit existe déjà (télescope GPS, EV, caméra à faible bruit).  Et le seul truc un peu nouveau là dedans c'est la caméra à faible bruit à prix abordable. 

On verra si ils parviennent à tout assembler de tel sorte que ça fonctionne, ça c'est une autre question, mais il n'y a pas d'impossibilité technique. 

 

Modifié par jldauvergne

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 33 minutes, ms a dit :

ça veut dire quoi battre ?

J’avoie faire dans la provocation là :) Coté définition, avec son oculaire et son diamètre l'Evscope est loin derrière un 400, mais les concepteurs avancent une magnitude 16 côté luminosité en CP.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 37 minutes, Superfulgur a dit :

j'ai contemplé M 42 dans mon 150, j'avais pas fait ça depuis des années, quel choc... La subtilité des voiles, comme de la soie, la couleur abyssale de la nébuleuse, c'était magique.

 

Surtout ne l'observe pas dans un dob 600, parce que la c'est l'infarctus assuré :-)

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 7 minutes, capt flam a dit :

J’avoie faire dans la provocation là :) Coté définition, avec son oculaire et son diamètre l'Evscope est loin derrière un 400, mais les concepteurs avancent une magnitude 16 côté luminosité en CP.

En fait, je trouve que cette comparaison est un brin provoc de la part des concepteurs, surtout auprès d'une population d'astronomes amateurs.

Imagine un peu ce que doit ressentir le détenteur d'un 400.

C'est un peu comme ceux qui comparent une TESLA avec une FERRARI, surtout au démarrage.

Partager ce message


Lien à poster
Partager sur d’autres sites
6 minutes ago, gagarine said:

En fait, je trouve que cette comparaison est un brin provoc de la part des concepteurs, surtout auprès d'une population d'astronomes amateurs.

Peut être que ce n'est pas leur marché prioritaire ? 9_9

 

Mais Jean Philippe, c'est quoi ces smiley tout pourris issus des années 90 sur un forum aussi moderne ?

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Ils ont dit qu'ils allaient révolutionner l'astronomie amateur, donc la population d'astronomes amateurs est bien le marché visé.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est vrai que ce truc est génial, il s'affranchie de tout se qui mine l'astram, la course au diamètre, aux cameras hors de prix même la pollution lumineuse n'y résiste pas.

 

Cela dit je souhaite vraiment une belle réussite commerciale aux concepteurs.

Modifié par jmpg86

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 14 minutes, jmpg86 a dit :

C'est vrai que ce truc est génial, il s'affranchie de tout se qui mine l'astram, la course au diamètre, aux cameras hors de prix même la pollution lumineuse n'y résiste pas.

 

 

Oui on peut même s'en servir sous la tour Eiffel éclairée.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 5 heures, ms a dit :

C'est pas donné à tous JLD d'avoir ta grande capacité d'émerveillement. ;)

 

Tu ne t'avances pas un peu trop pour un journaliste ?

 

A sa décharge c'est un peu le travers de son métier,  il n'intéressera pas ses lecteurs sans un minimum d'enthousiasme ;)

 

Il y a 5 heures, jldauvergne a dit :

Pour des pratiques amateurs comme nous sommes, ça n'a aucun intérêt. On le voit assez nettement d'ailleurs avec les réactions sur les forums. Pour de l'observation avec du public en revanche il faut voir. Ça peut être marrant de mettre ce télescope là à côté d'un T400 par exemple et de faire partager les deux expériences aux observateurs. Le gros intérêt de l'EV c'est que tu n'as pas un écran qui pète les yeux de tout le monde. 

 

Je ne sais pas vous mais mettre l'EV à côté d'un T400 pour comparer et prouver finalement qu'on voit mieux dans l'EV (ce qui est quand même l'objectif des concepteurs), ce sera pour moi la même expérience physique et intellectuelle que de mettre à côté un T400 et mon smartphone montrant une photo du même objet visé en pointant le ciel, après je conçois qu'il peut en être autrement pour d'autres observateurs.

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, jgricourt a dit :

ce sera pour moi la même expérience physique et intellectuelle que de mettre à côté un T400 et mon smartphone montrant une photo du même objet visé en pointant le ciel, après je conçois qu'il peut en être autrement pour d'autres observateurs.

 

oui c'est ce que je disais, autant aller voir une belle photo sur internet :-)

Partager ce message


Lien à poster
Partager sur d’autres sites

Pour moi cet oculaire électronique est pas très utile et j'ai expliqué pourquoi.

Un OE utile corrige la turbulence dans le cas du planétaire ce qui va permettre au public de découvrir des objets qui ne sont pas atteints de tremblotte.

Là, il y a un réel intérêt à laisser tourner la vidéo pour profiter du spectacle. Idem avec la Lune et le Soleil.

Pour le ciel profond, il y a plusieurs cas de figures : les objets brillants qui se comportent un peu comme des planètes, les objets diffus comme les comètes, les objets étendus dont on va rechercher la couleur. L'eVscope ne traite qu'une petite partie des objets du ciel profond, c'est peut-être suffisant pour accrocher les futurs clients mais avec un peu de recul, la frustration risque de vite s'installer.

Je rejoins donc ce que disent jgricourt et zeubeu.

C'est plus un produit pour des consommateurs du ciel qui ne découvriront jamais le plaisir de flâner et de butiner.

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites

Discussion passionnante et projet passionnant également!

Mon avis est que si ce projet suscite énormément de débats c'est qu'il y a je pense une confusion sur le public visé. Je pense que ça peut effectivement révolutionner l'astro amateur mais pas forcément pour ceux qui la pratique déjà mais en amenant un nouveau public vers une pratique différente. Ça me fait beaucoup penser à l'arrivée des drones type Parot ou Phantom. Dans un premier temps ça n'a pas du tout intéressé la communauté des aeromodelistes car il n'y avait plus aucun intérêt pour le pilotage mais ça attiré une quantité impressionnante de personnes qui avaient juste envie de faire voler facilement un machin sans passer des heures à apprendre. Maintenant beaucoup d'aeromodelistes ont en plus un drone de ce type pour ce faire plaisir.

Je ne serai pas surpris qu'on ai le même phénomène avec l'eVscope , que ça amène énormément de personnes qui s'intéresse un peu à l'astro sans avoir jamais franchi le pas car trop compliqué ou décevant à pratiquer un certain type d'observations. On peut ensuite imaginer que pas mal d'amateurs actuel s'equiperont de ce type d'instrument en deuxième instrument en pour des observations rapide en ville ou pour faire découvrir à des amis. 

Voilà mes 2 cents. ..

Modifié par mikito
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

@msCe système offre une vision augmentée électronique par stacking, et tu lui opposes un système qui offre une vision électronique, ... par stacking. 
C'est un peu comme les bons et les mauvais chasseurs t'on histoire. Accessoirement le tient je n'ai pas d'avis dessus, mais ça fait 10 ans que tu nous en parles et que rien ne se concrétise, c'est un peu frustrant pour le modeste lecteur du forum que je suis.
Si ils font du stacking à partir de la vidéo sans doute qu'ils corrigent un peu de tilp tilt, donc le 1er ordre de la turbu. 

C'est étonnant en tout cas tous ces messages répétés pour souligner que vous ne voyez pas l’intérêt du truc. Comme si quelqu'un vous forçait à l'acheter, ou comme si ça allait enlever quelque chose à votre pratique. Vous couper un bout, j'ai presque envie de dire :) 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 10 minutes, jldauvergne a dit :

ou comme si ça allait enlever quelque chose à votre pratique. Vous couper un bout, j'ai presque envie de dire :) 

Je ne suis pas sûr que ce genre de remarque conforte la crédibilité de tes arguments...

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, Bruno- a dit :

Je ne suis pas sûr que ce genre de remarque conforte la crédibilité de tes arguments...

Je n'argumente rien Bruno, je n'ai rien à défendre ici. Que ce projet vous plaise ou pas, c'est votre vie, je m'en fous. Je te le dis d'autant plus volontiers que je ne me sens pas concerné non plus. Je ne suis juste pas la cible. Mais bon quand je vois les réaction systématiquement négatives de certains à tout propos, je me dis qu'ils doivent quand même vivre dans un lieu maudit par les nuages pour accumuler autant de hargne.
Mon propos initial c'est juste de partager l'étonnement par l'engouement suscité par ce projet. C'est intéressant à observer et un peu fascinant. 

  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

JLD, il y a justement un monde, un abîme entre l'OE et ce système eVscope dédié à une petite part du ciel profond. C'est justement parce que j'ai pris le temps de parcourir, ces dix dernières années, plusieurs chemins que je peux me permettre certaines remarques. En 2018, le public va découvrir l'OE (peut-être faudrait-il l'appeler autrement) et là tu pourras mesurer les limites de leur approche marketing. Ce système n'a pas l'intérêt qu'il veut se donner, c'est tout le sens de mes messages répétés. BrunoS et quelques autres ont bien senti cette approche marketing agressive qui veut nous faire croire, comme toi d'ailleurs, à une révolution. Je trouve les réactions de pas mal de personnes, sur ce forum et sur son voisin Webastro, très saines. De toute façon l'eVscope ne sortira qu'en novembre 2018 et d'ici là l'OE aura parcouru la France et la toile.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 19 heures, ms a dit :

JLD, il y a justement un monde, un abîme entre l'OE et ce système eVscope dédié à une petite part du ciel profond. C'est justement parce que j'ai pris le temps de parcourir, ces dix dernières années, plusieurs chemins que je peux me permettre certaines remarques. En 2018, le public va découvrir l'OE (peut-être faudrait-il l'appeler autrement) et là tu pourras mesurer les limites de leur approche marketing. Ce système n'a pas l'intérêt qu'il veut se donner, c'est tout le sens de mes messages répétés. 

Excuse moi mais il faut détailler là. Toi ton système va faire ce que fait autostakkert plus ou moins en temps réel si j'ai bien compris. C'est très bien. Mais je ne vois rien de très différent dans le fond avec leur approche à part qu'un système est optimisé planétaire et l'autre ciel profond. Dans les deux cas c'est une vision artificielle améliorée de la réalité. Une aide électronique à la vision. 

 

 

Il y a 19 heures, ms a dit :

 BrunoS et quelques autres ont bien senti cette approche marketing agressive qui veut nous faire croire, comme toi d'ailleurs, à une révolution.

Toi aussi tu te mets à la technique de l'homme de paille ? Dis moi à quel endroit j'ai parlé de révolution ????? Ce serait bien de ne pas caricaturer les propos et de réduire le topic à une discussion clanique entre les pour et les contres. Je suis ni pour ni contre ce projet. On peut ne pas avoir d'avis dessus tout en ayant un minimum de bienveillance pour les gens qui le portent. Si ça marche commercialement, tant mieux pour eux. Je sais que ça se perd comme valeur la bienveillance, je le vois bien ici.
J'observe juste le phénomène, et la réussite du financement me surprend. Rien de plus. J'avais des doutes voisins de ceux formulés par certains ici. Et là je vois 600 commandes en 24h. Ok, j'en prends acte, il  y a une demande qui existe pour un produit de ce type. C'est un fait et ça répond à la question. 
 

 

Modifié par jldauvergne

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a une heure, jldauvergne a dit :

Excuse moi mais il faut détailler là. Toi ton système va faire ce que fait autostakkert plus ou moins en temps réel si j'ai bien compris. C'est très bien. Mais je ne vois rien de très différent dans le fond avec leur approche à part qu'un système est optimisé planétaire et l'autre ciel profond. Dans les deux cas c'est une vision artificielle améliorée de la réalité. Une aide électronique à la vision.

En fait tu n'as rien compris ;) aussi, je vais détailler puisque tu me le demandes :

1) L'OE est capable d'estimer, en temps réel, un bruit hybride, ce qu'aucun système ne fait actuellement à ma connaissance (les images brutes sont découpées en patchs traitée par rafales afin de déterminer un ensemble de zones homogènes caractérisant le bruit),

2) L'OE est capable d'estimer, en temps réel, différents types de flou (flou lié à la turbulence, flou de mouvement, focus),

3) L'OE peut pratiquement utiliser toutes les images brutes consécutives de l'acquisition et travailler indifféremment en planétaire comme en ciel profond (en équatorial comme en altaz),

4) L'OE utilise un algorithme de recalage non-rigide et non itératif.
Tout cela contribue à faire un logiciel qui n'a rien à voir avec AS qui ne travaille qu'avec un faible pourcentages d'images brutes non contiguës.

L'OE exploite le lucky imaging mais aussi les similarités dans l'image (fractales).

Je reprend l'exemple de la page précédente pour dérouler le processus :

mars_oc_elec_3_1.png.d423dac9e15837a5bdb9c302d25f594d.png

 

A gauche une image brute suivie d'une image dont le bruit hybride a été estimé.
Une centaine d'images contiguës suffisent pour obtenir la troisième image en moins de 1s.

En suite, un ADC logiciel permet d'ôter une bonne partie du chromatisme (l'OE utilise automatiquement ce traitement en fonction de la position de l'objet).

Cette vidéo de 9800 images brutes de Mars a été réalisée par CPI-Z avec un 150mm, on distingue déjà au bout de 1s l'essentiel des détails de la planète.

L'image va bien sûr se bonifier au fur et à mesure du déroulement du processus.

Enfin une image peut être obtenue à partir des 98 images traitées grâce à un algorithme de super-résoluton, l'OE est un SRVS (Super Resolution Vision System).

Essayes un peu de faire cela avec AS3 ou tout autre système du marché. ;)

Bien sûr tous les traitements relatifs aux patchs s'exécutent en // et en temps réel grâce à la programmation par le GPU (CUDA ou OpenCL au choix).

 

Pour le ciel profond, l'OE ne crame pas le cœur des nébuleuses ou des galaxies comme cela se voit avec l'eVscope sur M51 ou pire avec  d'autres systèmes de vidéo assistée.

 

Enfin, cerise sur le gâteau, l'OE est capable de montrer Jupiter avec ses satellites, Saturne avec ses satellites et même Encke (quand d'autres logiciels écrasent les détails) mais ce sera pour plus tard. ;)

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
Citation

Mon propos initial c'est juste de partager l'étonnement par l'engouement suscité par ce projet.

Je ne vois rien de mystérieux à cet engouement, ce produit a été présenté d'une façon provocante (ça va révolutionner l'astronomie amateur, c'est équivalent à un télescope de 1m, enfin on ne se contentera de pauvres taches floues de misère, enfin on verra keukchose...), donc suscite forcément des réactions.

 

Cela dit, je n'ai rien contre ce produit et encore moins contre ses inventeurs. Ce qui m'agace, c'est qu'on en fasse tout un buzz (tu y as contribué en lançant ce sujet), qu'on lui donne une importance artificielle, comme si on prenait au sérieux ses arguments publicitaires.

 

Modifié par Bruno-

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 1 minute, ms a dit :

En fait tu n'as rien compris ;) aussi, je vais détailler puisque tu me le demandes :

1) L'OE est capable d'estimer, en temps réel, un bruit hybride, ce qu'aucun système ne fait actuellement à ma connaissance (les images brutes sont découpées en patchs traitée par rafales afin de déterminer un ensemble de zones homogènes caractérisant le bruit),

2) L'OE est capable d'estimer, en temps réel, différents types de flou (flou lié à la turbulence, flou de mouvement, focus),

3) L'OE peut pratiquement utiliser toutes les images brutes consécutives de l'acquisition et travailler indifféremment en planétaire comme en ciel profond (en équatorial comme en altaz),

4) L'OE utilise un algorithme de recalage non-rigide et non itératif.
Tout cela contribue à faire un logiciel qui n'a rien à voir avec AS qui ne travaille qu'avec une faible pourcentages d'images brutes non contiguës.

L'OE exploite le lucky imaging mais aussi les similarités dans l'image.

Je reprend l'exemple de la page précédente pour dérouler le processus :

mars_oc_elec_3_1.png.d423dac9e15837a5bdb9c302d25f594d.png

 

A gauche une image brute suivie d'une image dont le bruit hybride a été estimé.
Une centaine d'images contiguës suffisent pour obtenir l'image suivante en moins de 1s.

En suite, un ADC logiciel permet d'ôter une bonne partie du chromatisme (l'OE utilise automatiquement ce traitement en fonction de la position de l'objet).

Cette vidéo de 9800 images brutes de Mars a été réalisée par CPI-Z avec un 150mm, on distingue déjà au bout de 1s l'essentiel des détails de la planète.

L'image va bien sûr se bonifier au fur et à mesure du déroulement du processus.

Enfin une image peut être obtenue à partir des 98 images traitées grâce à un algorithme de super-résoluton, l'OE est un SRVS (Super Resolution Vision System).

Essayes un peu de faire cela avec AS3 ou tout autre système du marché. ;)

Bien sûr tous les traitements relatifs aux patchs s'exécutent en // et en temps réel grâce à la programmation par le GPU (CUDA ou OpenCL au choix).

 

Merci pour ces précisions, mais il n'y a rien que je n'avais pas compris.

Mis à part que je ne sais pas ce que tu appelles bruit hybride. En matière de bruit il vaut mieux appeler un chat un chat. Tu passes un filtre de réduction du bruit si je comprends bien  pour éliminer certaines variations de haute fréquence ? Si c'est ça d'autres logiciels ont cette approche aussi il me semble.

 

Tu élimines un flou de focus ?  On peut récupérer un tout petit peu, mais ce n'est pas trivial et ça rajoute forcément du bruit.

Les autres logiciels de traitement peuvent aussi utiliser toutes les images de départ sauf que ce n'est pas toujours le bon calcul. Et non autostakkert n'utilise pas qu'un faible nombre d'image. Tu le connais vraiment bien ? Autostakkert il fait ce que tu lui dis, si tu en veux 100% tu en auras 100%.

Tu peux affirmer que c'est très différent de Autostakkert, mais si je suis ce que tu me dis, la finalité est la même, même si le chemin est un peu différent.

L'ADC logiciel ça non plus ce n'est pas très nouveau (Registax)

Si ton algo de traitement est meilleur que celui de Autostakker (ce qui reste à démontrer), c'est un logiciel de traitement qu'il faut que tu fasses et non pas de visuel assisté. Le visuel assisté en planétaire ce n'est pas évident que ça intéresse  beaucoup de monde ici (vues les réactions sur le ciel profond), par contre le traitement là je connais de gros consommateurs :)
 

Ne prends pas ça pour des critiques, dans tous les cas si tu arrives à faire efficacement du calcul en temps réel c'est utile. Pour les planéteux ça peut être bien pour évaluer la qualité réelle du ciel. Mais pour un traitement pousser il faut pouvoir choisir les meilleurs paramètres et ce n'est pas trivial.

 

il y a 7 minutes, ms a dit :

Pour le ciel profond, l'OE ne crame pas le cœur des nébuleuses ou des galaxies comme cela se voit avec l'eVscope avec M51 ou pire avec  d'autres systèmes de vidéo assistée.

 

Enfin, cerise sur le gâteau, l'OE est capable de montrer Jupiter avec ses satellites ou Saturne avec ses satellites.

eVscope par de poses courtes, ne pas cramer le centre ce n'est qu'une question de traitement. Je ne sais pas si l'image montrée est vraiment contractuelle. Avant d’affirmer qu'il gère mal la dynamique il faudrait voir le produit final.

Voir les satellites ok, mais en quoi c'est une prouesse ? Dans n'importe quel télescope on les voit sans assistance.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 18 heures, Bruno- a dit :

Je ne vois rien de mystérieux à cet engouement, ce produit a été présenté d'une façon provocante (ça va révolutionner l'astronomie amateur, c'est équivalent à un télescope de 1m, enfin on ne se contentera de pauvres taches floues de misère, enfin on verra keukchose...), donc suscite forcément des réactions.

 

Cela dit, je n'ai rien contre ce produit et encore moins contre ses inventeurs. Ce qui m'agace, c'est qu'on en fasse tout un buzz (tu y as contribué en lançant ce sujet), qu'on lui donne une importance artificielle, comme si on prenait au sérieux ses arguments publicitaires.

 

Bruno, le buzz -si buzz il y a- tu y participes aussi, rien ne t'oblige à être hyperactif sur les fils qui parlent de ce sujet, et les faire remonter sans cesse :)


Maintenant si ouvrir un fil ici c'est faire du buzz. Ok, je vais continuer à faire du buzz. Mais si j'avais voulu faire du buzz sur le sujet, ce n'est pas ici que j'en aurais parlé si je peux me permettre, ... Pour diffuser à des dizaines de milliers de vues une info comme l'astéroïde interstellaire (formidable cette découverte soit dit en passant), je le fais sur le site de c&e, pas ici. Pour s’asseoir autour de la table avec des copains et observer le déroulement d'un phénomène atypique, ici c'est le bon endroit. Quoi que j'ai plus l'impression d'être accoudé au zinc, juste à côté des fontaines à bières, et à me faire entraîner picon sur picon. Mais c'est bien aussi :)

Franck Marchis c'est un peu emballé quand il a parlé de télescope de 1 mètre, mais bon mag 16 c'est la magnitude limite d'un 600. Après il faut voir quel est le temps d'intégration pour y arriver, mais ce n'est pas forcément très long. Je veux dire par là, est ce que c'est encore une image en quasi direct ou bien de astrophotographie longue pose ?  C'est là où il faudra faire la part de la pub et de la com. Pour aller à mag 16, je pense qu'il faut intégrer un minimum de 5 à 10 s, peut être un peu plus même avec la matrice de bayer, et tout dépend du temps de pose initial.


La révolution à chacun d'en juger. C'est surtout le temps qui le dira.  Le goto a été une petite révolution, si demain il y a des EV montables sur tout type de télescope et efficaces, ce sera peut être une forme de petite révolution. Par exemple pour profiter d'une comète qui passe et qui est souvent trop faible en visuel.  C'est un peu trop tôt pour le dire. Moi je dis, observons ce qui va se passer, c'est dans tous les cas intéressant et ça ne peut pas nuire.

 

Les caméras à faible bruit sont en tout cas une petite révolution. On voit les progrès en planétaire, c'est vraiment un plaisir à utiliser et à traiter par rapport à ce que l'on avait jusque là. Il y a eu quasi une rupture générationnelle.  J'avais joué pas mal avec une raptor il y a quelque années, j'avais fait un article là dessus, c'était vraiment avant l'heure, mais j’essayais justement d'investiguer les possibilités offertes par de telles caméras. Et le live en fais vraiment partie. En avril j'étais en Namibie de nouveau avec la raptor. Sur Omega avec un SC300, c'est du délire, on voit mieux qu'à l'oeil à 10 fps.  Franchement c'est ludique et fascinant :) Au minimum pour des soirées publiques ça peut être intéressant. Mais on voit aussi les amateurs commencer à faire du lucly imaging aussi avec des caméras vidéos, c'est aussi ce que j'avais tenté de défricher avec la Raptor en m'inspirant de ce qu'avaient fait certains pro anglais. 
L'IMX224 n'est pas encore au niveau d'une raptor, mais l'écart se resserre nettement. On le voit aussi avec le a7s, c'est incroyable et ça ouvre des possibilités et là aussi il y a eu une rupture avec tout ce que l'on avait vu jusque là, surtout en vidéo.

 

Ce qui est certain dans l'immédiat, c'est que deux startups tentent d'innover en utilisant les technos dispos sur la tables. Ces produits ont été comparés au drone par certains, ce n'est pas mauvais comme comparaison, le drone a permis  à pas mal de gens qui n'auraient jamais fait d'aéromodélisme de s'y mettre. Et pas grand chose a été inventé, toutes les technos étaient déjà là sur la table et ne demandaient qu'à communiquer entre elles.


Des fois il suffit de pas plus que ça. L'autre bon exemple ce sont les smartphones, technologiquement il n'y a pas de rupture, la rupture est dans le forme du produit et dans sa conceptualisation.


Si ces télescopes arrivent au même résultat -je veux dire- si ils amènent de nouvelles personnes à s'intéresser à l'astro, tant mieux. Le moyen ne me semble pas de facto une évidence, on verra la suite, ça peut se dégonfler aussi.  Il y a aussi de gros écueils possible, pour sortir un bon produit final.

Modifié par jldauvergne
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites

Le prix sera sans doute trop élevé pour être à la portée d’un grand public n’ayant pas ou peu de connaissances de l’astronomie.

A qui exactement ce type de produit est-il destiné ?

La seule certitude c’est que si un néophyte a le bonheur de regarder dans l’engin et qu’il veut aller de l’avant dans une nouvelle passion, il aura du mal avec les autres instruments quel qu’en soit le diamètre. Sa passion risque de retomber.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 8 heures, jldauvergne a dit :

Tu peux affirmer que c'est très différent de Autostakkert, mais si je suis ce que tu me dis, la finalité est la même, même si le chemin est un peu différent.

Tu es le champion des raccourcis JLD, tu prends les 100 premières images brutes (l'image de gauche) et tu essayes de sortir en moins de 1s avec AS2 ou AS3 ou autre l'image corrigée de droite. Et ainsi de suite par paquet de 100 images. Tu pourras mesurer alors l'étendu de tes approximations : ;)

 

mars_100.zip

 

Le résultat obtenu avec l'OE (te traitement des 100 images brutes du ZIP) :

mars_100.png.886ec9b77d873acd8a3a781be9b7c503.png

 

Le chemin n'est pas le même quand on est au pied du mur, face au problème, on ne peut pas s'en tirer par des pirouettes ou des approximations. S'il suffisait de filtrer pour éliminer le bruit, l'OE serait terminé depuis longtemps.

 

Citation

Merci pour ces précisions, mais il n'y a rien que je n'avais pas compris.

Ben moi je crois que tu n'as pas compris grand chose mais que quand tu auras terminé le traitement de ces 100 images avec Autostakkert tu pourras parler de l'OE en connaissance de cause. ;)

 

Citation

Si ton algo de traitement est meilleur que celui de Autostakker (ce qui reste à démontrer), c'est un logiciel de traitement qu'il faut que tu fasses et non pas de visuel assisté.

Là où tu as entièrement raison et je t'en remercie, je ne dois pas appeler mon application 'oculaire électronique' car ce n'est pas du visuel assisté mais du traitement de vision en temps réel utilisant le calcul par le GPU. Les anglo-saxons appellent cela SRVS (Super Resolution Vision Systems) c'est peut-être dans cette direction qu'il faut chercher, le terme SRscope serait certainement mieux adapté.

 

C'est à partir de choses simples qu'il faudrait discuter comme les 100 images brutes PNG ci-dessus (mars_100.zip) sinon on discute à l'infini et l'infini c'est le vide. Le but ce n'est pas de comparer telle ou telle approche mais de vérifier à partir d'éléments simples qu'une approche donnée correspond à ce que souhaite l'utilisateur final.

Modifié par ms
  • J'aime 1

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 8 heures, scc a dit :

La seule certitude c’est que si un néophyte a le bonheur de regarder dans l’engin et qu’il veut aller de l’avant dans une nouvelle passion, il aura du mal avec les autres instruments quel qu’en soit le diamètre.

 

Ben après cet engin il faudra qu'il passe sur un bon dob pour voir "mieux" en planétaire ou sur un setup orienté imagerie pour faire de plus belles photos que celles qu'il va voir dans l'Ev.

 

Partager ce message


Lien à poster
Partager sur d’autres sites
il y a 58 minutes, zeubeu a dit :

Ben après cet engin il faudra qu'il passe sur un bon dob pour voir "mieux" en planétaire ou sur un setup orienté imagerie pour faire de plus belles photos que celles qu'il va voir dans l'Ev.

Tu devrais t'associer avec JLD ¬¬ parce qu'à vous deux vous avez de bonnes idées.

 

Sur le terrain je prends l'écran et le calculateur situé à l'arrière, le tout piloté par mon smartphone Android ... appelons ce système d'acquisition d'images et de vidéo assistée l'OE :

shuttle_1.jpg.d90e72c938e224cb86e320827457361f.jpg

 

De retour à la maison, ce même système devient un outil de traitement d'images et de vidéos :

shuttle_2.jpg.fc569d44088b3bdeec301ee6059521b4.jpg

 

Merci à vous deux de m'avoir donné cette idée ^_^, il ne me reste plus qu'à trouver un nom pour ce concept 2 en 1.

C'est faire de l'acquisition en observant et surtout en discutant avec le public. Après les traitements en super résolution se font à la maison comme cela se fait aujourd'hui.

 

Modifié par ms

Partager ce message


Lien à poster
Partager sur d’autres sites
Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.