-
Contenu similaire
-
Par Sauveur
Salut
Depuis le Pic comme j'avais vue Jean Luc avec ce petit engin ca ma donné envie de l'acquérir , J'ai attendue une occas et voila
Le premier Jour il m'a étonné en pointant précisément le soleil avec un posé shooté
c'est les fichier téléchargé automatiquement sur le Telephone et qu'il faut laissé a proximité et allumer
Hi hi hi Juju en gros plan
Comme il m'est les brutes dans son disque dur on peut traité apres tranquillement
premier essais pas beaucoup de poses
Bon il y a peu de pose et un traitement un peu a la vas vite car suis plutot Juju quand même et j'en ai au four encore
-
Par Sauveur
Oui fait au smartphone et la star aventure pour la lulu et intervallomètre DiY mais je pourrais avoir Nina pour l'astrometrie mais faudrait le défiltré et c'est assez dure mon premiere essais a été un echec
21 poses de 30 secondes
bon j'ai des soucis d'étalonnage des couleur du a la matrice de bayer bien différentes RYB oui oui Rouge jaune Bleu
L'extrem Lulu phone au foyer sans lentilles
NGC 884 et NGC 869_stacked 42 poses de 30 secondes
M45_stacked 15 poses de 30 secondes
J'ai retenter bon toujours pas de mes aux oignon je shootai Juju a coté
sur le canarie pas pu faire correctement la mes j'aivais prêté mon eq6 a un copain
Bon cette matrice RYB c'est un peu con pour l'étalonnage faut que je cherche
m13
M51 peu de poses et le dithering bein y a pas
@MCJC
bonne journée
-
Par Gilles Pascal
Bonjour,
en 2023 j'ai réalisé une série de prises de vue de Jupiter pendant une nuit.
Ensuite je les ai assemblées (avec PIPP) pour en faire une animation.
Le résultat me plaît mais à présent je voudrais aller plus loin. L'idée serait de pouvoir superposer à chaque vue, une image tirée de la simulation de STELLARIUM.
Chaque image de l'animation serait au final donc un assemblage de deux images :
- Dans la moitié supérieure de l'image on verrait un bandeau horizontal issu de STELLARIUM
- Dans la moitié inférieure, on verrait un bandeau réalisé à partir de l'image prise par la caméra.
Le souci c'est la rotation de champ dans STELLARIUM.
Pendant pas mal de temps je me suis noué le cerveau pour tenter de trouver l'angle qu'il faudrait appliquer pour réaliser la dé-rotation.
Et aujourd'hui je viens de trouver une solution totalement simple et déconcertante : il suffit de mettre à "true" le booléen qui indique le mode equatorial dans STELLARIUM.
Encore faut-il trouver la syntaxe. Qu'à cela ne tienne, une recherche rapide dans les nombreux scripts stockés dans le sous-répertoire idoine (C:\Program Files\Stellarium\scripts) permet avec Notepad++ de trouver les séquences qui contiennent la partie de texte "quatorial" (ben oui, ne sachant pas si le mot commence par un 'é' ou un 'e'...).
Alors comme cela m'a pris du temps, et que ça pourrait servir à des astram, je vous livre le code complet de mon script.
Le contenu est à enregistrer dans un fichier dont l'extension devra être .ssc
Il suffit ensuite de double-cliquer sur le fichier, et Stellarium se lancera automatiquement en exécutant le script.
La localisation est placée à la terrasse de Meudon. Mais pour vos besoins, vous changez les valeurs par celles de votre site.
Bon ciel,
Gilles
include("common_objects.inc");
// var MonDIR = "C:/Users/gpasc/Pictures/Stellarium";
// var MonDIR = core.getEnv("STEL_SKYBOX_DIR");
// Not finding this environment variable sets DIR to empty string to make storage into default image dir, i.e., "C:/Users/YOU/Pictures/Stellarium"
// For technical reasons, on Linux you MUST set this variable before running the script.
DIR=core.getEnv("STEL_SKYBOX_DIR");
// Base name for the tile textures. Defaults to Unity, can be overridden by setting environment variable STEL_SKYBOX_BASENAME
BASENAME=core.getEnv("STEL_SKYBOX_BASENAME");
if (BASENAME.length == 0)
BASENAME="Unity";
// Output data file name. Defaults to unityData.txt, but can be overridden by setting environment variable STEL_SKYBOX_DATA
DATANAME=core.getEnv("STEL_SKYBOX_DATA");
if (DATANAME.length == 0)
DATANAME="unityData.txt"
OUTPUT_DATA=DIR + "/" + DATANAME;
core.output("Writing images to " + DIR);
core.output("Writing data to " + OUTPUT_DATA);
// The following wait times (seconds) are required to arrive at scene before screenshot. Configure for your machine.
// This must likely allow 2 frames to be drawn before screenshot is valid.
MOVE_WAIT=0.05;
SHOT_WAIT=0.15;
core.setDate(
'2023-08-21T02:27:59',
'local' , // or 'utc' or 'local'
true // enable Delta T correction
);
core.setObserverLocation(
2 + 13/60 + 59/60/60, // core.dmsToRad(2, 13, 59), // longitude
48 + 48/60 + 19/60/60, // core.dmsToRad(48, 48, 19), // latitude
151, // Altitude
0, // Time to travel
"", // or "Terrasse de Meudon",
"Earth" // This parameter seems necessary
);
core.selectObjectByName("Jupiter", false);
PData = core.getObjectInfo("Jupiter");
StelMovementMgr.setFlagTracking(true);
GridLinesMgr.setFlagAzimuthalGrid(false);
StelMovementMgr.zoomTo(0.07, 1);
core.setGuiVisible(true);
// On force le mode equatorial pour empecher la rotation de champ :
StelMovementMgr.setEquatorialMount(true);
// Lister ici les instants correspondants aux prises de vues
// Format à respecter :
//
// "AAAA-MM-JJTHH:MM:SS"
//
// L'ensemble des données est stocké dans le tableau ci-dessous
// C'est le nombre d'éléments, contenus intrinsèquement dans le tableau
// qui fournira la limite haute de la boucle parcourue plus bas dans ce script.
//
var Horaire_Positions = new Array("2023-08-21T02:27:59",
"2023-08-21T02:33:27",
"2023-08-21T02:38:56",
"2023-08-21T02:44:24",
"2023-08-21T02:49:53",
"2023-08-21T02:55:22",
"2023-08-21T03:00:51",
"2023-08-21T03:06:19",
"2023-08-21T03:11:48",
"2023-08-21T03:17:16",
"2023-08-21T03:22:45",
"2023-08-21T03:27:50",
"2023-08-21T03:33:18",
"2023-08-21T03:38:46",
"2023-08-21T03:44:15",
"2023-08-21T03:49:44",
"2023-08-21T03:55:12",
"2023-08-21T04:00:41",
"2023-08-21T04:06:09",
"2023-08-21T04:11:38",
"2023-08-21T04:17:07",
"2023-08-21T04:22:35",
"2023-08-21T04:28:03",
"2023-08-21T04:33:32",
"2023-08-21T04:39:00",
"2023-08-21T04:44:29",
"2023-08-21T04:49:57",
"2023-08-21T04:55:25",
"2023-08-21T05:07:56",
"2023-08-21T05:13:25",
"2023-08-21T05:18:53",
"2023-08-21T05:24:21",
"2023-08-21T05:29:50",
"2023-08-21T05:35:19",
"2023-08-21T05:40:47",
"2023-08-21T05:46:15",
"2023-08-21T05:51:44",
"2023-08-21T05:57:12",
"2023-08-21T06:02:40",
"2023-08-21T06:08:09",
"2023-08-21T06:13:37",
"2023-08-21T06:19:04",
"2023-08-21T06:24:32",
"2023-08-21T06:30:01",
"2023-08-21T06:35:29",
"2023-08-21T06:40:58",
"2023-08-21T06:43:35",
"2023-08-21T06:52:02",
"2023-08-21T06:57:30",
"2023-08-21T07:02:59",
"2023-08-21T07:08:27",
"2023-08-21T07:13:55",
"2023-08-21T07:19:23");
// The following wait times (seconds) are required to arrive at scene before screenshot. Configure for your machine.
// This must likely allow 2 frames to be drawn before screenshot is valid.
MOVE_WAIT=0.05;
SHOT_WAIT=0.15;
core.setGuiVisible(false);
// On stabilise la première position avant de lancer la boucle
core.setDate(
Horaire_Positions[0],
'local' , // or 'utc' or 'local'
true // enable Delta T correction
);
core.output(Horaire_Positions[0] );
// on attend 3 secondes pour bien stabiliser la première position
core.wait(3);
for (i=0; i<Horaire_Positions.length; i++)
{
core.setDate(
Horaire_Positions,
'local' , // or 'utc' or 'local'
true // enable Delta T correction
);
// Régler STELLARIUM à l'horaire pointé dans le tableau :
core.output(Horaire_Positions );
// Tempo pour attente de stabilisation :
core.wait(MOVE_WAIT);
// Capture d'écran et sauvegarde dans le repertoire BASENAME + i :
core.screenshot(BASENAME + i, false, DIR, true);
core.wait(SHOT_WAIT);
}
core.setGuiVisible(true);
//EOF
-
Par Cyril Richard
Bonsoir tout le monde.
Certains le savent peut-être, mais la future grosse mise à jour de Siril contient l'étalonnage des couleurs par Spectrophotométrie. C'est une avancée majeure dans le développement et rendra obsolète l'ancien module d'étalonnage des couleurs par photométrie.
Pour ceux qui souhaitent en savoir plus sur ce module, voici un lien sur la doc de la version en développement.
Dans l'esprit du logiciel opensource, et du partage de données (philosophie prônée par Siril depuis ses débuts) nous avons mis en place une base de données des filtres et capteurs utilisée par l'algorithme. Plus cette base de données sera complète, et plus l'outil sera puissant. Et c'est là où la communauté est importante. Si vous avez envie d'aider Siril à devenir plus performant et que vous possédez des courbes de filtres, ou de capteur non pris en charge, alors c'est pour vous.
La base de données se trouve ici : https://gitlab.com/free-astro/siril-spcc-database et le README (en anglais) explique comment ajouter des données. Cependant, n'hésitez pas à me contacter
-
Par FrancoisGAP
Merveilleuse cette comète. Pas évident à traiter mais le résultat est sympa
Détail et full visible sur mon site Web : https://planetediy.fr/index.php/2024/03/14/la-fascinante-comete-12p-pons-brooks-un-veritable-spectacle/
Détail du matériel utilisé :
TS-ONTC HYPERGRAPH 10″ 254/1000 (Fd4)
Correcteur Réducteur 0,85×3″ soit 863mm (Fd3,4)
EQ8R-Pro sur Pilier Acier DIY
ZWO ASI2600MC DUO + Optolong Clear 2″ + Optolong LExtreme 2″
ZWO EAF
ZWO EFW 5 positions 2″
(25)x60s Gain=100 (-30°C)
40 Darks Gain=100
40 Darks Flat Gain=100
40 Flats Gain=100
Traitement Pixinsight
-
-
Évènements à venir
-
-
19 mars 2024 22:00
Jusqu’au 22:00
-
-
-
-
Bonjour à tous,
Petit nouveau sur le forum, je ne fais pas d'astro mais je suis concerné par les mêmes problématiques que vous pour le processing des images.
Je cherche à imager un objet 2D par transmission avec une caméra CMOS, avant et après noircissement. Je soustrairai ensuite les 2 images pour avoir le signal "vrai" en ADU, permettant de remonter à l'information que je souhaite.
Je corrige avec un flat où je suis la fameuse règle du 50-70% de saturation max de mon capteur 16 bits, soit une valeur comprise entre 30000 et 45000 (je me pose encore la question si le dark est nécessaire car ma caméra est refroidie, j'ai un fort éclairement et mon temps d'expo est très court, de l'ordre de 15ms, mais c'est une autre question).
Pour un réglage de temps d'exposition donnant un flat de 45000, mon objet avant noircissement à une valeur d'ADU de 25000 environ. Si je divise pixel à pixel, je me retrouve avec une valeur <1, ce qui réduit très fortement la dynamique. D'autant plus qu'après je dois soustraire par la même chose pour mon objet noirci.
Comment gérez-vous les flats? Vous le normalisez par rapport à une valeur moyenne ou médiane pour ensuite diviser votre image raw par ce mapping, afin de conserver une bonne dynamique?
Que me conseillez-vous dans mon cas?
Merci d'avance !
Partager ce message
Lien à poster
Partager sur d’autres sites