dg2

Membre
  • Compteur de contenus

    1 431
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Tout ce qui a été posté par dg2

  1. vitesse de la lumière

    > herissonOn peut effectivement postuler l'invariance de la vitesse de la lumière, auquel cas on arrive à la relativité. Mais on peut aussi (et c'est à mon sens plus élégant) rechercher toutes les lois possibles de composition de vitesse, dont on tire qu'il existe nécessairement une vitesse limite (sauf dans le cas de la mécanique classique où cette vitesse limite est en fait infinie). Et donc on n'a même pas à postuler l'existence d'une vitesse limite car c'est une conséquence du modèle étudié, ce qui d'une certaine façon est plus satisfaisant : la relativité restreinte apparaît comme la seule possibilité offerte à la nature (sous les hypothèses que l'on considère). Historiquement, je crois que c'est effectivement la première approche qui a été suivie, car dictée par l'expérience. Mais la seconde est tout aussi valable.
  2. vitesse de la lumière

    > AstroMateur : Attention à ne pas tout confondre.Maxwell est considéré comme un "précurseur" de la relativité car sa théorie de l'électromagnétisme s'est avérée en accord avec la relativité, mais au moment où il l'a énoncée, sa théorie posait problème. Ce que dit la théorie de l'électromagnétisme, c'est que la vitesse de la lumière est la même quel que soit le mouvement de la source lumineuse par rapport à celui qui l'observe. C'est en contradiction flagrante avec la mécanique classique et la simple intuition, qui dit que "évidemment", si l'on considère trois objets, la vitesse de 1 par rapport à 3 (que je note v_{1/3}) se déduit des vitesses de 1 par rapport à 2 et 2 par rapport à 3 parv_{1/3} = v_{1/2} + v_{2/3} Pour l'électromagnétisme, on arrive à la situation étrange que si en module v_{1/3} vaut 299792458 m/s, alors v_{2/3} aura la même valeur, quelle que soit v_{1/2}.A l'époque, l'effroyable efficacité de la mécanique classique laissait les gens penser que c'était l'électromagnétisme fraîchement découvert plutôt que la mécanique classique qui était en erreur. C'était là une attitude tout-à-fait raisonnable. Il a donc été émis l'idée que les loi de l'électromagnétisme n'étaient valables que par rapport à un milieu inconnu, appelé "éther", et que les lois devaient être modifiées en conséquence quand on n'était pas au repos par rapport à l'éther. L'explication avait l'avantage que elle donnait à la lumière un "support" pour se propager (l'éther), au même titre que le son se propage dans l'air. Mais invoquer une forme de matière inconnue, indétectable (elle ne doit pas modifier les mouvements des planètes) pour "expliquer" quoi que ce soit n'est pas non plus parfaitement convainquant. L'expérience de Michelson et Morley a été la première a tester la prédiction de Maxwell que la vitesse de la lumière devait être la même pour tous les observateurs. Et à la surprise générale, elle a donné raison à Maxwell. Ensuite, ce sont plusieurs personnes, dont Einstein, Poincaré et Lorentz qui ont trouvé comment réconcilier tous les points de vue. Le rôle de Poincaré n'a effectivement pas été négligeable du tout (il a introduit une grande partie du formalisme mathématique adéquat), mais la "mécanique relativiste", version corrigée de la mécanique classique et due à Einstein. Je ne sais pas à quel point les choses auraient été différentes si un des trois larrons n'avait pas été là. Les historiens des sciences ne sont pas certains de ce qui est dû à Einstein seul et à Poincaré, leurs travaux ayant été publiés à peu de temps d'intervalle. A cette époque là, les informations ne circulaient pas aussi vite et surtout pas aussi facilement que maintenant... Ce qui est certain c'est que Einstein ne cite pas Poincaré et Lorentz dans ses travaux (il a dit plus tard qu'à l'époque il ne les connaissait peu voire pas), et qu'il a également admis que la relativité aurait certainement été découverte sans lui, ce sur quoi tout le monde s'accorde.Pour revenir à la question initiale, le fait qu'on ne puisse pas remonter dans le temps dans le cadre de la relativité est une conséquence de l'invariance de la vitesse de la lumière.Donc, cher AstroMateur, attention à ne pas sombrer (involotairement) dans le révisionisme scientifique à deux balles en balançant un "Albert à juste recopié et arrangé à sa sauce..." qui, aux nuances stylistiques près est digne des frères bogdanov...> Franck04Poincaré est associé (à juste titre, donc) à la relativité restreinte et non à la relativité générale, pour la bonne raison qu'il est mort avant que cette dernière ne soit énoncée en 1915. C'est le nom de Hilbert qui est étroitement lié (et un peu oublié) à la relativité générale. En fait, les équations de la relativité générale ont été énoncées quasi simultanément par Einstein et Hilbert, et Hilbert a même devancé Einstein de trois jours, mais ceci après qu'il ait été convaincu que les derniers travaux d'Einstein (datant d'octobre 1914) allaient dans la bonne direction modulo quelques erreurs. Il semble que en 1915 Einstein et Hilbert aient beaucoup correspondu et se soient conjointement aidés à trouver la formulation exacte de la relativité générale, mais la pierre angulaire qui sous tend tout ceci (le principe d'équivalence) est dû à Einstein (en 1907 je crois), et les premières conséquences de la relativité générale (la précession du périhélie de Mercure) lui sont également dues. Pour résumer, il y a une jolie phrase d'Einstein, qui dit en substance (et en plus modeste) "La relativité restreinte aurait certainement été décourverte sans moi, pour la relativité générale, je suis moins sûr".J'espère que cela peut aider à clarifer tout cela.
  3. Dernière nouvelle des exoplanètes

    Les termes de Serge sont peut-être un peu excessifs (quoique), mais il y a hélas du vrai.Les communiqués de presse ont toujours tendance à faire un peu de chauvinisme, et à ce jeu là les américains ne sont pas les moins outranciers. Entre chercheurs, la situation est moins caricaturale, mais le fait est que les américains ont peu tendance à citer les travaux de leurs confrères européens. L'expérience montre qu'un européen qui publie dans une revue européenee sera moins cité outre atlantique que s'il publie dans une revue américaine. C'est une situation tout-à-fait déplorable, mais c'est comme ça. Dans le même ordre d'idée, certains américains ont tendance à s'approprier telle ou telle avancée au seul prétexte qu'ils sont les premiers américains à avoir publié sur le sujet, alors que des européens les ont devancés. Quand j'ai un article à référer, je mets un point d'honneur à corriger les oublis bibliographiques de certains auteurs peu scrupuleux, mais il en faudra bien plus pour changer ces mauvaises habitudes. Ceci dit, il y a des tas de gens très sympas aux États-Unis et qui font de l'excellent boulot.[Ce message a été modifié par dg2 (Édité le 23-03-2005).]
  4. vitesse de la lumière

    Si on suit strictement les lois de la relativité, dépasser la vitesse de la lumière permet éventuellement de voyager dans le temps. Du point de vue de la relativité restreinte, la question est académique car une particule de masse non nulle doit déjà dépenser une quantité infinie d'énergie pour atteindre la vitesse de la lumière... que l'on ne peut par conséquent pas plus atteindre que dépasser.Ceci dit, en pratique, que va-t-il arriver à un vaisseau spatial dont la vitesse serait très très très proche de la vitesse de la lumière ? L'univers baigne dans un rayonnement à très basse température, le rayonnement fossile. Mais quand on se déplace très vite par rapport à celui-ci, tout se passe comme s'il devenait très intense et très énergétique dans la direction vers laquelle on se déplace... ce qui à terme va devenir un sérieux problème pour le vaisseau spatial car il va finir par être endommagé à cause de cela. En fait, ce truc là est bien connu en astrophysique des hautes énergies et on montre qu'il est très peu probable que des particules très très énergétiques puissent se propager sur des grandes distances : elles finiront par être freinées par le rayonnement fossile. C'est ce qu'on appelle la coupure GZK, du nom des trois gars qui ont trouvé ça (Greisen, Zatsepin et Kuzmin). Il y a à l'heure actuelle des indications que des particules plus énergétiques que ce qui est autorisé existent et sont indirectement observées dans la haute atmosphère terrestre. Cela pourrait éventuellement (mais ce n'est qu'une possibilité parmi de nombreuses autres) remettre en cause la relativité, mais il n'y a pas encore matière à trop s'exciter avec ça, ces particules pourraient par exemple provenir de sources suffisamment proches (même si on se demande bien lesquelles) pour ne pas subir d'interactions notables avec le rayonnement fossile.Donc même sans faire de science fiction superluminique, quand on va trop vite on risque d'être sérieusement amoché par le fait que l'univers n'est pas tout-à-fait vide, à l'instar des belles étoiles filantes que l'on voit en observant le ciel.[Ce message a été modifié par dg2 (Édité le 23-03-2005).]
  5. vitesse de la lumière

    Ce que la relativité prédit, c'est qu'il existe une vitesse limite à laquelle toute interaction puisse se propager. Cette vitesse est de 299792458 mètres par seconde (en fait c'est de cette façon que l'on définit le mètre). Il se trouve que cette vitesse correspond très vraisemblablement à la vitesse de la lumière dans le vide. "Très vraisemblablement", car la vitesse de la lumière dans le vide n'est contante que si le photon est sans masse, ce que l'on vérifie expérimentalement avec une très bonne précision.Il est possible de montrer que dans un milieu, la lumière se déplace à une vitesse moindre que 299792458 m/s, et en général qui dépend de sa fréquence, ce qui provoque les aberrations chromatiques bien connues en optique...Mais si on envoie des particules suffisamment énergétiques dans ce milieu, elle peuvent tout-à-fait s'y propager, au moins pendant un certain temps, à une vitesse supérieure à celle de la lumière dans ce milieu, mais inférieure à la limite de 299792458 m/s. C'est l'effet Cerenkov, et ce n'est pas en contradiction avec la relativité.
  6. La chaleur se propage dans le vide, c'est ce que l'on appelle le transfert radiatif. Mais il est beaucoup moins efficace, dans ce contexte, que la convection ou la conduction (dans une étoile, c'est en général le contraire). Donc si l'air est très calme dans le four, on peut y laisser la main... quelques temps. Au bout d'un moment, pas de secret, ça finira par chauffer, même s'il n'y a pas d'air du tout, mais cela fera moins vite mal que si l'on pose directement la main sur la plaque de cuisson.
  7. > quentinle coup du corps qui explose lors d'une baisse de pression de 1 bar, c'est une legende. Heureusement pour les apneistes qui pour les meilleurs passent en quelques dizaines de secondes de 1 a 15 bars puis a 1 bar (le record en apnee est dans les 170 m de profondeur je crois). Le corps humain est essentiellement compose de liquides dont le volume est quasi insensible a la pression. Si nous etions remplis d'air, nous pourrions exploser lors d'une depressurisation, mais ce n'est pas le cas ici (sauf si l'on retient sa respiration...). Par contre il y a des risques de degazage lors d'une depressurisation car il y a toujours un peu d'air dissous dans le sang et les autres liquides corporels. C'est potentiellement tres dangereux, mais le volume des gaz est tres faible. De la meme facon a basse pression, le corps a tendance a "degorger", probleme bien connu en haute altitude (oedemes). Mais cela est accessoire au vu de tous les autres problemes que va rencontrer un astronaute qui aurait perdu sa combinaison.Sinon, la temperature qu'indique un thermometre,... c'est la temperature du thermometre. S'il est dans l'air ambiant, c'est aussi la temperature de l'air, s'il est dans le vide, c'est fonction uniquement du rayonnement recu. Le vide spatial ne signifie pas absence de rayonnement ! Dans le pire des cas, on mesurera la temperature du fond diffus cosmologique, soit 2,728 kelvins.
  8. On ne peut pas parler de température dans un milieu qui n'est pas assez collisionnel pour être à l'équilibre thermique. Par contre, on peut toujours mesurer le flux d'énergie reçu. Au voisinage de la Terre, le flux d'énergie reçu du soleil est de 1300 watts par mètre carré. C'est l'équivalent de mettre ses mains à 7 ou 8 centimètres d'une ampoule électrique de 100 W. Ceci dit, dans le cas de l'ampoule, la sensation de chaleur vient essentiellement de la convection, c'est-à-dire des mouvements de l'air, mouvements qui sont d'autant plus important que l'on est soumis à la gravité (de l'air chaud s'élève au dessus de l'ampoule et de l'air froid est aspiré en dessous). Si l'on faisait l'expérience à pression atmosphérique mais en apesanteur, la sensation de chaleur serait moindre car les mouvements d'air seraient réduits. J'ai lu que à cause de se problème, les astronautes des stations spatiales dormaient à côté de petits ventilateurs pour aider à la circulation du CO2 expiré sans quoi l'air autour d'eux deviendrait trop riche en CO2 (à vérifier). En altitude où l'air est raréfié, la convection est moins grande (quand il n'y a pas de vent), et la sensation de froid est bien moindre : ceux qui sont allés à l'Aiguille du Midi (3800 m) savent que en absence de vent, on peut se ballader bras nu alors que le thermomètre indique -10.Bref, à proximité du soleil on reçoit un quantité significative d'énergie, mais il n'est pas certain que cela se traduise par une sensation de chaleur intense (de la même façon que si l'on met la main dans un four *et* qu'il n'y a pas de convection). Par contre, les risques de brûlure à cause des UV non filtrés sont certainement très importants.La température d'un corps dépendra essentiellement de la quantité de chaleur qu'il est capable de retenir avant de la restituer. C'est le problème bien connu de l'effet de serre : sans atmosphère, la surface terrestre serait en moyenne à une température inférieure à zéro, mais grace à l'effet de serre naturel, la Terre garde plus longtemps l'énergie reçue du soleil et la température est plus élevée. De la même façon, la capacité calorifique (donc son inertie thermique) de l'atmosphère terrestre adoucit les contrastes de températures : seulement une vingtaine de degrés entre le jour et la nuit. Sur la Lune où il n'y a pas d'atmosphère, les contrastes sont largement plus importants, de mémoire on passe de +100 à -100 degrés Celsius. Ce qui est certain c'est qu'il y a des contrastes de température considérables entre la face éclairée et la face non éclairée d'un satellite, ce qui rend sont isolation thermique indispensable. J'avais entendu dire que les ingénieurs avaient par exemple eu toutes les difficultés du monde à récupérer la mission SOHO, car suite au problème qu'avait eu le satellite, les ergols avaient gelés car le satellite avait changé d'orientation par rapport au soleil. Sinon, loin de tout objet astrophysique, l'espace baigne dans le rayonnement fossile de 2,728 kelvins. On ne peut pas trouver de régions plus froide. Que se passe-t-il si le corps humain est exposé au vide spatial ? L'eau liquide ne peut exister à trop basse pression. La transpiration et la salive vont donc immédiatement s'évaporer (il y a une anecdote à ce sujet d'un gars victime d'une dépressurisation dans un vide poussé au début de l'ère spatiale). Par contre, à moins d'avoir une plaie béante, il est peu probable que le sang se mette à bouillir. Il risque par contre de libérer les gaz dissous, ce qui est très dangereux (problème bien connu en plongée).Même si la dépressurisation est instantannée, il y a peu de chances que le corps explose : les tissus sont suffisamment solides pour éviter cela, ne serait-ce que parce le gros de la masse du corps humain est composé de liquides dont le volume varie peu en fonction de la pression. A priori, si l'on est exposé dans le vide, il faut avoir le même réflexe que les apnéistes : laisser son corps s'adapter à la pression extérieure. Donc en l'occurence, ne pas retenir son souffle est sans doute, dans ce contexte, préférable. Qu'advient-il de tissus biologiques que l'on laisserait dans l'espace ? Le milieu est trop hostile pour que les processus de décomposition biologique puissent avoir lieu. Les tissus vont donc se conserver un certain temps. Néanmoins, dans l'espace ils seront sans cesse bombardés de rayons cosmiques qui vont peu à peu les détruire (de la même façon je crois que la surface lumaire est une très fine poussière). On m'a raconté une anecdote un peu semblable au CERN où deux cadavres de rats avaient été trouvé dans un des tunnel abritant un accélérateur de particules. En régime d'utilisation, l'espérance de vie d'un être humain est estimée à moins de 20 minutes. Les deux rats dont les cadavres étaient là depuis un certain temps avaient reçu tellement de saletés que quand la personne qui les a trouvé les a ramassés ils sont littéralement tombés en poussière. À vérifier, mais cela paraît réaliste.NB Tout ceci est à vérifier.[Ce message a été modifié par dg2 (Édité le 07-03-2005).]
  9. Huygens photos

    Loin de moi l'idée de critiquer ce qui a été fait par des "amateurs" (terme non péjoratifs, je précise à nouveau). Il est probable que ce n'est pas aussi bien que ce que l'on en fera, mais c'est certainement beaucoup plus joli que ce qui en a été fait par l'ESA. Et c'est très bien, cela rend ces images plus attractives que la présentation qu'en fait l'ESA. Encore une fois, c'est un problème de communication. Pour reprendre un point du premier message ici "des gens patentés [qui] ne savent pas rester en lien avec la société qui leur permet d'exister" est un peu excessif mais malheureusement vrai. Le monde de la recherche (en France) ne fait globalement pas assez pour "rendre compte" des deniers publics dont il dispose. Et ça lui est certainement préjudiciable (le silence de la communauté scientifique à propos de l'affaire B&B est assez sidérant, par exemple, et fera sans doute beaucoup de mal à la recherche dans les années qui viennent).Si les données sont publiques chacun peut en faire ce qu'il en veut. Ce que cette affaire pose, c'est la question de la façon dont on doit diffuser les données : comment, combien, et quand. Si l'ESA décide diffuser toutes les données tout de suite, c'est son problème. "si on veut s'amuser à faire ça vite fait pour le plaisir, c'est mal ?" certainement pas, c'est à l'ESA de voir si cela lui porte préjudice et si cela porte préjudice aux chercheurs qui ont travaillé sur la mission. C'est tout ce que je voulais dire. J'ai tendance à penser qu'attendre quelques jours pour améliorer la qualité de la présentation des images aurait sans doute été plus approprié, mais je ne connais pas les raisons qui ont poussé l'ESA (ou l'équipe d'imagerie de Huygens) à procéder de la sorte. Peut-être est-ce un choix d'intéresser au maximum les gens à la mission, ce qui manifestement a parfaitement réussi auprès de gens motivés. Le tout est que cela se fasse sans trop de grincements de dents et que cela contribue (de quelque façon que ce soit) à améliorer l'image de la mission. Si l'impression générale est que le panorama est vachement joli et qu'il faut vite envoyer un Huygens II sur Titan c'est parfait, si par contre l'impression est que des amateurs font mieux et plus vite le boulot que les chercheurs, là c'est plus embêtant car c'est un peu plus compliqué que cela ("joli" ne veut pas dire "mieux"). On verra bien ce que cela donne.
  10. Huygens photos

    Dans une mission scientifique, il y a beaucoup de travail en amont. Il est normal que ceux qui aient oeuvré pour que la mission Huygens existe soient les premiers à étudier les résultats. Indépendamment de l'aspect scientifique, c'est une simple question de politesse. Le coup du "Occupez vous de lancer le satellite, je m'occupe de faire la science une fois que vous avez les données", c'est un peu limite. Ce n'est pas une question de rétention d'information, c'est juste un retour normal des choses pour les plus "méritants" (le terme est sans doute mal choisi ici).De ce fait, l'accès aux données est en général l'exclusivité de ceux qui ont travaillé sur la mission, et ce pour une durée variable, mais en général de l'ordre d'un an. Cela garantit que les résultats les plus "évidents" et (souvent) les plus intéressants soient réservés à ceux qui ont rendu la mission possible. Tant pis pour eux si au delà de la période d'exclusivité des données, il y a des résultats qui sont publiés par d'autres et qu'ils n'avaient pas vu. Il n'y a rien d'anormal à cela, c'est la règle du jeu. Pour parler de la mission Planck sur laquelle je travaille, la mission n'est pas encore lancée, mais chacun doit justifier du temps qu'il a déjà passé sur la préparation de la mission en vue de voir qui aura ou n'aura pas accès à telles ou telles données. C'est tout-à-fait logique (et en plus cela aide à que les choses à faire avant le lancement soient faites dans les délais), et il serait énervant pour ceux qui ont beaucoup travaillé là dessus que toutes les données soient immédiatement rendues publiques.Dans le cas de la mission Huygens, l'ESA a fait le pari (si j'ai bien compris) de diffuser certaines données brutes (les images) immédiatement. Je n'ai pas écouté l'émission que tu mentionnes, mais manifestement, le directeur du CNRS n'a pas apprécié. C'est certainement compréhensible. Ce qui est intéressant en tout cas, c'est de voir ce que des "amateurs" (le terme n'est pas spécialement péjoratif ici) ont su faire de ces images en peu de temps. Le mosaïcage s'apparente à une sorte de puzzle et n'est pas très difficile à faire pour qui maîtrise bien un logiciel de traîtement d'image. D'une certaine façon, l'ESA aurait pu prendre le temps de faire un truc un peu plus chiadé que ce qu'elle a fait (le panorama qu'elle a publié aurait quand même pu être enjolivé à peu de prix). Au delà de l'aspect purement cosmétique, il sera intéressant de voir si des publications scientifiques sont faites par d'autres équipes que celle de Huygens d'ici un an. Si c'est le cas, alors il y a problème car les gens de Huygens auront d'une certaine façon été floués. Si c'est purement l'aspect cosmétique que des amateurs éclairés (on peut être bon en traîtement d'image sans faire de l'astronomie) ont su manifestement mieux mettre en valeur, eh bien il faudra voir s'il n'est pas possible de faire ce genre de chose rapidement en même temps que la publications des données brutes, histoire de ne pas donner l'impression que les gens de Huygens n'ont pas été capables de faire aussi bien que des "amateurs" (encore une fois le terme n'est pas péjoratif).La partie difficle à faire dans ce genre de travail, c'est de bien traîter les images, de bien les déformer pour que la mosaïque s'ajuste, de comprendre d'où viennent les différences d'éclairage et de les corriger de façon appropriée. Sans autres données que les images, cela n'est pas possible. Le panorama (très joli) est donc certainement inexact. D'un point de vue esthétique il n'aura peut-être pas grand chose à envier à ce que sera le panorama définitif après traîtement soigné des images, mais il y aura des tas de différences peu visibles mais importantes d'un point de vue scientifique car ce sont elles qui aideront à mieux comprendre la nature, la composition et les propriétés des differents terrains que l'on voit ici. Pour faire court : ce n'est pas parce qu'une image est plus "jolie" qu'elle est "mieux". Par exemple, si on floute la jonction entre deux images parce qu'elles ne se recollent pas bien (du fait de la variation d'altitude entre les deux prises de vue), l'image combinée sera plus jolie, mais il y aura eu perte d'information. Finalement, j'ai l'impression que le problème est un problème de communication de la part de l'ESA. Il aurait sans doute fallu faire un minimum de restauration des images (même de façon pas super rigoureuse) en plus de diffuser les données brutes, quitte à ce que cela se fasse au bout de quelques jours.
  11. un échec titanesque ?

    > achilleConclusion, quand on n'est pas spécialiste du traîtement de données, on ne peut pas dire grand chose. Il y a des tas de raisons qui peuvent faire que les images ici ou là sont de qualité différente. Par exemple, la formation de buée ou de rosée sur l'objectif va dégrader les images. De même de la brume ou des nuages vont ici et là rendre des clichés quasiment inexploitables (à part pour évaluer l'opacité desdits nuages, chose par ailleurs pas inintéressante en soi). Le faible débit de données conjugué à la faible durée de vie de la sonde une fois sur Titan a obligé les scientifiques à faire des choix draconiens quand aux volumes de donnée affectés à chaque instruments scientifiques. La sonde Galileo a d'ailleurs connu des problèmes similaires et considérablement plus gênants. Il y a aussi des raisons budgétaires qui limitent la quantité de science que l'on peut faire dans une mission : initialement, Cassini aurait dû emporter une autre sonde qui aurait dû aller sur Saturne. Du point de vue du grand public, les images sont le seule donnée intéressante, mais du point de vue scientifique, ce n'est pas vrai. Titan a ceci d'unique qu'il a une atmosphère dont la pression au sol est comparable à celle de la Terre, et il est autrement plus important de connaître cette atmosphère et la composition du sol que d'avoir une résolution d'1mm sur les cailloux devant lesquels la sonde s'est posée. Évidemment, les images aussi sont utiles, et comme à chaque fois que l'on ouvre une nouvelle fenêtre d'observation, les observations sont immensément plus précises que ce dont on disposait avant, mais posent en général beaucoup plus de questions qu'elles n'apportent de réponses. Encore une fois, les zooms de Galileo sur Io et Europe ont révélé à chaque fois des détails insoupçonnés sur les cliché de moindre résolution, mais cela ne veut pas dire que ces clichés donnent toute les informations intéressantes sur ces satellites, bien au contraire. C'est la même chose pour Titan : si la résolution de images avait été meilleure, on aurait pu dire de façon parfaitement légitime que ce serait mieux d'avoir une résolution encore meilleure. C'est le côté frustrant de l'exploration spatiale, il faut s'y faire. Plutôt que de dénigrer ou être déçu par ces résultats, il est plus constructif d'essayer d'en tirer le meilleur et de militer pour le lancement d'autres sondes pour Titan ou ailleurs.Pour ce qui est du traîtement des images proprement dit, cela prend toujours énormément de temps de comprendre ce qui a causé une éventuelle perte de qualité, et cela prend encore plus de temps de nettoyer au mieux les images. Patience, donc.
  12. Il ne s'agit psa d'une nouvelle théorie sur les trous noirs, mais d'une nouvelle théorie sur l'évaporation des trous noirs. En Relativité Générale, un trou noir est un objet dont rien ne peut s'échapper. De ce fait, ce que l'on peut en mesurer (sa masse par exemple) est indépendante du processus qui a conduit à sa création. Si on incorpore la mécanique quantique dans les description des trous noirs, on montre qu'ils s'évaporent" très lentement. C'est ce que Hawking a montré dans les années 70. Problème, l'évaporation est elle aussi indépendante du processus qui a engendré le trou noir. De ce fait, la nature des produits rayonnés par un trou noir (essentiellement des photons) est indépendante de ce qui a conduit à sa création. Autrement dit, une fois le trou noir évaporé, on a donc perdu toute information sur la nature des particules qui ont formé le trou noir. En physique classique, ceci n'est pas un problème, mais en mécanique quantique, c'en est un. En jargon technique, on dit que l'évaporation du trou noir viole l'unitarité. De ce fait, depuis pas mal de temps les gens essaient de résoudre ce problème. Hawking a annoncé qu'il l'avait résolu, mais à ma connaissance il n'a pas encore publié son article. Patience, donc.Ceci dit, si ce point est important en terme de physique fondamentale, il ne l'est probablement pas pour l'astrophysique : les trous noirs astrophysiques (de masse stellaire ou plus) s'évaporent tellement lentement que ce problème ne donne pas lieu à quoi que ce soit d'observable et ne change rien à leurs propriétés.
  13. Mission Cassini Huygens

    Pour les parisiens, l'Observatoire de Paris organise une journée Huygens demain. http://calys.obspm.fr/expo/journee_huygens.php
  14. M81 à l'oeil nu ...

    Pour reprendre le post précédent, j'ai trouvé le papier technique suivant à propos des limites en intensité lumineuse des objets observables http://www.cns.nyu.edu/events/vjclub/classics/HechtSchlaerPirenne.pdf . Le papier ne parle pas d'astronomie, mais propose de voir quel est le nombre minimum de photons qui doivent être présents dans un "flash" pour que celui-ci soit observable. Il y a une mine de trucs intéressants dans ce papier. En particulier, les auteurs ont mesuré (suivant un protocole qui n'a hélas pas grand chose à voir avec l'observation astronomique) le nombre minimum de photons nécessaire pour que l'observateur détecte un signal lumineux. Ce nombre varie d'un facteur supérieur à 2 selon les individus, soit près d'une magnitude. De plus, l'article explique que le nombre de photons arrivant sur l'oeil est considérablement plus grand que le nombre de photons arrivant sur le pourpre rétinien. Même si les auteurs du papier ne sont pas explicites sur ce point, il est probable que l'absorbtion par l'oeil soit variable selon les individus. De plus, le nombre minimum de photons nécessaire pour provoquer une stimulation nerveuse semble également variable selon les individus. Il est donc probable que ceux dont tous les paramètres physiologiques soient le plus favorables puissent aller beaucoup plus loin en magnitude que la moyenne. J'ai essayé de convertir ces résultats en magnitude, mais ce n'est malheureusement pas immédiat à faire : dans l'expérience décrite ici, les stimulations lumineuses sont sous la forme de flashs très brefs (où les photons arrivent à peu près tous en même temps sur la rétine), alors qu'en astronomie, c'est un flux continu de photons que l'on observe. Il faudrait savoir quelle est le délais maximum entre le premier et le dernier photon nécessaires pour provoquer une réponse nerveuse pour convertir ces résultats en magnitude. Si quelqu'un a des infos là dessus, je suis preneur.
  15. M81 à l'oeil nu ...

    >yapo & DarkFireProutJe suis entièrement d'accord avec vous, la limite que je donnais est purement théorique, mais finalement pas si éloignée de ce qui est réalisé en pratique (comme quoi un oeil, c'est un truc rudement bien foutu). Il n'est peut-être pas impossible que cette limite soit atteinte chez certains sujets. Pour la pupille à 9mm, j'ai vu ça dans un bouquin, il y était montré l'ouverture max de la pupille en fonction de l'âge des personnes interrogées. Le max de 9mm était atteint (parfois) entre 8 et 20 ans, et plus souvent entre 10 et 15 ans. Après ça décroissait avec l'âge. Moralité, il est peut être plus facile de voir M81 quand on est jeune que quand on est à la retraite...[Ce message a été modifié par dg2 (Édité le 13-01-2005).]
  16. C'est quoi la transparence du ciel ?

    Le 0,28 mag d'extinction ne vaut que pour des objets au zénith, quand ils sont plus bas, cela augmente. (pas trop jusqu'à 45°, beaucoup plus après). A cela s'ajoute la turbulence et surtout la diffusion de la lumière d'en bas qui est LA plaie des astronomes, amateurs ou pas. Et le 0,28, ce n'est que dans le visible, dans l'UV c'est bien pire (et tant mieux pour nous). Mais sinon c'est vrai que dans des conditions optimales on ne perd pas tant que ça.
  17. M81 à l'oeil nu ...

    > DarkFireProutPour la résolution maximale de l'oeil, je suis parti du fait qu'en vision diurne, la densité de cônes au centre de la rétine est légèrement supérieure à la limite de diffraction due à la taille finie de la pupille. Pour une pupille diliatée à 9mm (limite alien, quoi), on a une limite de diffraction de 15". Attention ceci ne correspond qu'à la zone la plus centrale de l'oeil (champ d'environ 2 degrés), et uniquement en vision diurne (cônes) et uniquement pour une dilation maximale de la pupille (donc moins bon quand l'éclairement augmente !). Donc c'est vraiment une limite max. Ce que je n'ai pas trouvé dans les livres, c'est la densité de batonnets en vision périphérique, et surtout le nombre de bâtonnet partagés par les terminaisons nerveuses (plus il y en a, plus on voit des objets peu lumineux mais moins la résolution est bonne). En fait, la plupart des livres que j'ai consultés sur le sujet s'intéressent essentiellement à la vision diurne. Mais le livre mentionné par Antarès apporte des éléments de réponse.Existe-t-il des tests astronomiques pour évaluer la résolution de l'oeil de chacun ? Par exemple au passage de Copernic au terminateur, quand son bord situé du côté sombre commence à être éclairé combien arrivent à le voir ?
  18. "Avant le Big Bang" des fréres Bogdanov

    Le terme d'univers "ekpyrotique" a été introduit dans cet article là http://fr.arxiv.org/abs/hep-th/0103239 (attention, lien potentiellement indigeste). L'idée est d'éviter le scénario de la "création" de l'univers et donc du fameux "instant initial" (ça prendrait du temps d'expliquer, mais je peux le faire si tu en as besoin). Le terme vient du grec "ek" (hors de) et "pyros" (feu) : dans ce modèle, la température n'est pas arbitrairement grande, mais reste finie. Pour la petite histoire, le modèle a été assez polémique, sans doute plus à cause du ton un peu prétentieux de ses auteurs que parce qu'il était inepte. Un des détracteurs du modèle, Andrei Linde, l'a critiqué et s'est amusé à proposer un autre modèle un peu semblable, mais ne présentant pas les défaut du modèle ekpyrotique. Il l'a appelé l'univers "pyrotechnique" (pour dénoncer les "artifices" employés par les auteurs du modèle ekpyrotique pour faire croire que leur modèle était exempt de problème). Comme quoi les cosmologistes savent faire preuve d'humour.
  19. "Avant le Big Bang" des fréres Bogdanov

    "Qu'y avait-il avant le big bang?" en 1ere, c'est pas un sujet facile. Essayons.Tout d'abord le terme de "Big Bang" ne désigne pas un hypothétique "instant initial" de l'histoire de l'univers. Plus simplement, l'univers est en expansion, il était par le passé plus dense et plus chaud. Le terme de Big Bang se réfère à cette idée sans plus de précision. On peut essayer à l'aide de la science de "remonter dans le temps", c'est-à-dire reconstituer le fil de l'histoire de l'univers à des époques de plus en plus anciennes. Plus on remonte loin, moins on est sûr du scénario. C'est un peu comme une enquête policière : on est là longtemps après les événements, et on dispose de quelques indices (pas toujours très parlants) à partir desquels on essaie de reconstituer ce qu'il s'est passé. J'ai essayé de présenter les choses de façon honnête sur le site de la mission Planck, peut-être cela te sera-t-il utile http://www.planck.fr/article394.html Pour résumer : on ne sait pas si l'univers a eu un commencement, s'il a été "créé" (au sens que l'on donne couramment à ce terme. Les enjeux actuels dans ce domaine, c'est de remonter à l'époque où la température était de ... 100000000000000000000000000000 degré (1 suivi de 29 zéros). Peut-on remonter encore plus tôt (et donc plus chaud) dans l'histoire de l'univers ? Il est difficile de répondre avec certitude à cette question (ne serait-ce que parce que l'on ne sait pas ce qu'il s'est passé après...). On peut toujours essayer, mais il est très important de garder à l'esprit que l'on est dans un domaine tellement spéculatif que les idées actuelles feront sans doute sourire nos descendants. Igor et Grichka Bogdanov ont une idée sur la question. Elle reflète plus une imagination fertile qu'une approche scientifique rigoureuse. En tout état de cause pour l'heure, et malgré toute la publicité qu'ils ont pu faire dans les média de leurs salades, *aucun* chercheur ne semble y avoir trouvé un quelconque intérêt, ce qui est sans doute le pire désaveu que l'on puisse imaginer de la part de la communauté scientifique : quand un article scientifique est faux et intéressant, les gens en parlent (pour le critiquer), quand un article est faux et inintéressant, on n'en parle même pas. Qu'en est-il du livre de ces messieurs ? Du point de vue d'un scientifique il ne vaut *absolument rien* : il est truffé d'erreurs, et il est malheureusement probable que ses lecteurs retiendront au moins autant d'âneries que de choses exactes qui sont présentes dans ce livre. Les livres de Hubert Reeves sont à l'inverse un modèle de qualité et d'exactitude et je te recommanderai infiniment plus leur lecture que celle de "Avant le Big Bang". Ceci dit, le style de ce livre détonne un peu par rapport à ceux des autres livres de vulgarisation. Personnellement je n'aime pas (je trouve certains sous-entendus assez malsains pour ne pas dire plus), mais peut-être d'autres apprécieront.En cinq mots (ou cinq lettres) : c'est de la m...eUn dernier truc : contrairement à ce qu'ils essaient d'affirmer dans leur livre, ce sont pas *en sciences* des super génies de la mort qui tue. Par exemple, il leur a fallu 10 ans pour avoir leur thèse (je ne parle même pas des circonstances) au lieu de 3 comme tout le monde. C'est un peu comme si tu redoublais 7 fois ta Terminale avant d'avoir ton Bac. C'est pas super glorieux. [Ajout suite à la remarque de SBrunier : ] Par contre niveau marketting et mauvaise foi, il y en a des pires. Ça leur fait des points communs avec Élisabeth Teissier et certains partis politiques qui peuvent se retrouver au second tour d'une élection présidentielle, autant de personnes auxquelles j'ai quand même du mal à attribuer le qualificatif de "génie".[Ce message a été modifié par dg2 (Édité le 11-01-2005).][Ce message a été modifié par dg2 (Édité le 13-01-2005).]
  20. M81 à l'oeil nu ...

    Ce qui est important, c'est la magnitude intégrée sur une surface égale à la résolution de ton oeil. Deux objets étendus de même magnitude surfacique mais de tailles différentes sont en principe également détectables. Quand les objets deviennent petits, cela change. Un objet ponctuel de magnitude 7 est plus facile à voir qu'un ensemble d'étoiles dont la magnitude intégrée est 7. C'est pour cela que pour les objets ponctuels (étoiles), la magnitude est donnée alors que pour les objets étendus on peut aussi donner la magnitude surfacique.Corollaire, plus on est bigleux, moins on voit facilement les objets faiblement lumineux (la tache qui se forme sur le fond de la rétine est trop étalée pour qu'il y ait suffisamment de photons qui excitent une seule terminaison nerveuse). Ce que je ne sais pas, c'est quelle est la résolution moyenne de l'oeil en vision nocturne (en vision diurne, cela peut descendre en dessous de 20", i.e. le diamètre apparent de Jupiter est décelable). Cela permettrait en principe de calculer quelle est la magnitude surfacique limite détectable (pour des objets de taillle supérieure à la résolution de l'oeil).En pratique, la magnitude d'une galaxie n'est pas du tout uniforme, ce qui rend les considérations de mag surfacique "moyenne" difficile à utiliser.N.B. les mag surfaciques sont données par seconde d'arc carrée, ce qui est très inférieur à la résolution de l'oeil, d'où les chiffres importants.Un lien : http://www.starastronomy.org/Library/loso4.html [Ce message a été modifié par dg2 (Édité le 11-01-2005).]
  21. C'est quoi la transparence du ciel ?

    La transparence du ciel est juste une mesure de l'absorbtion atmosphérique (on parle plus souvent d'extinction). Quelques infos (sky transparency sur Google, qui préfère toujours l'anglais) : http://www.asterism.org/tutorials/tut28-1.htm qui dit que l'extinction moyenne au niveau de la mer est de 0,28 magnitude au zénith, dont une partie substancielle vient de la pollution humaine (il ne s'agit pas de diffusion des lumières des villes, mais des aérosols qui absorbent la lumière des étoiles). http://www.gemini.edu/sciops/ObsProcess/obsConstraints/ocTransparency.html nous dit que à Hawaii c'est plutôt 0,12 . Pour des objets plus bas sur l'horizon ces chiffres augmentent (tout en restant proportionnels) suivant une loi donné dans le premier lien. Donc si M81 était à 45° lors de l'observation, l'extinction au niveau de la mer est de 0,4 magnitude en moyenne. Par une nuit exceptionnelle (air très sec, vent venant de la mer qui diminue considérablement la quantité de poussières), on peut imaginer que celle-ci baisse considérablement (d'un facteur supérieur à 2). A ceci s'ajoute le fait que plus le ciel est transparent, moins la pollution lumineuse est diffusée par l'atmosphère. C'est peut-être ceci qui améliore le plus les conditions d'observation (le fond du ciel est alors moins lumineux).
  22. Mission Cassini Huygens

    Il y a une circulaire de l'union astronomique internationale (que je ne retrouve pas) à ce sujet. En gros : quand un astre est nommé d'après un nom de personne réelle ou mythologique (ce qui en pratique est souvent le cas), il faut utiliser la prononciation de la langue de la personne et l'écrire dans la langue du texte dans lequel on s'y réfère. Ainsi, le nom d'une comète découverte par un russe et portant son nom ne sera pas écrit de la même façon dans un texte français et un texte anglais mais se prononce à peu près pareil (aux approximation d'accent près). Ceci dit, l'anglais étant la langue internationale des publications scientifiques, en pratique c'est le nom anglais qui est le plus souvent utilisé, même si on se doit de la franciser le cas échéant. Dans le cas d'un personnage mythologique, dont le nom diffère selon la langue, c'est le nom de la langue qui doit être utilisé. Donc on doit dire "Japet" et non "Iapetus" dans un texte français (il ne viendrait à personne l'idée de parler de Saturn ou Pluto). cf http://wwwusr.obspm.fr/~crovisie/promenade/prononciation.html , vous avez une heure pour faire l'exercice à la fin de la page.
  23. >BobMarsian,à propos de l'article que tu cites, voici mon sentiment. C'est un peu long, mais il n'est pas inutile d'étayer.Le fait qu'un détecteur présente une réponse montrant une périodicité journalière quand les conditions de l'expérience présentent une même variabilité n'a strictement rien d'étonnant. En fait c'est toujours comme ça. D'une manière générale, les effets de température ont toujours une influence sur la réponse d'un détecteur.Il est important d'avoir à l'esprit que de tels effets périodiques dans des signaux ont le plus souvent une origine instrumentale ou sont dus à des variations extérieures. Parmi les exemples qui me viennent à l'esprit, citons les annonces de "découvertes" de planètes extrasolaires dont la période était exactement égale à une année terrestre : en fait on avait mal soustrait le mouvement propore de la Terre autour du Soleil. Un exemple d'effet de température se produit quand on fait des observations dans l'infrarouge : la sensibilité des détecteurs est très dépendante de leur température, d'où la nécessité absolue de bien les calorifuger, et les problèmes que l'on peut avoir quand on a un satellite en orbite basse qui passe toutes les 100 minutes dans l'ombre de la Terre (d'où la nécessité d'envoyer des satellites comme WMAP et Planck suffisamment loin de la Terre pour que leur ensoleillement reste constant).Il peut bien sûr arriver que l'effet que l'on veuille observer soit précisément une modulation périodique du signal dont la période soit exactement égale à une journée ou une année. Par exemple, la première détection de la masse des neutrinos a été effectuée en remarquant une modulation jour-nuit dans le nombre de neutrinos solaires d'un certain type détecté, modulation qui s'expliquait par la variation d'épaisser de matériau terrestre traversé par ceux-ci. Un exemple de modulation annuelle se produit dans certaines expériences de détection de matière noire : celle-ci forme un "gaz" en gros immobile par rapport au centre galactique, et le mouvement de la Terre par rapport au Soleil induit une variation de sa vitesse par rapport à celui-ci et par suite du taux de détection des éventuelles particules de matière noire par les expériences. Dans de tels cas, on va au maximum essayer de comprendre les autres (nombreuses !) causes possibles de modulation du signal observé à ces fréquences, ce qui en général est très difficile. Pour l'expérience Kamiokande de détection des neutrinos, tout le monde est désormais d'accord que l'effet est réel, même si les sceptiques étaient très nombreux au départ. Pour la manip de détection de matière noire DAMA à laquelle je pense, il n'y à peu près que ceux qui y ont participé qui y croient (autrement dit : ils n'ont convaincu personne qu'ils contrôlaient tous les paramètres de leur expérience). Méfiance donc, surtout quand comme ici la manip n'a pas été étudiée pour mettre en évidence ce genre d'effet.Tout ça pour dire que *sauf* quand on veut explicitement détecter un signal qui à une fréquence égale ou multiple d'une fréquence d'un paramètre extérieur, le premier réflexe est de filtrer le signal pour enlever ce genre de périodicité. Pour ce qui est de l'expérience LR, la périodicité du signal est vraiment évidente, cf http://www.biospherics.com/mars/spie2/Miller-Straat-Levin_FINAL.htm , figure 1 en haut entre 12 et 20 jours martiens. Je pense que toute personne qui a vu cette figure a vu le signal périodique. Il est pour le moins étonnant de remettre ça sur le tapis 23 ans après.Maintenant une analyse personnelle de la façon dont a été écrit l'article (ce genre d'exercice est désormais au programme de DEA, et est ici très instructif).- Figure 1 au milieu, il dit que la variation lente du signal est logarithmique. C'est grossièrement faux, le signal ne croît manifestement pas essez vite au début puis trop vite à la fin, et longtemps après il devient constant. Une loi de puissance avec un exposant entre 0 et 1 ferait certainement mieux l'affaire dans cette zone là. Il faudrait tracer les données suivant un graphe log linéaire ou log log pour mieux s'en rendre compte. Mentionner le "fit" logarithmique ne fait pas bien sérieux.- figure 2 : il fait un "spectre en cosinus" du signal LR. En traîtement du signal, on parlerait de transformée de Fourier (ce qui est équivalent). Ne pas faire l'effort d'utiliser le vocabulaire que 99% des gens utilisent n'est là encore pas le meilleur gage de sérieux (et c'est *très* important quand on veut convaincre le gens).- le gros de l'article me semble consister à "démontrer" un truc évident, à savoir la corrélation entre température martienne et réponse de l'expérience LR. C'est un peu sans objet car c'est évident en plus d'être inutile. L'article devrait se consacrer à en étudier autres les causes possibles, ce qu'il ne fait pas.- Partie I du papier (Introduction). Ne mettre qu'une seule référence dans l'introduction d'un papier scientifique relève de l'incompétence. Mentionner qu'il y a controverse sur les résultats des expériences Viking sans donner de références là-dessus est même à mon sens malhonnête.- Partie II du papier (Methods) : là encore il est un peu léger dans sa description, on aimerait en savoir un peu plus. Pourquoi ne pas mettre de références aux papiers de 1977 qui ont sûrement tous été beaucoup plus précis (quitte à remettre une référence à l'article mentionné dans l'introduction et qui décrit la manip).- Partie III : il dit dès le début qu'il va se focaliser sur un des jeux de données de l'expérience LR. Pourquoi un seul et pourquoi celui-là ? Il ne le dit pas. La conclusion de cette section est là aussi étrange : "However, not as easily explained are: 1) [...] 2) [...] 3) [...] 4) [...]. All of these four phenomena (as well as the large increase in LR after 1st injection and the continuing slow rise in VL2c3) can be accommodated by a biological explanation." Cela fait penser à des "arguments" avancés sur l'existence de Dieu "Comme la science ne peut prouver que Dieu n'existe pas, c'est peut-être bien qu'il existe". Je force un peu le trait, mais c'est clairement pas très sérieux et incroyablement maladruit comme façon de tourner les choses (en plus il ne cite à nouveau aucune référence). - Conclusion : le dernier paragraphe est particulièrement révélateur. Il dit d'abord qu'il y aurait un moyen de tester son modèle. Ensuite il dit que les données ne sont pas très précises mais suggèrent peut-être qu'il a raison ("Probably the strongest evidence would come from the observation of a free-running circadian rhythm with a period significantly different from a Martian sol. [...] Nonetheless, for about a week between the first and second nutrient infusion, there is some indication of a free-running rhythm with a period of 25.46 hr."). Mais il ne développe pas ensuite alors que c'est un point crucial qui en plus étayerait sa thèse.Bref, pour résumer : je ne suis pas spécialiste, mais je peux certainement affirmer deux choses : la périodicité invoquée dans le signal ne constitue en aucun cas un quelconque embryon de preuve de quoi que ce soit, sinon du fait que un jour martien dure dans les 24,66 heures terrestres (ce qu'on savait déjà), et plus généralement l'article est certainement *très mal* écrit. Il n'y a d'ailleurs rien de surprenant qu'il n'ait pas été publié. Tout ceci n'est certainement pas le meilleur moyen de convaincre la communauté scientifique du bien fondé de ses idées, et cela jette un discrédit important sur le sérieux de ces gens là qui, pour résumer, semblent plus attacher à convaincre le grand public que les spécialistes du bien fondé de ce qu'il font (je serais presque tenté de faire un parallèle avec des travaux récents de deux frères jumeaux en physique mathématique, mais cela nous éloignerait sûrement du sujet et risquerait fort de faire faire déraper la discussion...).[Ce message a été modifié par dg2 (Édité le 10-01-2005).]
  24. >BobMarsian "rien n'a été publié dans des revues"... depuis 1997 (je l'ai mis dans mon premier message et pas le suivant, désolé. Depuis qu'il a remis ça sur le tapis (suite sans doute au feuilleton ALH84001), il n'a pas publié, sauf une réponse à une article dans Icarus. Je ne porte pas de jugement là dessus, je ne fais que le noter. Cela me fait imaginer qu'il doit avoir une position "marginale", sans que cela préjuge de qui a raison. L'URL que tu cites http://www.spacedaily.com/news/mars-life-00g.html mentionne je suppose les résultats de 1977 qui ont été publié dans des revues comme il se doit.Sinon, on n'a pas Icarus, ni Journal of Geophysical Research à l'IAP. Il aller aller à Jussieu ou à Meudon.
  25. sedna planète ou pas ?

    Les informations sont là : http://www.iau.org/IAU/FAQ/ Le statut de Pluton : cf http://www.iau.org/IAU/FAQ/PlutoPR.html . Donc on ne change rien, c'est une planète, même si elle a également une référence en tant qu'objet trans neptunien. Wikipedia résume une partie du débat qui a eu lieu en 1999 au sujet du statut de Pluton http://en.wikipedia.org/wiki/Pluto_%28planet%29#Minor_planet.3F .Pour Sedna : http://www.iau.org/IAU/FAQ/sedna.html est clair, c'est pas une planète (trop petit et trop loin), même si d'autres sites semblent indiquer qu'il y a débat http://en.wikipedia.org/wiki/90377_Sedna . En principe c'est l'UAI qui décide. Concernant Sedna, il y a eu une controverse concernant son nom (qui a été annoncé au public avant l'accord de l'UAI, le lien de l'UAI ci dessus étant antérieur à celui de l'officialisation du nom, cf http://www.gps.caltech.edu/~mbrown/sedna/#name ). [Ce message a été modifié par dg2 (Édité le 07-01-2005).][Ce message a été modifié par dg2 (Édité le 07-01-2005).]