dg2

Membre
  • Compteur de contenus

    1 433
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Messages posté(e)s par dg2


  1. Attention à ne pas tout confondre, M Gratacos.

    Le principe du GPS, c'est : des satellites, avec une horloge, qui connaissent parfaitement leur orbite et donc transmettent en permanence un signal du style "je suis à tel endroit, il est telle heure". Le gars sur Terre reçoit plusieurs signaux et par triangulation déduit où il se trouve (et quelle heure il est, mais on s'en fout un peu dans ce contexte). Tout, absolument tout, repose sur la mise en pratique du calcul précis par le satellite du "je suis à tel endroit, il est telle heure". Si ça foire, (genre le satellite est à 3 km de la position annoncée), tout le reste foire aussi.

    La chose difficile dans le GPS, ce ne sont pas les corrections dues au retard de propagation du signal émis par le satellite GPS que vous mentionnez (qui sont effectivement particulièrement sensibles à la propagation dans l'ionosphère), mais à cette éphéméride transmise par le satellite (qui est supposée parfaitement connue par le site que vous mentionnez). Un satellite genre GPS est en orbite intermédiaire (typiquement 20000 km d'altitude). Il fait une révolution en quelques heures. Prenons 12 heures, soit (à la louche) 40000 secondes. Le satellite parcours dans les 120000 km (2 pi fois 20000) en 12 heures, soit dans les 10000 km/h, soit 3 km/seconde. Sa vitesse est donc de l'ordre de 10^-5 fois celle de la lumière. Les corrections relativistes dues aux effets de dilatation du temps sont de l'ordre de v^2/c^2, soit 10^-10. En un jour (100000 seconces, à la louche), cela fait des écarts de 10^-5 secondes ! Et au vu de la précision espérée (quelques nanosecondes pour une précision de quelques mètres), c'est immense ! Même chose avec la relativité générale. Les corrections dues au redshift (enfin, au blueshift dans ce contexte) gravitationnel sont de l'ordre de g R / c^2, où g est l'accélération de la pesanteur sur Terre, R le rayon terrestre et c la vitesse de la lumière. (c'est un peu plus compliqué en vrai, mais on va faire comme si, on est dans un calcul d'ordre de grandeur). Cela donne dans les 10^-11, soit pas vraiment beaucoup moins que l'ordre de grandeur précédent. L'avance de l'horloge embarquée à bord du satellite est de l'ordre de la microseconde par jour. C'est plus faible que le précédent, mais absolument pas négligeable. Encore une fois : la précision intrinsèque d'une horloge est immensément meilleure que les effets relativistes perturbatifs (4 nanosecondes contre plusieurs dizaines de microsecondes), et il faut impérativement corriger la dérive de l'horloge, soit à l'émission, soit au niveau du récepteur (en pratique, c'est un mélange des deux, ce qui est fort facheux, en fait).

    Bref, bref, bref, si l'horloge embarquée à bord du satellite est supposée stable et initialement synchronisée avec une horloge au sol, alors elle va très vite dériver par rapport à celle-ci. Et comme pour connaître la position du satellite, il faut savoir à quelle vitesse fonctionne l'horloge embarquée sur la satellite, on est obligé de tenir compte de tous les effets qui entrent en ligne de compte dans cette dérive, dont une pelletée d'effets de relativité restreinte et générale (cf ci-dessus). Maintenant, il reste difficile de tester la relativité avec ces satellites, non pas parce que ces effets sont négligeables (bien au contraires), mais parce que s'y superposent d'autres effets tout à fait classiques et d'amplitude importante (genre pertubations dues à la non sphéricité de la Terre, par exemple, qu'on diminue au mieux en mettant les satellites en orbite intermédiaire plutôt que basse), qui sur le long terme dominent (et nécessitent de fait des recalages réguliers de l'éphéméride des satellites).

    [Ce message a été modifié par dg2 (Édité le 29-12-2005).]


  2. Règle n°1 : ne jamais faire confiance à ce que disent les ignorants diplomés d'une université de troisième zone.

    Règle n°2 : toujours avoir à l'esprit que tel un mythe des temps jadis, une élucubration d'ignorants peut être de loin (mais alors de très très loin) inspirée de choses vraies qu'ils n'ont pas compris.

    Je n'écoute pas les deux jumeaux, mais je pense savoir (contrairement à eux) à quoi ils font allusion.

    Le fond diffus cosmologique (= le rayonnement issu de l'époque dense et chaude de l'univers primordial) émet principalement aux alentours de 30 à 100 GHz. C'est significativement plus haut en fréquence que ce que reçoit une antenne télé. Il y a effectivement plusieurs mentions dans la littérature de vulgarisation que la neige que l'on voit sur une télé non réglée est en partie due au fond diffus cosmologique. Si on fait le calcul, attendu l'étroitesse de la bande reçue par une antenne télé, et que l'on compare à l'émission typique qu'elle reçoit de la part d'un émetteur, ben... le "une partie", ce n'est vraiment, vraiment pas grand chose.

    Bref : on reçoit une infime portion de fond diffus cosmologique avec une antenne hertzienne (sans doute beaucoup moins de 0,01%, à la louche, je n'ai jamais fait le calcul détaillé du fait de ma méconnaissance du fonctionnement d'une antenne télé). Le gros de l'émission vient de l'atmosphère et du Soleil. Il y a donc là une erreur qui est véhiculée par les professionnels (par exemple Wayne Hu, http://background.uchicago.edu/~whu/beginners/introduction.html ), et qui a été (inévitablement) reprise par des incompétents (les jumeaux).

    Maintenant, en plus de cela, le fond diffus cosmologique n'est pas parfaitement uniforme. Il a une intensité qui varie (très) légèrement en fonction de la direction d'observation. Pourquoi ? Parce que l'univers primordial n'est pas parfaitement homogène, il y a des zones plus denses et plus chaudes que d'autres. Comme ces variations sont faibles, on peut légitimement parler de petites fluctuations de densité. Maintenant, le son, ce n'est rien d'autre que des fluctuations de densité, de température et de pression qui se propagent dans un milieu uniforme (l'air). Donc philosophiquement, les petites fluctuations d'intensité peuvent être vues comme la "photographie" des fluctuations générées par d'immenses ondes sonores (en taille, pas en amplitude). Dans cette optique (sans jeu de mot), on peut effectivement reconstituer le "bruit" moyen de ces ondes sonores, c'est-à-dire générer des sons qui ont autant de grave et d'aigu que les fluctuations que l'on voit. On fabrique alors un son (complètement artificiel) qui a en gros des caractéristiques apparentées à ces fluctuations de densité que l'on voit par l'intermédiaire du fond diffus cosmologique. C'est assez facile à faire (on prend le spectre de puissance des fluctuations observées, et modulo un décalage violent en fréquence, on demande à n'importe quel programme adéquat de générer un bruit ayant le même spectre). La différence avec le "vrai" son du Big Bang et celui généré, c'est en terme de fréquence : le son que l'on "voit" par le fond diffus cosmologique n'a pas une fréqunce entre 40 et 20000 Hz comme l'oreille humaine peut entendre, mais correspond à des fréquences de l'ordre de 10^-16 à 10^-13 Hz. C'est du très, très, très, très grave. Mais si on se permet de décaler toutes les fréquences d'un facteur adéquat (genre 10^17), alors on peut transformer ça en son audible. Les gens qui l'ont fait ont trouvé ça http://library.wolfram.com/infocenter/MathSource/5083 . C'est sans garantie, je n'ai pas vérifié les détails de leurs calculs (c'est certainement incorrect, mais ça ne doit pas être trop faux). Le truc notable, c'est que le son est de plus en plus grave, conséquence du décalage vers le rouge (et donc vers le grave) dû à l'expansion (ils ont certainement bon sur ça).

    Evidemment, ces deux "bruits" (l'un éventuellement détecté par une antenne télé et l'autre résultant des infimes fluctuations d'intensité du fond diffus cosmologique, totalement indétectables hormis avec des moyens très sophistiqués) n'ont strictement rien à voir. Que les deux jumeaux aient fait la confusion ne serait pas surprenant, mais peut-être ont-ils fait mention uniquement de l'un d'eux. C'est rare, mais des fois ils arrivent à ne pas faire d'erreurs en répétant des choses justes qu'ils ne comprennent pas.

    [Ce message a été modifié par dg2 (Édité le 29-12-2005).]


  3. A propos du C...

    Les photos prises par les astronautes étaient argentiques. Elles ont ensuite été reproduites par les processus habituels au retour des astronautes. Il n'est pas exclu qu'une poussière se soit imiscées sur le négatif au moment d'une de ses duplications, d'où le C, C qui a disparu quand la même photo a été à nouveau dupliquée, mais sans cette poussière. Que celui qui n'a jamais remarqué que le même négatif puisse donner des photos d'allure assez différente jette la première poussière à la NASA. D'ailleurs, comme le fait très bien remarquer le site complotesque susnommé, la forme du C est largement assez irrégulière (surtout en épaisseur) pour que la thèse de la poussière sur le négatif soit au moins aussi crédible que celle du complot (euphémisme).

    [Ce message a été modifié par dg2 (Édité le 28-12-2005).]



  4. Cher Monsieur Gratacos,

    j'ai parcouru divers forums où vous avez déjà (sans succès) tenté de convaincre les gens du bien-fondé de vos travaux. J'ai également jeté un oeil sur votre site. Si j'ai bien compris ce que vous dites en note sur une des pages, vous n'êtes certainement pas dans la situation la plus confortable pour faire de la science, ou quoi que ce soit d'autre, d'ailleurs. Peut-être vos difficultés probables à accéder à des ouvrages de référence sur les sujets qui vous intéressent vous empêchent-elles d'appréhender avec plus de lucidité la relativité et d'autres disciplines. Je ne peux que vous inciter à faire l'effort pour essayer de comprendre à quel point la façon dont on sait décrire le monde aujourd'hui avec la physique est efficace, pertinente et fiable. Vous réaliserez alors qu'il n'est point besoin de révolutionner une théorie physique qui a déjà fait ses preuves.

    Il existe de nombreux sites proposant des cours de relativité. Je n'ai malheureusement pas de références sous la main, mais je peux déjà vous mentionner
    http://cours.cicrp.jussieu.fr/public/physique/bobin_04001/
    http://www.phytem.ens-cachan.fr/telechargement/Module%20Mb/coursMb.pdf
    http://www.lkb.ens.fr/cours/notes-de-cours/jmr/electromagnetisme.htm

    J'espère que vous saurez y trouver des réponses à ce que vous cherchez. Il est certes moins grandiose de comprendre ce qui se fait que de révolutionner la science, mais l'émerveillement devant la capacité de la science à rendre intelligible le monde n'en est pas moins grand, pour peu que l'on fasse l'effort de l'appréhender.


  5. > marcbarbat

    la vulgarisation est un art difficile car il doit allier accessibilité des concepts abordés *et* un minimum de rigueur. Le langage employé par la science n'est pas (loin s'en faut) celui de la littérature de vulgarisation, et certains concept résistent plus ou moins bien à ce changement de description, et certains résultats mathématiques restent largement plus facile à décrire avec quelques termes mathématiques qu'avec les mots du langage courant, surtout quand on ne veut pas trop dénaturer les concepts sous-jacents. L'équation célèbre E = m c^2 n'est pas une intuition géniale d'Einstein, mais quelque chose qu'il a découvert en explorant les conséquences de la relativité restreinte : elle ne figure pas dans l'article historique de la relativité restreinte, mais a été publiée quelques mois plus tard dans un article séparé. Comme il s'agit d'une conséquence mathématique (pas si compliquée que cela, du reste) de la relativité restreinte, il n'y a pas vraiment d'autre choix que d'expliquer en gros ces mathématiques (certes avec des mots simples). Autrement dit, et pour vous éviter de lire ce qui suit, E = m c^2 n'est pas une intuition géniale qu'Einstein aurait eu en observant je ne sais quel truc dans la nature. Ce qui suit ci-dessous est une modeste tentative d'explication d'où ça sort, en tout cas du point de vue de la façon dont on enseigne la relativité aujourd'hui (qui diffère sans doute de la façon dont on voyait les choses en 1905).


    L'idée de la relativité, c'est de dire que le temps et l'espace ne sont pas des entités si différentes que cela. C'est là une conséquence assez inévitable de l'observation que la vitesse de la lumière est indépendante du mouvement de celui qui l'observe. Conséquence, tout observateur a sa propre notion du temps, qui ne correspond pas exactement à celle d'un autre observateur.

    La façon dont on décrit cela est la suivante : habituellement (en mécanique classique), on utilise un système de coordonnées rigides (une sorte de solide de référence). On peut toujours imaginer qu'une position donnée (décrite par trois nombres) correspond à la trajectoire de ce que l'on appellera un "observateur de référence", lié à ce solide de référence. Sans perte de généralité, on peut imaginer que chacun de ces observateurs fictifs emporte avec lui une horloge. Comme le temps est absolu en mécanique classique, il est possible de synchroniser ces horloges les unes par rapport aux autres sans difficulté. En gros, un observateur va voir un autre observateur, il synchronise son horloge avec celle de l'autre, et revient à sa place. Comme le temps est absolu, si ensuite il se déplace, le temps indiqué par son horloge va systématiquement être le même que celui de la personne à côté de laquelle il se trouve.

    En relativité, cela ne marche pas. Le temps vécu par un observateur (= temps indiqué par une horloge qu'il emporte avec lui, aussi appelé temps propre) diffère en général de celui d'un autre observateur, même s'ils avaient dans le passé synchronisé leurs horloges respectves. Donc cette fois ci, quand on définit un système de coordonnées, on a la donnée des positions relatives des observateurs privilégiés décrivant les coordonnées d'espace *et* la description de comment on synchronise leurs horloges respectives. Le système de coordonnées n'est plus la donnée de trois coordonnées spatiales avec un temps absolu, mais la donnée de quatre coordonnées, une de temps et trois d'espace.

    Résultat des courses, quand on décrit la trajectoire d'un observateur, on va devoir déterminer la donnée de :
    - de la position de celui-ci par rapport aux observateurs privilégiés en fonction du temps indiqué par une horloge embarquée par cet observateur (son temps propre),
    - du retard ou de l'avance de cette horloge (son temps propre) par rapport à celle de l'observateur privilégié à côté duquel il se trouve à un instant donné.

    Bref, en mécanique classique, le temps est absolu, ce qui permet de décrire la trajectoire d'un observateur par trois fonction x(t), y(t), z(t), alosr qu'en relativité le temps n'est pas absolu et l'on décrit une traectoire par
    x(tau), y(tau), z(tau) et t(tau) , cette dernière correspondant au retard ou à l'avance du temps vécu par un observateur (tau) par rapport à un temps d'observateur de références (t), appelé temps coordonné.

    Et E = m c^2 dans tout ça ? On y vient. Les équations qui décrivent l'évolution des coordonnées spatiales x, y, z sont en gros les même que celles de la mécanique classique : on peut définir une accélération qui en gros va être donnée par la somme des force qui s'exercent sur l'observateur dont on cherche à connaître la trajectoire. Reste à déterminer la signification physique de la fonction t(tau). Je passe sur les détails, mais quand on écrit cette équation, on trouve quelque chose qui ressemble furieusement à l'équation sur l'énergie : la variation d'énergie est égale au travail des forces (si ça vous dit quelque chose), *mais* chose inattendue, dans ce qui ressemble à l'énergie dans cette formule apparaît un terme supplémentaire, égal à m c^2, d'où l'idée que ce terme peut décrire une certaine forme d'énergie. Cela ne dit pas que une partie de la masse peut être convertie en énergie, mais cela le suggère fortement. Cela n'explique pas ce qu'est l'énergie, ni pourquoi l'énergie se manifeste sous telle ou telle forme, cela dit seulement (mais c'est déjà pas mal) que ce que l'on appelle masse dans la description intuitive que l'on donne à ce mot correspond en fait à une forme d'énergie et peut varier lors de certains processus. La relativité ne dit pas de quels processus il s'agit (réactions nucléaires, par exemple), juste que la chose est possible.


  6. En mécanique classique, l'énergie cinétique est donnée par la formule E = (1/2) m v^2, où v est la vitesse. C'est vérifiable expérimentalement. L'apport de la relativité restreinte, c'est de dire que en fait l'énergie est donnée par E = gamma m c^2, où gamma = 1 / sqrt(1 - v^2/c^2).

    N.B. sqrt = racine carrée

    Si on effectue un développement limité de cette expression pour les petites vitesse, on trouve E = m c^2 + (1/2) m v^2.

    Le premier terme est bien sûr considérablement plus grand que le second, mais mis à part dans les processus très énergétiques (genre nucléaires), il reste constant, c'est pourquoi on ne l'avait pas vu. Enfin, si, on commençait à le voir sans le comprendre avec la radioactivité. À l'époque personne ne savait ce qui produisait l'énergie permettant au radium de rayonner. En fait, c'est m c^2 : le radium rayonne parce qu'il perd un peu de masse. La perte de masse étant très faible (et heureusement, sinon ça ferait une bombe atomique), elle n'avait pas été détectée. Incidemment, Einstein n'a *pas* écrit E = m c^2 dans ses articles de 1905, mais plutôt m = E / c^2 (ça change pas grand chose, mais bon, la formule ne date pas de là). Ci-dessous la conclusion de la traduction anglaise (par Einstein lui-même) de son papier ( http://www.fourmilab.ch/etexts/einstein/E_mc2/www/ ), qui finalement apporte une réponse des plus claires à la question initiale :

    "If a body gives off the energy L in the form of radiation, its mass diminishes by L/c². The fact that the energy withdrawn from the body becomes energy of radiation evidently makes no difference, so that we are led to the more general conclusion that

    The mass of a body is a measure of its energy-content; if the energy changes by L, the mass changes in the same sense by L/9 × 10^20, the energy being measured in ergs, and the mass in grammes.

    It is not impossible that with bodies whose energy-content is variable to a high degree (e.g. with radium salts) the theory may be successfully put to the test.

    If the theory corresponds to the facts, radiation conveys inertia between the emitting and absorbing bodies."

    [Ce message a été modifié par dg2 (Édité le 21-12-2005).]


  7. On ne sait pas bien quelle est la population exacte de naines brunes car il est très difficile de les détecter directement. Ce que l'on sait par contre, c'est que la quantité totale de matière ordinaire est trop faible poour expliquer la masse observée des galaxie, d'où la nécéssité de la matière noire. Tout au plus peut-on mettre des limites supérieures sur le nombre de naines brunes du fait de ce que l'on sait de la répartition de masse des étoiles (on appelle ça la fonction initiale de masse, ou IMF en anglais), cela laisse quand même l'espoir d'un paquet de naines brunes.

  8. Et un tantinet de réflexion s'impose à celui qui est aussi ignorant que sûr de lui. Bonté :

    Question a) 1 million de km mesuré par l'observateur situé sur Terre, moins d'un million pour le gars qui envoie le signal : c'est la contraction des longueurs.

    Question b) Effet Doppler classique : le temps entre deux bips est diminué d'un facteur 1 - beta = 1 - v/c (l'intervalle entre deux bips est plus court) et augmenté d'un facteur gamma = 1/sqrt(1-v^2/c^2), c'est l'effet de dilatation des durées. Dans l'effet Doppler radial c'est le terme classique qui domine, le temps de réception est donc de 1 seconde multipliée par gamma*(1-beta) = sqrt((1-beta)/(1+beta)) < 1.

    Question c) C'est l'inverse, la fréquence mesurée sur Terre est plus élevée. C'est très vaguement paradoxal car le gars qui envoie le message vit "plus lentement" que le gars qui le reçoit, mais l'effet dominant c'est qu'il se rapproche, donc le message arrive plus vite, car la fin du message voyage moins longtemps que le début. Je sais pas trop qu'est ce fameux "compteur", mais si le gars a envoyé 30 millions de bips en une seconde, le terrien il en reçoit autant, mais pas pendant le même temps.

    Si maintenant le gars qui envoie le message se déplace transversalement (ce qui pourrait être ce que veut dire la seconde volée de questions, mais c'est tellement mal posé que c'est difficile d'être sûr), alors il n'y a plus d'effet Doppler radial (terme en 1 - beta), la seule chose qui reste c'est l'effet Doppler transverse (le terme en gamma). Le signal est cette fois redshifté d'une facteur gamma, ce qui n'est rien d'autre que l'effet de dilatation des durées : vu du terrien, le gars qui envoie le message "vit" plus lentement.



  9. Oui. Le candidat le plus simple, c'est une particule supersymétrique. En deux mots, il y a un truc (non encore observé) qui s'appelle la supersymétrie qui dit qu'à chaque particule connu est associée une autre particule, dite supersymétrique, mais qui a sinon les mêmes caractéristiques. Problème, si c'était aussi simple, on devrait voir ses particules dans les accélérateurs de particules. Ce n'est pas le cas, ce dont on déduit que si la supersymétrie existe, elle est "brisée", c'est-à-dire que les particules supersymétriques n'ont pas la même masse que les particules ordianires. Comme on ne les voit pas dans des collisions à 100 GeV, la masse es particules supersymétriques est supérieure à ce chiffre. Le rapport avec la choucroute ? une particule supersymétrique ne peut pas se désintégrer uniquement en particules ordinaires, il doit rester au moisn une particule suspersymétrique. Résultat des courses, la particule supersymétrique la plus légère (plus de 100GeV quand même) est forcément stable car elle ne peut se désintégrer en un ensemble de truc qui comporte une particule supersymétrique plus légère. La difficulté, c'est que ces particules supersymétriques (appelées souvent LSP pour lightest supersymmetric partner) interagissent extrêmement peu avec les particules ordinaires. La détection directe est donc très difficile. C'est pourquoi on les cherche dans les accélérateurs de particules où on espère les créer dans des collisions et les détecter au moins indirectement en remarquant qu'il manque des trucs dans ce qui est détecté pour assurer la conservation de l'énergie et de l'impulsion.

  10. > 1er : Je croyais que "c" signifiait "vitesse de la lumière"
    > et Bruno nous dit "c est une constante égale à 300
    > millions"?? Admetons !Mais 300 millions de quoi ?

    c, c'est la vitesse maximale des interactions. Si le photon est sans masse alors c'est effectivement la vitesse de la lumière. Si le photon a une masse, alors c'est juste un pouième de plus (qui dépend de la fréquence considérée). Après, mesurer la vitesse de la lumière en mètres par seconde donne dans les 300000000, mais dire que c'est une "constante" est un peu ambigu car cela dépend beaucoup de la définition des étalons de longueur et de durée utilisés. Les seules "constantes" en physique sont eds quantités sans dimension qui ne dépendent pas de l'étalon de mesure considéré (ex. la rapport masse de l'électron / masse du proton).

    > 2ème : N'y a t'il que l'uranium qui permette la fusion
    > nucléaire?

    Non, bien sûr. Mais plus le noyau est lourd, plus la fusion est énergétique et moins la masse critique est importante. Donc c'est plus intéressant d'utiliser l'uranium.

    > 3ème : On sait produire de l'energie en se servant de
    > matière(bombe atomique) mais sait on créer de la matière a
    > partir d'énergie ?

    Oui. Le LEP est un accélérateur électron-positron. La masse totale des deux particules est de 1 MeV, soit 2000 fois moins que la masse du proton. Pourtant, la collision fabrique des tas des particules (instables) largement plus massives que le proton. Le boson de Higgs (bon d'accord, il est loin d'être clair qu'on l'a détecté) fait dans les 100 GeV, soit 100000 fois plus que la masse des particules incidentes.


  11. Megacam http://www.iap.fr/Actualites/Archives/2005/galaxies_cfhtls/images/23216_mr.jpg http://www.cfht.hawaii.edu/News/MegaPrime/MegaCam-CCDmosaic-Scale.jpg est installée au foyer du miroir primaire du CFHT. Je crois que parmi les grands télescopes seul Subaru est équipé pour recevoir un instrument de ce type dans la même configuration, ce qui doit sans doute correspondre à une matrice CCD d'une taille assez ahurissante.

  12. Ce n'est pas 360°/24h. Un astre situé sur l'équateur céleste parcourt 360° en 24 h, soit (enfin, pas tout à fait en 24h, mais bon). Un astre qui n'est pas situé sur l'équateur ne parcourt pas un grand cercle et de ce fait parcourt un arc qui ne fait pas 360° de long, mais 360° fois le cosinus de l'élévation de l'astre. En d'autres termes, si on observe un astre situé sur l'équateur céleste avec un instrument qui fait un champ de 1 degré, l'astre mettra 24h/360 = 4 minutes pour traverser le champ, alors que si l'élévation de l'astre est de 45°, il mettra 24h / (360 * cos 45°) = dans les 5 minutes 36 pour traverser le champ. Si l'astre est le long de l'axe de rotation de la terre, il ne quitte jamais le champ.

  13. Tant que le vaisseau spatial est en chûte libre (moteurs coupés), il subit la même accélération que l'astronaute qui est situé dedans. L'accélération relative est donc nulle, l'astronaute flotte dans sa cabine. C'est évident pour nous à l'heure de l'ère spatiale, mais ne l'a pas toujours été. Si on lit par exemple "De la Terre à la Lune" (ou "Autour de la Lune" ?) de Jules Verne, on voit d'ailleurs qu'il se trompe sur ce point. Il dit (de mémoire) que les passagers sont attirés vers le bas quand ils sont proches de la Terre, et ne flottent que lorsque les attractions terrestres et lunaires se compensent. Autre illustration du fait que dans le temps tout ceci n'avait rien d'évident, l'idée du principe d'équivalence, qui soustend la relativité générale d'Einstein, lui est venue après qu'il ait lu un fait divers tragique relatant la mort d'un couvreur tombé d'un toit. Einstein a ensuite raconté que dans sa chûte, si le couvreur avait laché ses outils, ceux-ci seraient restés immobiles par rapport à lui, et que cet infortuné ouvrier "était en donc en droit de se considérer au repos".

    [Ce message a été modifié par dg2 (Édité le 30-11-2005).]


  14. Tous les labos ont leur press-book où ils archivent précieusement les interventions publiques de leurs chercheurs. Les communiqués de presse sont donc encouragés entre autres pratiques de relations extérieures. Comme la pratique se répand peu à peu, elle est assez révélatrice de l'état d'esprit de certains qui n'y voient rien d'autre qu'une légitimation de la qualité de leurs travaux, parfois médiocres. C'est une question de déontologie de savoir faire bon usage des communiqués de presse, j'ai plusieurs fois eu l'occasion de m'en rendre compte dans mon entourage immédiat.

    Il ne faut pas voir le mal partout : le papier en question parle de choses qu'on ne pouvait pas faire avant Spitzer. C'est uniquement l'interprétation de ces résultats préliminaires qui est problématique. Le papier rapporte la mesure de choses difficiles à mesurer, et qui pourront sans doute à terme aider à comprendre la genèse des premières étoiles massives. Donc le papier fera sans doute date. Le côté sensationaliste du communiqué de presse est d'autant plus surprenant.


  15. C'est vrai que si on lit l'article sur astro-ph, ils font plein de trucs, et dans la dernière section, page 9, ils commencent juste à se demander : "can the observed amplitudes of fluctuations be accounted for by sources at high z ?", ce qui en français direct se traduirant en "est-ce qu'on voit vraiment des étoiles de population III ?", ou, mieux, "est-ce bien là la lumière émise par un tas d'étoiles de population III ?" Suit après une discussion en disant que selon les modèles actuels, on ne peut pas répondre par l'affirmative à cette question, mais que si les modèles sont faux, alors ptêt ben que oui. Monsieur Lapalisse, si vous nous écoutez... Il y a aussi peu après la remarque surréaliste disant que en fait on n'est pas vraiment sûr que il est en pratique possible d'observer le rayonnement des étoiles de population III, mais que ne fait on s'est peut-être trompé.

    Bref, c'est un papier assez bizarre, où mon sentiment distant est que les auteurs ont eu un problème déontologique, tiraillé entre le devoir d'honnêteté et l'attirance du côte sensationnaliste sur lequel ils se sont sans surprise épanchés dans les communiqués de presse.


  16. Il y aura surtout absorbtion par les réflexions successives des miroirs. Le mieux que l'on sache faire, c'est une centaines de réflexions. Après le faisceau perd trop d'intensité et se dégrade du fait des imperfections de surface du miroir. C'est la limite actuelle des détecteurs d'ondes gravitationnelles : les bras du détecteur font quelques kilomètres de long, le faisceau laser étant réfléchi une centaine de fois, pour un trajet réel de quelques centaines de kilomètres.

  17. Mpc/h = mégaparsec par constante de Hubble exprimée en unités de 100 km /s /Mpc (ce qui fait que h est un nombre de l'ordre de 0.7 en gros). Cela vient du fait que l'on n'est pas sûr de la valeur de la constante de Hubble, et que les distance sont exprimées en fonction de celle-ci : le rapport d/H de la distance à la constante de Hubble est donné par le produit c z, c étant la vitesse de la lumière et z le redshift. En d'autre termes, la distance s'exprime en fonction du redshift par

    d [Mpc / h] = 3000 z .

    Ceci ne vaut que pour des objets par trop proches (dont le mouvement propre dominerait l'effet de redshift cosmologique) et pas trop éloigné où la loi de Hubble n'est plus valable.

    À titre personnel, j'aurais tendance à mettre un bémol sur les adjectif dithyrambiques utilisés par ces auteurs pour décrire leurs travaux, qui ne me semblent pas être la crème de la crème de ce qui se fait de nos jours dans ce domaine. Mais ça n'en reste pas moins du travail acceptable.