dg2

Membre
  • Compteur de contenus

    1 432
  • Inscription

  • Dernière visite

  • Jours gagnés

    6
  • Last Connexion

    Soon available - 42142

Messages posté(e)s par dg2


  1. Les informations sont là : http://www.iau.org/IAU/FAQ/

    Le statut de Pluton : cf http://www.iau.org/IAU/FAQ/PlutoPR.html . Donc on ne change rien, c'est une planète, même si elle a également une référence en tant qu'objet trans neptunien. Wikipedia résume une partie du débat qui a eu lieu en 1999 au sujet du statut de Pluton http://en.wikipedia.org/wiki/Pluto_%28planet%29#Minor_planet.3F .

    Pour Sedna : http://www.iau.org/IAU/FAQ/sedna.html est clair, c'est pas une planète (trop petit et trop loin), même si d'autres sites semblent indiquer qu'il y a débat http://en.wikipedia.org/wiki/90377_Sedna . En principe c'est l'UAI qui décide. Concernant Sedna, il y a eu une controverse concernant son nom (qui a été annoncé au public avant l'accord de l'UAI, le lien de l'UAI ci dessus étant antérieur à celui de l'officialisation du nom, cf http://www.gps.caltech.edu/~mbrown/sedna/#name ).


    [Ce message a été modifié par dg2 (Édité le 07-01-2005).]

    [Ce message a été modifié par dg2 (Édité le 07-01-2005).]


  2. Si on en croit les différents sites mentionnés plus haut, l'expérience LR était effectivement plus précise que les autres (en tout cas, Mr Levin le dit haut et fort). C'est un truc fréquent quand on a plusieurs expériences embarquées sur le même instrument que le pire ennemi du chef d'une des expériences soit le chef d'une des autres expériences (je suis témoin de ça tous les jours) et que l'on ait toujours tendance à croire "ses" résultats que ceux des autres. Cela n'aide pas à l'établissement d'un consensus.

    Dans cet article http://www.biospherics.com/mars/spie/spiehtml.htm Mr Levin fait le point (de façon un peu partiale me semble-t-il) sur les résultats. En particulier il dit

    9. A non-biological explanation of the Mars LR response seemed far simpler than proposing a separate origin of life on Mars. Application of Ockham's Razor, therefore, indicated chemistry or physics over biology.

    D'une certaine façon tout est là : les résultats ne pouvant pas trancher de façon parfaitement claire (en tout cas, le résultats de l'ensemble des expériences ne correspond pas à ce à quoi on pouvait s'attendre à l'époque), Mr. Levin dénonce le fait que l'on en "déduise" que la vie n'existe pas. Sur le principe il n'a pas tort, mais il tombe dans le même piège, puisque peu après il conclut après son argumentaire

    Application of the scientific principle leads to a conclusion: the Viking LR experiment detected living microorganisms in the soil of Mars.

    Il est difficile de se faire une idée de qui a raison quand on n'est pas spécialiste. Peut-être serait-il plus approprié de dire que les expériences ne sont pas concluantes. Après chacun peut faire des paris. Ceci dit, étant donné que Mr Levin n'a rien publié dans des revues scientifiques sur le sujet indique sans doute que ses détracteurs (= qui ne croient pas à la vie martienne) ont de bons arguments à lui opposer. Mais ces arguments ne sont pas présentés sur les sites et il serait très intéressant de les connaître pour mieux se faire une idée. Un truc intéressant cependant se trouve dans cet article là http://www.biospherics.com/mars/spie2/Reprint122.htm . Un des opposants à Mr Levin conclut (tout à la fin du deuxième article)

    In a final point, Dr. Levin states that “none of the 30 nonbiological explanations offered to date has been completely convincing” and infers that his conclusion that “the LR detected living microorganisms in the soil Mars” must thus be correct. We note here that the LR experiment was also extremely controversial and joins the nonbiological explanations as being less than completely convincing. The excitement of searching for life on Mars and elsewhere lives on, but we urge Dr. Levin not to dismiss other hypotheses, especially when they are eminently and rather easily testable.

    C'est un ton qui n'est pas vraiment très cordial et peu commun dans une publication scientifique (j'aime beaucoup le "We note here that the LR experiment was also extremely controversial and joins the nonbiological explanations as being less than completely convincing."). Il doit donc y avoir pas mal d'inimitiés dans tout ce petit monde, et depuis 1976 il y a sûrement eu pas mal de disputes qui ont mal tourné. Et comme il n'y a pas eu d'expériences du même type menées depuis (ce qui doit faire enrager Mr Levin), ça n'est peut-être pas prêt de s'arrêter.

    Ce genre de controverse ne doit pas être si rare. Quand une expérience mesure quelque chose qui n'a jamais été mesuré auparavant et que le résultat obtenu est d'une part inattendu et d'autre part "imprécis", tous les ingrédients sont réunis pour qu'une controverse intense éclate. Même de nos jours, des gens critiquent encore les résultats d'une expérience d'optique de 1887 (celle de Michelson et Morley). Il est donc facile d'imaginer que dans un cas certainement plus ambigu, 30 ans ne suffisent pas à calmer tout le monde.

    Pour anaxagore : l'argument que tu mentionnes est je pense le "4. Too Much Too Soon" de cet article là : http://www.biospherics.com/mars/spie/spiehtml.htm . Apparemment Mr Levin réfute cet argument, mais la figure 6 à laquelle il se réfère est tellement mal foutue qu'il est difficile de se faire une opinion (d'une manière générale, il y a pas mal de trucs que je trouve pas très "pro" dans cet article, ce qui a tendance à me faire douter du sérieux de son auteur, indépendamment du bien fondé de ses arguments).


  3. Une visite sur Google plus tard (n'oubliez pas, Google est notre ami à tous, du moins pour l'instant), voici quelques liens.

    Un organisme manifestement non affilié à aucune institution de recherche semble s'intéresser à la question. Il s'agit de SPHERIX, dont le site est là : http://www.biospherics.com/ . Une visite sur le site permet de trouver la page suivante http://www.biospherics.com/mars/ , où il est fait mention des "preuves" de vie martienne sur foi d'une réanalyse très tardive (1997) des données des sondes Viking (qui se sont posées sur Mars vers 1976). D'autres sites donnent des informations en fait bien plus précises : http://www.msss.com/http/ps/life/life.html et http://www.resa.net/nasa/mars_life_viking.htm . Donc si je lis bien, il y avait 4 expériences dévouées à la recherche de la vie sur Mars. L'une d'elle avait pour but de détecter des composants organiques et a donné un résultat négatif. Par ailleurs il semble certain que l'expérience marchait car elle a réussi à détecter des traces de solvant utilisés pour stériliser la sonde. Les trois autres expériences en détecté une certaine activité chimique dans le sol martien, mais deux d'entre elles ont détecté une activité similaire sur des échantillons tests stériles. Seule une expérience (Labeled Release Experiment, ou LR) a détecté une activité chimique dans le sol et pas dans l'échantillon stérile. Etant donné les conditions physique qui règnent sur Mars et étant donné les résultats des autres expériences (en particulier l'absence de composés organiques), il semble que le consensus soit de dire qu'il existe effectivement une activité chimique dans le sol martien, mais qu'elle est non biologique.

    Il semble cependant que le chef de l'expérience LR, Gilbert Levin, soit le moins convaincu de tous. Ce monsieur semble en fait un ponte de la société SPHERIX ou de l'une de ses filiales, et semble depuis 1997 militer pour la reconnaissance des résultats de "son" expérience. Un rapide coup d'oeil à la bibliographie qu'il met en ligne indique que rien n'a été publié dans des revues, il s'agit essentiellement de comptes rendus de conférences (proceedings) ou de copies de posters affichés dans des conférences. En fait, il a un article publié, dans la revue Icarus en 2002, mais c'est semble-t-il une réponse à une hypothèse émise par d'autres personnes (Tsapin et al.) pour expliquer les résultats de l'expérience LR. La réponse de Tsapin et al. est également accessible par le même lien http://www.biospherics.com/mars/spie2/Reprint122.htm , ce qui est très correct de la part de M. Levin car elle n'est pas très élogieuse à son égard.

    En bref, le consensus semble quand même de dire qu'on a de bonnes raisons de penser qu'il n'y a pas de vie sur les sites d'atterissage des sondes Viking. Il est probable que des expériences plus récentes ont clarifié la situation (Google doit le savoir), mais le doute insinué par les tous premiers résultats aura sans doute la vie dure.

    [Ce message a été modifié par dg2 (Édité le 06-01-2005).]


  4. Pour ceux que cela intéresse, voici la page du projet Darwin de l'ESA axé sur l'exobiologie. Dans l'état actuel des technologies, la stratégie retenue est l'interférométrie spatiale en vue de détecter directement les exoplanètes et surtout d'isoler leur lumière de celle bien plus intense de leur étoile, puis de déterminer le spectre de leur atmosphère afin d'y détecter une signature d'ozone. Il est explicitement dit que l'on s'intéresse à des formes de vie "semblables" à celles que l'on trouve sur Terre et non des formes de vie trop exotiques (ce qui ne signifie bien sûr pas que le sujet soit sans intérêt).

    La page Darwin de l'ESA :
    http://sci.esa.int/science-e/www/area/index.cfm?fareaid=28

    Le descriptif de la mission :
    http://esapub.esrin.esa.it/bulletin/bullet103/fridlund103.pdf

    Sinon, pour ce qui est de la vie basée sur le silicium, voici un lien intéressant donné par Google : http://nai.arc.nasa.gov/astrobio/feat_questions/silicon_life.cfm
    Pour faire court : les propriétés chimiques des liaisons avec des atomes de silicium sont beaucoup moins intéressantes que celles du carbone, et il est très difficile d'imaginer pouvoir former des structures complexes avec du silicium. Les raisons sont détaillées dans le lien ci-dessus.


  5. Le nombre de photons d'un spectre de corps noir décroît exponentiellement à haute fréquence. Le domaine visible correspond à des fréquences de l'ordre de 5.10^14 Hz, alors que la température du rayonnement fossile (2,726 K) correspond à des fréquences typiques de la centaine de gigahertz, soit plus de trois ordres de grandeur de moins. C'est à peu de chose près ce facteur qui explique l'exposant monstrueusement négatif du résultat. Le fait qu'il y ait 1 ou 10^89 photons du rayonnement fossile dans l'univers observable ne change rien au résultat final, ici c'est le rapport des fréquences qui décide. Ceci dit, même dans l'infrarouge ou le millimétrique on ne reçoit pas grand chose. J'essaie de faire le calcul pour demain.

  6. Bon, alors tout calcul fait, le nombre approximatif de photons du domaine visible issus du rayonnement fossile que l'on peut espérer trouver dans un volume égal à celui de l'univers observable est de l'ordre de ....

    10^{-2950}

    c'est­-à-dire qu'il n'y a aucune chance raisonnable qu'il y ait le moindre photon visible du corps noir cosmologique qui atteigne un jour notre rétine. Est-il possible que des photons émis à cette époque soient aujourd'hui détectable dans le visible ? Pour cela il faudrait un mécanisme qui ait généré des rayons gamma à cette époque de façon à ce que ceux ci soiet redshiftés dans le domaine visible aujourd'hui. Un tel mécanisme astrophysique est peu probable : pour former des objets évolués, il faut plus de 300 000 ans, et par conséquent, il est peu probable que des objets astrophysique existent déjà à l'époque d'émission du rayonnement fossile (cela mériterait plus d'explications, mais la conclusion est très robuste). Reste donc la physique des particules. Par exemple, des particules instables dont la durée de vie est de l'ordre de 300 000 ans pourraient laisser une signature, mais de telles particules doivent être peu nombreuses sans quoi on observerait des distortions notables au spectre du corps noir cosmologique ou alors des abondances d'éléments légers (notamment de lithium 6) en désaccord avec la nucléosynthèse. Une autre possibilité serait avec les fameux mais hypothétiques trous noirs primordiaux. En gros, il est possible que dans l'univers primordial aient été créés des trous noirs de petite taille. De tels trous noirs ont tendance à s'évaporer avec le temps, mais plus le trou noir est petit plus il s'évapore vite. Des trous noirs suffisamment petits peuvent avoir le temps de s'évaporer au moment de l'émission du rayonnement fossile, A la fin de sa vie, il émet pendant quelques temps un rayonnement gamma. Il se pourrait qu'une partie du rayonnement gamma reçu sur Terre soit dû à de tels objets (proches), et par suite il se pourrait qu'une infime partie du rayonnement visible provienne de tels objets (plus lointains). Des gens ont déjà mis des contraintes sur la densité de ces objets, mais il est probable que les limites actuelles (pas encore très drastiques) autorisent encore que de temps en temps que notre rétine capte quelques uns de ces photons.


  7. Salut,

    l'expérience la plus "simple" illustrant les effets de relativité du temps est la suivante : je prends deux horloges qui indiquent la même heure. J'en laisse une "immobile" (en première approximation, on peut la laisser à la surface de la Terre), et je fais faire un aller-retour suivant une trajectoire quelconque à la seconde. On peut mesurer la vitesse de la seconde horloge par rapport à la première. En supposant que cette vitesse v est constante durant toute la durée du trajet, le temps du trajet indiqué par l'horloge voyageuse diffèrera de celui indiqué par l'horloge qu'on a laissé immobile par un facteur
    sqrt(1 - v^2 / c^2) (sqrt signifie racine carrée, et c est la vitesse de la lumière). Ainsi, l'horloge voyageuse retarde par rapport à celle qui est restée au repos, c'est-à-dire que le gars qui a voyagé avec a vieilli moins vite que celui qui est resté avec l'horloge immobile : c'est la fameuse expérience des jumeaux de Langevin.

    Cette expérience est à première vue surprenante : a priori, on pourrait considérer ue l'horloge immobile se déplace aussi à la vitesse v par rapport à l'horloge voyageuse, auquel cas c'est elle qui devrait retarder et non le contraire. Néanmoins, il y a une grossière erreur dans un tel raisonnement (dont sont néanmoins friands les détracteurs de la relativité). En effet, par "immobile", on entend en fait "qui n'est soumis à aucune accélération". C'est en cela que une horloge sur Terre est une approximation. L'horloge voyageuse, même si elle se déplace à vitesse constante va devoir accélérer (même brièvement) pour atteindre cette vitesse, et décélérer puis réaccélérer pour repartir dans l'autre sens. D'une certaine façon, c'est parce que l'horloge voyageuse dépense de l'énergie qu'elle a droit à cette cure anti vieillissement. Du fait de la formule donnée ci-dessus, il est clair que l'on doit dépenser une énergie considérable si l'on veut ralentir le vieillissement d'un individu de cette manière : pour accélérer un objet de 100 kg à 98% de la vitesse de la lumière, il fat déployer une énergie de m c^2 / sqrt(1 - 0.98^2), soit 45 milliards de milliards de joules (1 gigawatt pendant 1400 ans si tu préfères).

    Pour être mesurable avec nos technologies, l'effet doit donc être petit, c'est-à-dire soit avec des "horloges" de très petite masse, soit avec des différences de temps très petites. Le premier cas est réalisé quotidiennement dans les accélérateurs de particules. L'"horloge" est simplement une particule instable dont la durée de vie est brève mais bien connue. En accélérant considérablement la particule, on vérifie que sa durée de vie s'allonge conformément aux prédictions de la relativité. L'autre situation correspond à des horloges macroscopiques, que l'on accélère à des vitesses relativement faibles (quelques centaines de mètres par seconde à bord d'un avion de ligne, voire quelques kilomètres par seconde en orbite). L'effet est là aussi mesurable, mais difficile à mesurer car très faible. De plus, d'autres effets de relativité générale sont d'amplitude comparable (deux horloges à des altitudes différentes retardent l'une par rapport à l'autre), cf http://hyperphysics.phy-astr.gsu.edu/hbase/relativ/airtim.html pour les chiffres.

    Il est difficile d'imaginer comment ce type de résultat aurait été interprété s'ils avaient été observés avant que la relativité n'ait été proposée. Sans doute aurait-on mis en cause la précision des horloges. Ceci dit, les seules horloges suffisamment précises pour déceler ces effets sont des horloges atomiques, dont le fonctionnement et la précision ne sont atteints que lorsque l'on tient compte d'un certain nombre d'effets relativistes... Autrement dit, il est très peu probable que l'on saurait atteindre la précision nécessaire pour observer ces effets avec des systèmes purement mécaniques. Ce qu'il est par contre plus raisonnable d'observer sans moyens terriblement sophistiqué, c'est le fait que la vitesse de la lumière est constante (conséquence de la relativité et connu dès 1887 avant la découverte de cette dernière), et le fait qu'il devient très couteux d'accélérer des particules à des vitesses proches de celle de la lumière (chose qui je pense était faisable au début du XXème siècle). Les expériences de dilatation des durées sont d'un point de vue fondamental plus simples, mais en pratique plus difficiles à réaliser.

    Ceci étant dit, une des expériences (enfin, observations) les plus éclatante (si l'on peut dire) des effets de dilatation des durées relève de l'astronomie. Le seul moyen d'avoir à la fois des phénomènes de dilation des durées notables *et* des objets macroscopiques, c'est de regarder très loin : un phénomène que l'on voit se dérouler à un redshift de 1 se déroule 2 fois plus lentement que le même événement que l'on verrait aujourd'hui, en raison de la vitesse de récession de l'objet (qui est un effet de relativité restreinte et non de relativité générale). Par exemple, les supernovae les plus lointaines explosent (en apparence) plus lentement que les supernovae proches. Dans le cas de la supernova, l'"horloge" est la courbe de luminosité de la supernova, qui assez rapidement est déterminée par les désintégrations de certains éléments radioactifs produits par l'explosion (en particulier nickel 56 puis cobalt 56, cf par exemple http://astronomy.nju.edu.cn/astron/AT3/AT32104.HTM , dernière figure).

    [Ce message a été modifié par dg2 (Édité le 03-01-2005).]


  8. Le nombre de photons du rayonnement fossile est de 410 par centimètres cube. En terme de flux lumineux, le rayonnement fossile est bien plus brillant que l'univers lointain : si l'on enlève les avant plans (notre Galaxie et les nuages de Magellan), la brillance du ciel nocturne est d'une étoile de magnitude 10 par degré carré. Le rayonnement fossile est environ 100 fois plus brillant. Cela correspond à une étoile de magnitude 5 par degré carré, soit quelques galaxies M33 par degré carré (la magnitude de M33 est moindre, mais elle occupe moins d'une degré carré). Problème, le rayonnement fossile est dans le domaine micro onde et pas dans le visible. Le nombre de photons visible du rayonnement fossile est très faible et leur brillance par conséquent très inférieure. Je regarde à quelle magnitude par degré carré cela correspond et je vous dis ça tantôt (je suis pas super optimiste).

    [Ce message a été modifié par dg2 (Édité le 03-01-2005).]


  9. Un truc débile auquel je viens de penser (pourtant ça fait 7 ans que je travaille dessus...). Pour l'objet le plus lointain visible à l'oeil nu : allume ta télé, débranche la prise de l'antenne ou du cable, et contemple la belle neige sur l'écran. Une partie de cette neige est due au rayonnement fossile. Age de l'univers au moment de l'émission : 300000 ans, distance de la zone d'émission aujourd'hui : 50 milliards d'années lumière. C'est beaucoup plus loin que M81 ! (et historiquement c'est dans des circonstances assez semblables que le rayonnement fossile a été découvert par Penzias et Wilson)

    [Ce message a été modifié par dg2 (Édité le 27-12-2004).]


  10. Salut,

    le lien ci dessous donne une carte de la noirceur du ciel de métropole http://www.astrosurf.com/anpcn/simulation/cartes/france/hr/france.jpg
    (c'est fou ce qu'on peut trouver sur astrosurf).
    Inutile donc de faire 700 km depuis Paris pour trouver un ciel tres noir, à 150 km à l'est c'est deja bon semble-t-il. Sinon, le plateau de Bure, c'est dans les Hautes Alpes, la ou il y a l'interferometre qui s'est tristement rendu célèbre apres les accidents de téléphérique puis d'hélico qui ont fait 26 victimes. L'accès pour les piétons n'est pas commode : compter facile 5 heures et 1800 mètres de dénivellé depuis la gare SNCF de Veynes, ou un peu plus en durée mais un peu moins en dénivelé depuis la station de ski de Superdévoluy. Ceci dit, je pense que le Pic du midi, beaucoup plus facile d'accès doit permettre de temps en temps de voir M81. Il faut juste avoir conscience que c'est un objet que l'on ne voit pas tout le temps et au mieux par intermittence (c'est l'impression visuelle que je garde).


  11. Salut,

    M33 est visible à l'oeil nu en rase campagne (vue régulièrement du cote du Pont du Gard), meme si elle apparait parfois comme un objet ponctuel plutôt que comme un objet étendu (ce qui nécessite des conditions plus favorables).
    M81 est visible à l'oeil nu dans des conditions exceptionnelles. Personnellement je ne l'ai vue qu'une fois fois (en encore, je suis pas sur) depuis le Plateau de Bure. La difficulté est qu'elle apparait comme un objet ponctuel, et est donc difficile à distinguer d'une étoile proche en direction. cf http://observers.org/tac.mailing.list/2001/July/0592.html pour la marche à suivre. Je peux traduire si cela interesse qqn.

    [Ce message a été modifié par dg2 (Édité le 26-12-2004).]


  12. Meme en incidence rasante, la réfraction est très faible (3 degrés pour le soleil couchant), et elle baisse très vite pour des direction de plus de 20 degrés au dessus de l'horizon. Je n'est pas les chiffres exacts mais je pense que c'est à cause de ça que l'effet n'est pas facile à observer sans matériel sophistiqué.

  13. Pour développer un peu la réponse de hérisson...

    La physique quantique est omniprésente dans quantité de processus physiques. Elle explique la plupart des processus de rayonnement, la structure des atomes, les propriétés des corps solides, etc, etc. Elle est donc omniprésente dans à peu près toute l'astrophysique et la physique de tous les jours.

    Concernant les trous noirs, ces objets sont des prédictions de la relativité générale. Néanmoins, Stephen Hawking a montré que si l'on incorpore la mécanique quantique dans la description des trous noirs, alors ceux-ci ne devraient pas etre complètement "noirs", mais ils rayonnent un peu. En pratique, cet effet est si faible pour les trous noirs stellaires qu'il est complètement inobservable. Il est observable uniquement pour des trous noirs de très petite masse (quelques milliards de tonnes), trous noirs qu'aucun processus astrophysique connu ne permet de créer, mais qui pourraient éventuellement etre créés à des époques beaucoup plus anciennes de l'histoire de l'univers. On n'a à l'heure actuelle jamais détecté le rayonnement de tels trous noirs, ce qui signifie qu'ils ne sont pas très nombreux et que selon toute vraisemblance, ils ne jouent pas de role important dans l'univers. Néanmoins leur détection serait un grand moment dans l'histoire de la physique (et dans celle de Hawking car il obtiendrait le Prix Nobel aussi sec).

    Pourquoi est-on si sur que les trous noirs rayonnent ? Parce que la mécanique quantique prédit que le vide (c'est à dire, pour paraphraser un proverbe célèbre, "ce qui reste quand on a tout enlevé") n'est pas complètement "vide", mais est siège d'une certaine forme d'"agitation" que l'on appelle fluctuations quantiques du vide. En gros, des paires de particules de matière et d'anti matière sont constamment créées pour s'annihiler aussitot. On est sur de cela car dans certaines circonstances, on peut mettre en évidence ces particules. Par exemple, en appliquant un champ électrique très intense, on peut séparer un électron et un anti électron ainsi créés (car ceux ci subissent des forces opposées dans un champ électrique). Evidemment, ceci a un cout d'un point de vue énergétique : l'énergie des particules ainsi extraites du vide est très inférieure à celle déployée pour fabriquer le champ électrique, mais en pratique cela marche.

    De la meme façon, on pense que l'on peut faire la meme chose dans un champ gravitationnel très intense comme on en trouve au voisinage des trous noirs : une paire de particules peut etre créée par des fluctuations quantiques du vide au voisinage d'un trou noir et il est possible (quoique peu probable) que l'une d'elle soit suffisamment loin du trou noir pour s'en échapper alors que l'autre est plus proche du trou noir et soit happée par celui-ci. Dans ce cas, l'énergie "dépensée" par le trou noir pour créer la paire de particules n'est pas complètement récupérée (il n'absorbe que l'une des deux), et le trou noir va donc perdre de la masse (alors qu'il a absorbé une particule) : il va donc finir par s'évaporer. Comme un tel événement est rare, la perte de masse est très lente et il faut une durée considérablement plus grande que l'age de l'univers pour qu'un trou noir stellaire ne s'évapore complètement.

    Cependant, ce phénomène pourait dans une version très similaire etre mis en évidence expérimentalement. La relativité générale indique qu'il n'y a pas de différence fondamentale entre un champ gravitationnel et une accélération, aussi on peut espérer produire ce rayonnement en se contentant d'accélérer un miroir. Les calcul montre qu'un observateur situé loin du miroir accéléré va le voir émettre un très léger rayonnement (proportionnel à son accélération). C'est ce que l'on appelle l'effet Unruh. Là encore, l'énergie dépensée pour accélérer le miroir est très supérieure à celle qu'il va rayonner, mais en principe cela marche, et des gens tout à frait sérieux essaient de mettre cela en évidence, et il n'est en fait pas si irréaliste que cela d'espérer le voir dans un futur pas trop éloigné (en pratique, le rayonnement étant très faible, il faut etre sur qu'il ne provient pas d'un quelconque échauffement résultant de frottements dans le système mécanique qui accélère le miroir, ce qui est très difficile).

    En fait, tout ceci est très intéressant pour la cosmologie, car on pense que ce phénomène s'est produit dans l'univers primordial. Cette fois, ce serait l'expansion de l'univers qui séparerait les particules créées par paires. Et cela s'est peut etre bien produit si l'univers a connu une époque d'expansion très rapide (la fameuse inflation). La conséquence de ceci est que cette fois les particules ainsi créées ne le sont pas de façon uniforme dans l'univers, ce qui donne une possibilité de créer des fluctuations de densité dans l'univers, fluctuations qui ont ensuite évolué pour former les structures (galaxies, amas de galaxie...) que l'on observe aujourd'hui.

    Le phénomène de création de particules par le champ gravitationnel n'a pas étéé mis en évidence pour l'instant, mais ne fait pas beaucoup de doute chez les spécialistes de la question. Ce qui est moins certain, c'est le fait que les objets astrophysiques ce soit formés à partir de telles fluctuations. Néanmoins, il faut bien avoir à l'esprit que créer des fluctuations de densité dans l'univers est "difficile" et tous les scénarios proposés sont d'une façon ou d'une autre un peu "exotiques". Celui de l'inflation est à l'heure actuelle le moins tiré par les cheveux (quoique ce genre d'affirmation soit un peu une question de gout). Un des objectifs des missions d'observation du rayonnement fossile (COBE, WMAP, Planck) est précisément de tester cette idée là, qui pour l'instant s'accomode fort bien des observations. L'avenir dira si un autre modèle plus performant doit etre élaboré pour rendre compte de ces observations sans cesse plus précises.


  14. Oui.

    Historiquement, il y a eu la mécanique quantique dite "non relativiste", qui décrit bien les phénomènes à l'échelle atomique les plus simples (l'atome d'hydrogène par exemple) à l'aide de ce que l'on appelle l'équation de Schrödinger. Quand on est en présence d'un problème où interviennent des vitesses de l'ordre de la vitesse de la lumière ou des énergies de l'ordre de l'énergie de masse des particules, on fait de la mécanique quantique relativiste, où l'équation de Schrödinger est remplacée par l'équation de Dirac. Certaines propriétés de l'atome d'hydrogène comme la fameuse raie à 21cm ne sont pas expliquées par la MQ non relativiste mais par l'équation de Dirac. Quand on s'intéresse à la physique dans les accélérateurs de particules (essentiellement les collisions entre particules), on fait de la théorie quantique des champs. Là encore, certaines raies d'émission de l'atome d'hydrogène (l'effet Lamb) nécessitent d'y faire appel. Quand on s'intéresse à la structure et la stabilité des molécules, on fait de la chimie quantique. Toutes sont des manifestations différentes de la mécanique quantique, et qui poursuivent des buts différents, avec ont donc des techniques et même un vocabulaire qui leur sont propres, mais qui sont basées sur des concepts semblables. J'espère que c'est plus clair.


  15. Pour anaxagore :

    Einstein n'a jamais remis en cause l'efficacité et le pouvoir prédictif de la mécanique quantique. Ce qu'il n'aimait pas c'était son côté probabiliste (d'où son expression célèbre). D'autre part, il estimait que la description que l'on faisait de la mécanique quantique donnait lieu à des résultats pour le moins étranges et choquants dans certaines situations. Pour illustrer son propos, il a proposé la fameuse expérience EPR, dont il avait prédit le résultat (confirmé depuis par Alain Aspect), pour ensuite dire (je ne me souviens plus des termes exacts) qu'un tel résultat est tellement étrange que "la mécanique quantique ne saurait être une représentation satisfaisante du monde". Le débat ne porte donc pas sur la théorie elle-même, mais finalement sur son interprêtation, qui est effectivement sujette à débat depuis près de 80 ans.


  16. Ce qui n'est pas scientifique, c'est de prétendre aujourd'hui que la Terre est plate. Et les détracteurs de la relativité sont en général à ranger dans cette catégorie-là. Cela ne veut effecivement pas dire qu'il ne faille pas tester sans cesse une théorie bien établie. Au contraire, dès qu'une nouvelle observation est disponible il importe de voir si elle n'indique pas un éventuel problème de la théorie en vigueur. Ainsi, la sonde Cassini a servi à tester avec précision certains effets de relativité générale mal contraints jusque là. Quand une nouvelle observation ou une nouvelle expérience se montre en désaccord avec ce qui avait été fait avant, il y a toujours deux possibilités : soit la théorie vient d'être mise en défaut, soit il y a un problème dans l'expérience. L'histoire enseigne que le second cas est largement plus fréquent que le premier. D'une certaine façon, ça a un côté un peu frustrant car il y a peu d'espoir qu'une nouvelle théorie révolutionnaire soit bientôt découverte (il faut être réaliste). D'un autre côté, c'est très rassurant de voir que le cadre théorique est remarquablement bien établi de nos jours, et que l'on peut sans crainte étudier des tas de phénomènes dans ce cadre là.
    Mais en aucun cas cela signifie qu'il n'y a plus rien à faire en physique : ce n'est pas parce que l'on connaît les équations que l'on sait les résoudre et prédire en un claquement de doigts le comportement de tel ou tel système physique.

    Concernant la relativité restreinte, elle est extrêmement bien vérifiée de nos jours. Il y a cependant de temps en temps des gens sérieux qui la remettent partiellement en cause. Par exemple, les rayons cosmique de très haute énergie (c'est-à-dire les particules les plus énergétiques détectées dans la haute atmosphère tererstre) ont un comportement un peu inattendu. Par "haute énergie", on entend des particules élémentaires (éventuellement noyaux atomiques) qui ont une énergie macroscopique du genre de l'énergie cinétique d'une balle de tennis servie par Andy Roddick. Cela correspond à des énergies gigantesques par rapport à l'énergie de masse des particules en question, énergie que l'on ne sait pas faire atteindre à ces particules en laboratoire. Il est possible que de tels événements soient une signature d'écart aux prédictions de relativité restreinte pour des particules très énergétiques. Il est aussi possible que ce soient des particules beaucoup plus massives (et pour l'instant non détectées dans les accélérateurs de particules). Il est aussi possible (et sans doute plus probable si je devais faire un pari) que ce soit nos modèles d'émission et de propagation des rayons cosmiques qui soient imparfaits (ce genre de modèle contient beaucoup plus d'ingrédients que la relativité elle-même, et il est difficile d'être certain qu'on en contrôle bien tous les paramètres). Il est pour l'instant difficile de trancher. Mais les gens qui travaillent sur cela ne claironnent pas à tue-tête que la relativité est à jeter aux orties, que personne n'a réussi à interprêter correctement les expériences validant la relativité, ou que je ne sais quel complot mondial les empêche de diffuser leurs idées.


  17. Pour anaxagore :

    les expériences d'Alain Aspect ne portaient pas sur la propagation de la lumière, mais sur la détection de photons issus de la désintégration de particules. Le but était d'étudier certaines propriétés de ces photons pour vérifier des prédictions de la mécanique quantique. Cela n'a pas grand chose à voir avec la relativité, mais le nom d'Einstein y est associé car c'est lui (avec deux autres gars, Podolsky et Rosen) qui avaient proposé cette expérience, depuis appelée EPR en leur honneur.

    Les résultats d'Alain Aspect ont confirmé les prédictions de la mécanique quantique de façon assez spectaculaire. Ce sont donc des résultats très importants.


  18. Salut,

    la chimie quantique, c'est rien d'autre que la mécanique quantique appliquée à la chmie, c'est-à-dire à la structure des molécule. C'est la seule façon de prédire rigoureusement la structure des molécules, puisque le comportement, la forme de celles-ci relève de la mécanique quantique. En pratique, même des molécules simples sont effroyablement compliquées à étudier dans ce cadre là car les calculs deviennent très vite épouvantablement complexes. Il existe cependant un certain nombre de méthodes d'approximation qui permettent de prédire ou d'expliquer la structure des molécules (méthode de Lewis, méthode VSEPR, etc). Ces méthodes sont beaucoup plus faciles à utiliser.

    La chmie analytique est la branche de la chimie qui a pour objet la séparation des constituants d'un échantillon de matière leur identification et la détermination de leurs quantités respectives. (cf http://www.unine.ch/chim/chw/pdf/chapitre1.pdf ).

    La chmie organique estla branche de la chimie qui s'intéresse aux molécules à base de carbone (c'est-à-dire un paquet de trucs), cf http://www.u-psud.fr/codeugsv2.nsf/histoire1.htm!OpenPage .

    [Ce message a été modifié par dg2 (Édité le 20-12-2004).]


  19. Pour un système gravitationnel, on peut définir une quantité appelée moment cinétique, que de façon imagée on aurait pu appeler "quantité de rotation". Si on ne considère que deux corps en orbite circulaire l'un autour de l'autre (et dont on néglige la rotation propre pour simplifier), leur moment cinétique d'autant plus grand que les corps sont massifs et qu'ils sont éloignés. De plus le moment cinétique a une direction, qui est la perpendiculaire au plan de rotation des deux corps. Quand on a un système de plus de deux corps, c'est la même chose, sauf que le moment cinétique total est la somme des moments cinétiques de chacun des corps.

    En général, le moment cinétique d'un ensemble d'objets n'est pas strictement nul, et c'est précisément cela qui provoque l'aplatissement. Si deux corps suivent des orbites de même rayon mais selon des plans différents, il est possible qu'ils entrent en collision. Par collision, on entend à la fois un réel choc entre les deux objets, mais aussi le fait qu'ils se rapprochent suffisamment l'un de l'autre pour perturber leur propre trajectoire en raison de l'attraction gravitationnelle. L'effet global des ces "collisions" est de contribuer à aligner les vitesses de ces objets, et par suite de faire en sorte que les plans dans lesquels ils orbitent soient de plus en plus alignés. De proche en proche, les collisions vont contribuer à ce que tous les objets se retrouvent dans le même plan et que le système soit donc aplati. Le moment cinétique du système ne change pas dans le processus et quand le système est dans un plan, son moment cinétique est perpendiculaire à ce plan. Ainsi, c'est parce que le système a au départ un moment cinétique non nul qu'il peut s'aplatir.

    Plus le système est collisionnel, plus il est plan, c'est par exemple le cas des anneaux de Saturne. Si on imagine un débris quelconque qui aurait une orbite qui traverserait les anneaux de Saturne, on imagine aisément qu'il finirait rapidement par être heurté par des débris des anneaux et qu'il serait assez vite entraîné dans leur mouvement.
    À l'inverse, un système très peu dense est moins collisionnel et est donc moins aplati. (Il faut en fait regarder le temps que met un système à s'aplatir et le comparer à son âge.)


  20. pour jeanlg :

    on ne sait pas si l'univers est fini ou infini, il est difficile de parler de volume. Par contre, on peut parler de densité ou mieux, de température. On peut aujourd'hui définir une température pour l'univers, c'est celle du rayonnement fossile : 2,7 kelvins, ou -270 degré Celsius. Comme l'univers est en expansion, il se refroidit, et par le passé, il était plus dense et plus chaud. La question est de savoir jusqu'à quelle époque, ou plutôt quelle température notre connaissance actuelle de la physique nous permet de remonter. Donc :

    - Le rayonnement fossile a été émis quand sa température était d'environ 3000 degrés.

    - L'abondance des élément léger (hydrogène, hélium, lithium) nous permet de savoir que l'univers est passé par une phase où sa température était de 1 milliard de degrés. C'est la plus haute température atteinte dans l'histoire de l'univers et à laquelle on a un accès relativement direct.

    - Notre connaissance expérimentale de la physique va jusqu'à des températures de 1000000000000000 de degré (un million de milliards de degrés), on peut donc sans risque remonter jusqu'à cette époque, puisqu'on peut faire des expérience de laboratoire à ces températures.

    - On pense pouvoir extrapoler les lois de la physique sans trop se planter jusqu'à beaucoup plus chaud : 10^29 degrés (un 1 suivi ed 29 zéros). On entre cependant dans un domaine nettement plus incertain.

    - Au delà il est probable que nos connaissances actuelles ne nous permettent plus de dire grand chose, néanmoins, le cadre mathématique de la théorie semble valide jusqu'à 10^32 degrés : c'est la fameuse ère de Planck.

    - Au delà encore, on n'en sait foutrement rien. En particulier, en vertu du point précédent, on ne sait même pas si l'univers est passé par une phase aussi chaude.

    Ensuite, en supposant que la loi qui régit l'expansion est toujours la même aux hautes températures, on peut faire une chronologie des différentes époques. Mais le choix d'un "instant zéro" à partir d'un éventuel "instant initial" de densité infinie est effectivement un peu arbitraire. Dans la cosmologie moderne, on pense que l'univers a connu quand sa température était extraordinairement élevée (10^29 degrés) une phase dite d'"inflation" pendant laquelle sa densité est restée constante, mais dont on n'a absolument pas la moindre idée de la durée. En forçant le trait, ça peut être un milliard d'années comme un milliardième de seconde.

    Dans d'autres modèles, on a un univers éternel qui a connu une phase de contraction avant de passer par la phase d'expansion. Là encore, l'âge de l'univers n'est pas un concept simple.

    Cela illustre le fait que parler de l'ãge de l'univers à telle ou telle époque est un peu délicat. Donc quand on parle (concrêtement) d'âge de l'univers, c'est que l'on calcule à partir d'une époque après laquelle on connaît bien les choses, comme la nucléosynthèse, ou éventuellement la fin de la phase d'inflation (mais tout le monde n'y croît pas, à l'inflation), elle même s'étant terminé environ une seconde avant le début de la nucléosynthèse, ce qui finalement ne change pas grand chose à l'âge actuel de l'univers.


  21. Pour finalement répondre sur le fond à la question des théories alternatives de la relativité...

    La physique classique (celle qui explique le mouvement des objets dans l'espace, du moins tant que leur vitesse n'est pas trop grande, cf ci-dessous) prédit la fameuse loi de composition des vitesses : si je suis dans un train circulant à 100 km/h et que je me déplace à 5 km/h vers la voiture bar située à l'avant du train, alors le chef de gare qui est sur le quai va me voir me déplacer à 105 km/h. Logique. À la fin du XIXe siècle, Maxwell écrit les lois de l'électromagnetisme, où il montre en particulier que la lumière correspond en fait à de petites vibrations de champs électriques et magnétiques qui se propagent, en l'absence de matière, à une vitesse de 299792458 kilomètres par seconde. Problème : les lois de l'électromagnétisme stipulent que la vitesse à laquelle un observateur voit passer la lumière est *indépendante* de sa vitesse par rapport à la source qui l'émet : si j'envoi un faisceau lumineux dans mon train, un passager du train va le voir passer à 299 792 458 km/s, mais le chef de gare, pourtant en mouvement par rapport au train va *aussi* la voir passer à 299 792 458 km/s.

    À l'époque, ce résultat avait (légitimement) laissé pas mal de monde perplexe. Pour réconcilier les deux points de vue, il avait été proposé que les lois de l'électromagnétisme n'étaient en fait valable que par rapport à un certain milieu, l'éther, et que ce nétait que par rapport à l'éther que la lumière se déplaçait à 299 792 458 km/s. Restait donc à mettre en évidence l'éther.

    Là, un petit problème de physique aide à comprendre comment procéder. Supposons que l'on a deux nageurs nageant exactement à la même vitesse et qui sont au bord d'un fleuve de 100m de large. Demandons au premier nageur de se rendre sur le point le plus proche de la rive opposée (situé à 100m de lui, donc) et de revenir. Il va donc parcourir 200m. Demandons au second nageur de remonter le cours de la rivière sur 100m (tout en restant à proximité de la rive puis de revenir. Là aussi on lui demande de parcourir deux fois 100m. Il est cependant facile de montrer que les deux nageurs ne vont pas mettre le même temps pour effectuer leur trajet repsectifs car l'angle que fait leur trajectoire par rapport au courant n'est pas le même : si on suppose que les nageurs nagent à 3 km/h et que le courant et de 1 km/h, le premier nageur va mettre 4 min 15 s pour effectuer son aller-retour, alors que le second mettra 4 min 30 s.
    (par exemple, le second nageur va remonter la courant à une vitesse de 3 - 1 = 2 km/h par rapport à la rive, et mettra donc 3 minutes pour faire 100m, et au retour, il se déplacera de 3 + 1 = 4 km/h par rapport à la rive et mettra 1 min 30 s pour revenir).

    Bref, on devine que si la Terre se déplace par rapport à l'éther, en envoyant des faisceaux lumineux dans différentes directions, les temps d'arrivée des faisceaux (ou autrement dit, la vitesse moyenne à laquelle ils effectuent l'aller retour) ne va pas être la même. L'expérience (assez semblable à celle des nageurs) a été faite pour la première fois par la lumière par Michelson et Morley en 1887 et a donné un résultat inattendu : la lumière se déplaçait à la même vitesse quelle que soit la direction dans laquelle elle se propageait.

    L'explication de ce phénomène a été donnée par Einstein en 1905 : la loi de composition des vitesses n'est plus valable quand les vitesses sont grandes, ce qui implique alors tous les "paradoxes" de la relativité car le temps ne s'écoule pas à la même vitesse selon la trajectoire que l'on a.

    Mais des sceptiques ne veulent pas de ce résultat certes déroutant, et préfèrent imaginer que Michelson et Morley se sont trompés dans leur manip. Vous avez beau leur expliquer que en 1887 leur expérience n'était certes pas d'une précision déroutante, mais qu'on s'en fout parce qu'on l'a refaite maintes fois depuis et que les prédictions de la relativité (notamment les phénomènes de dilatation des durées) sont vérifiés tous les jours, ils ne veulent rien entendre. Beaucoup de physiciens amateurs (expresion péjorative, à l'inverse de celle, infiniment plus noble, d'astronome amateur) s'imaginent que *aujourd'hui* les gens *croient* à la relativité à cause d'une expérience datant de 1887. C'est ridicule, l'éxpérience de Michelson et Morley en 1887 est importante dans l'histoire des sciences car c'est la première à avoir mis en évidence le phénomène, mais cela ne veut pas dire que c'est la seule à y avoir réussi !

    Un autre dada des détracteurs de la relativité est de dire "Si on fait l'expérience de Michelson et Morley dans une pièce, alors l'air de la pièce entraîne l'éther dans son mouvement, et donc on ne peut mesurer des temps de propagation différents. Il faut doinc la refaire, mais à l'air libre (et tant qu'à faire au somment d'une colline)" Et là les problèmes commencent : il reste difficile d'imaginer que si la Terre entraîne l'éther dans son mouvement, cela n'affecte pas d'une façon ou d'une autre son orbite (ce que l'on n'observe pas). Mais, suivant le raisonnement pas super rigoureux de ces gens, pour mettre en évidence l'éther, il faut faire l'expérience de Michelson et Morley à l'air libre, mais là de *gros* problèmes surgissent, car si la vitesse de la lumière est de 299 792 458 km/s *dans le vide*, elle est inférieure à cetet valeur dans l'air (ou dans l'eau, ou dans n'importe quel milieu). Et la différence dépend de façon compliquée de sa température, et de la densité de l'air. Et comme il est immensément difficile (pour ne pas dire impossible) d'avoir à l'air libre un air parfaitement isotherme, sans turbulence et sans le moindre mouvement de convection (chose que tout astronome amateur sait bien...), l'expérience réalisée à l'air libre va donner des résultats de toute façon complètement inexploitables. Les détracteurs de la relativité ont beau retourner le problème dans tous les sens, on ne peut pas tirer grand chose de ce genre de manip.

    En fait, le seul moyen de faire proprement l'expérience de Michelson et Morley est de la faire dans le vide, c'est-dire dans des conditions où ses détracteurs vont inévitablement dire que le montage optique entraîne l'éther dans son mouvement car il alors confiné dans la cavité où il se trouve. D'une certaine façon, la théorie de l'éther est une théorie quasiment invérifiable car elle suppose des conditions expérimentales impossible à réaliser dans la pratique. À titre personnel, il m'apparaît que c'est la raison principale pour laquelle la théorie de l'éther a encore la vie dure auprès de certains.


  22. Pour répondre à la première question posée ici, le terme de "pré Big Bang" réfère en général un modèle sérieux qui n'a rien de Bogdavien. L'idée est de supposer que au lieu d'une phase initiale très dense et très chaude, l'univers est parti d'un état de densité quasi nulle et s'est contracté. Il se serait ensuite échauffé lors de cette phase de contraction, et aurait connu une phase de "rebond" à l'issue de laquelle on retrouve le scénario habituel d'un univers en expansion et qui se refroidit. L'idée du pré Big Bang est a priori intéressante, mais la phase de rebond n'est à l'heure actuelle pas comprise du tout (on ne sait du tout pas quel mécanisme permettrait à l'univers de passer d'une phase de contraction à une phase d'expansion), et plus grave, ce modèle fait des prédictions quant à la formation des galaxies qui sont très incompatibles avec les observations. Donc à l'heure actuelle les modèles de pré Big Bang posent beaucoup plus de problèmes qu'ils n'en résolvent et de ce fait ne sont plus beaucoup étudiés. Mais la situation changera peut-être un jour.

    [Ce message a été modifié par dg2 (Édité le 19-12-2004).]