AlSvartr

LHC, l'aventure continue...

Messages recommandés

salut simon,

alors comme ca, vous avez un Z et un W ? ca fait pas des masses .. :-)
rappelles-nous combien le LEP en a craché au juste ??
c'était du genre 10000 par jour un truc comme ca ?

va falloir vous déchainer, le contribuable s'impatiente derriére son PC..
on veut du lourd, du très lourd meme .. Zinos, Winos, Higgs, Higgsinos tout est bon!
mais les verifications du modele standard --- pas bon ca, comme argument..

et puis il va bien y avoir une folle période rumeurs avant les annonces officielles ? c'est humain - tu nous tiendras au courant j'espere

bosoniquement votre
Thierry

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut Thierry,

Au niveau du LHC il ne faut pas oublier que nous ne sommes pas encore à la luminosité "de croisière" c'est à dire que pour le moment nous avons des collisions à relativement faible fréquence. Nous sommes toujours dans une période de "commissioning" des faisceaux (stabilité, courant, remplissage des paquets, largeur,...). Dans les prochaines semaines/mois nous allons gagner plusieurs ordres de grandeur, pour finalement atteindre quelques dizaines de MHz, ce qui équivaudra si tout va bien à environs 10/fb de luminosité intégrée par an. En terme de production de Z, cela équivaudra à quelque chose comme 10 millions par an. Au LEP ils ont produit des Z en grande quantité, certes mais "seulement" 18 millions pendant les 6 premières années de run (run I), en sachant que le LEP ne pouvait pas produire grand chose d'autre que des Z et W vu que l'énergie de centre de masse était fixée à des valeurs proches de la masse de ces particules (pour le run II c'est une autre histoire).


Quant à dire que l'argument de la "vérification" du Modèle Standard n'est pas bon je répondrais de la manière suivante: de un la vérification du MS est un passage obligé, ce n'est pas un choix ;-) Et de deux il y a encore bcp de choses à investiguer dans le MS, il est extrêmement important de le réétudier à cette énergie pour diverses raison!! Et notamment certains points pourraient être cruciaux pour ce que l'on pourrait découvrir au delà du MS.

Et puis, faut pas oublier que les premières collisions à 7 TeV datent d'un mois et demi à peine...au Tevatron et au LEP ça a pris des mois et des mois entre les premiers faisceaux et les premières observations...donc même si ça semble "long", les choses vont en fait très vite...tellement vite que nous devons faire face à bcp de projets (mesures, validations des détecteurs, des codes de reconstruction,etc...) en même temps ! :-)

Pour répondre à ta dernière question, il va y avoir sûrement bcp de rumeurs, mais tout étant très cadenassé, il faudra du très lourd pour que des infos du style "nouvelle physique" soit annoncées. Mais il est clair que des pseudo-découvertes de signatures type gluinos et/ou squarks, on va y avoir droit, et peut-être même déjà cet été. Par contre pour le Higgs on va attendre un peu ;-)

Je vous tiendrai bien sûr au courant de ce qu'il se passe mais je suis tenu au silence pour ce qui n'est pas officiellement "approuvé" par CMS...

a+

Simon

[Ce message a été modifié par AlSvartr (Édité le 16-05-2010).]

Partager ce message


Lien à poster
Partager sur d’autres sites

>>"Et puis, faut pas oublier que les premières collisions à 7 TeV datent d'un mois et demi à peine"<<

Exactement Simon ! Autant dire que le LHC n'en est qu'aux prémices et qu'il y a encore du pain sur la planche.. Il ne suffit pas d'appuyer sur un bouton, cette machine est sans précédent, elle exigera longtemps encore un lourd apprentissage.. D'ailleurs, si j'ai bien compris, ça se passe plutôt bien actuellement..
De fait, n'ayons pas la mémoire courte : c'est plusieurs années qu'il a fallu au LEP pour atteindre une luminosité optimale..

Comme écrit plus haut, la mission première du LHC est de confirmer le modèle standard, d'en balayer et d'en préciser le maximum d'aspects... C'est déjà beaucoup de travail.. Et c'est bien ce qui était prévu depuis sa conception. C'est primordial, et cela permettra peut-être on l'espère d'aller plus loin, au delà du modèle, pour déterminer les phénomènes vraiment nouveaux.

Les contribuables (qui ont bien d'autres sujets de préoccupation) devront donc être patients..


[Ce message a été modifié par vaufrègesI3 (Édité le 16-05-2010).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Simon, pour le dire simplement, tu dirais que le Bosondrome fonctionne à combien de % de sa puissance nominale ?

S

Partager ce message


Lien à poster
Partager sur d’autres sites

Hello,


Vaufrège: Oui ça se passe plutôt très bien! Disons que tout est mis en oeuvre pour que des résultats fiables tombent le plus rapidement possible.

Superboson: Hmmm ça dépend de ce que tu appelles puissance nominale. Donc là nous allons tourner pendant un bon bout de temps à 7 TeV et ensuite monter directement à 14 TeV. Donc en terme d'énergie nous en sommes à la moitié de la peformance maxi du LHC en terme d'énergie.
Maintenant le paramètre vraiment crucial qui est en cours d'amélioration est la luminosité, c'est à dire le nombre d'interactions par unité de section efficace et par unité de temps (exprimée en cm^-2s^-1, barn^-1s^2, femtobarn^-1s^-1 etc...) qui, multiplié par la section efficace d'un processus donne le nombre de évènements produits par unité de temps. Par exemple si le prend la section efficace de production du boson Z qui est de l'ordre du nanobarn, un lumi intégrée sur une certaine période qui serait de 1/fb, avec 1 fb=10^(-6)nb, nous donnerait un million de Z produits. Cette luminosité dépend de plusieurs facteurs:

1) le nombre de paquets de protons dans les faisceaux: pour le moment nous tournons avec seulement quelques paquets par faisceau, ce nombre va augmenter jusqu'à plus de 3000.

2) la section du faisceau: plus le faisceau est étroit, plus la probabilité que les protons de faisceaux différents se rencontrent est grande

3) le nombre de protons par paquet est au maximum de 10^11, nos n'en sommes pas très loin au dernières nouvelles.

Donc si on fait une grossière estimation (je n'ai pas les chiffres exacts en tête), nous sommes encore plusieurs ordres de grandeur en dessous de la luminosité maximale, c'est à dire que nous allons gagner le même facteur en terme de production de particules d'ici à quelques semaines si tout va bien.

a+

Simon

Partager ce message


Lien à poster
Partager sur d’autres sites

Voilà deux ou trois évènement peut être un peu plus clairs que sur les videos:

Z se désintégrant eu deux jets

Z se désintégrant eu deux électrons

Voilà ;-)

[Ce message a été modifié par AlSvartr (Édité le 16-05-2010).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Simon:

tu donnes la luminosité et la section efficace de production du Z (comme exemple) ce qui permet d'en déduire le nombre de Z créés, mais quelle est l'efficacité des grands detecteurs ? quelle est la fraction des évenements qui sont réellement identifiés comme tel ?

T

Partager ce message


Lien à poster
Partager sur d’autres sites

Ca dépend du processus, de l'état final considéré, de l'algorithme d'analyse, du but visé,... Dans un cas classique comme la détection d'un Z se désintégrant en électron ou muons, l'acceptance (c'est à dire la probabilité que les deux électrons "tombent" dans le volume du détecteur) multipliée par l'efficacité de reconstruction des leptons doit être aux environs de 80% pour des triggers (c-à-d les l'électronique et informatique de déclanchement de l'acquisition) "normaux".

S.

Partager ce message


Lien à poster
Partager sur d’autres sites

Ben non, le LHC n'est pas fermé en Juillet/Août, ça bosse !

Dans son message du 16/05 ci-dessus, Simon rappelait que - je le cite " le paramètre vraiment crucial qui est en cours d'amélioration est la luminosité et il en donnait les critères..

Ceci, daté du 3 juillet, confirme les progrès en ce domaine :

http://www.techno-science.net/?onglet=news&news=7979

Les deux semaines consacrées au développement de la machine ont porté leurs fruits. Le week-end dernier, le LHC a fonctionné pour la physique avec trois paquets d’intensité nominale (?10^11 protons) dans chaque faisceau.
Un nouveau record d'environ 8x10^29 /cm²/s a ainsi été atteint pour la luminosité de crête et la luminosité intégrée reçue par les expériences depuis le 30 mars a pu être doublée, passant à 32 nb^-1 au cours du week-end


Un document du CERN pour en cerner les aspects techniques :

http://cdsweb.cern.ch/record/1234572?ln=fr


Extrait :

La luminosité nominale du LHC représente déjà un grand défi tant pour la machine que pour les expériences. Les aimants situés près des points de collision et des parties internes des détecteurs doivent pouvoir résister à de forts rayonnements et à des températures extrêmement élevées. Le CERN procède déjà à une première amélioration des aimants quadripolaires du LHC situés près des points de collision (les « triplets internes »). Cette première phase, axée sur la technologie du niobium, vise à augmenter la luminosité du LHC d’un facteur 2 à 3 au-dessus de la valeur nominale de 1034, probablement la limite pour cette technologie. Grâce à ce nouveau modèle d’aimant, reposant sur un supraconducteur en niobium-étain, une luminosité de 5 à 10 fois la luminosité nominale pourrait être atteinte, ce qui multiplierait le nombre de collisions à chaque croisement de paquets et rendrait plus complexe le traitement des résultats des interactions.

Commentaires de Simon bienvenus (s'il n'est pas à la plage)

[Ce message a été modifié par vaufrègesI3 (Édité le 06-07-2010).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Un article du Monde à l'occasion d'une conference internationale qui se déroule actuellement à Paris et ui réunit un milliers de chercheurs
http://www.lemonde.fr/planete/article/2010/07/23/la-physique-repousse-les-frontieres-du-monde-connu_1391529_3244.html

La semaine prochaine, ce quotidien consacre une enquête en 6 volets consacrée au CERN...

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut salut,

Non suis pas encore allé à la plage, et en fait de plage c'est plutôt à 3000 mètre à l'obs du pic du Chateau Renard que je vais la semaine prochaine :-)

Hé non en effet le CERN est loin d'être fermé pendant juillet et aout. Et spécialement cette année-ci ça a été la course contre la montre pour présenter des résutlats à ICHEP (Paris). Non pas que cette conférence soit spécialement plus importante que d'autres (il y a quelques autres très grosses conférences) mais elle était particulièrement bien placée: quelques mois après les premières collisions à 7 TeV, de quoi avoir une bonne quantité de résultats concernant la redécouverte du Modèle Standard: W, Z, top, mesures de sections efficaces, etc... Donc ça a été assez lourd ces dernières 10 semaines, mais pour autant que je sache ça s'est bien passé à tout les niveaux (y compris ceux auxquels j'ai bossé :-))

Sinon Vaufrège, concernant la lumi, les gars des accélérateurs y travaillent. Il y a 10 jours on a réussi à passer à près de 40 kHz au niveau des triggers hardware, et ce pendant pas mal d'heures, ce qui nous a permis d'atteindre une lumi intégrée de 350/nb, et je dois dire que j'ai ma petite fierté car j'étais aux commandes de la validation des donnée tracker pour la semaine qui a permis cette augmentation :-)


voilà voilà...mtnt on espère rapidement avoir une augmentation supplémentaire de la lumi instantanée afin de commencer à toucher les régions de l'espace de phase où pourraient se trouver des particules lourdes et colorées telles que les gluinos et squarks...

a+

Simon

Partager ce message


Lien à poster
Partager sur d’autres sites

Communiqué de presse :

La conférence ICHEP 2010 sert de vitrine aux premiers résultats du LHC

Genève, le 26 juillet 2010.

Les premiers résultats produits par le LHC du CERN1 sont actuellement dévoilés à l'ICHEP, la plus grande conférence internationale sur la physique des particules du monde, devant les plus de 1000 participants réunis à Paris. Les porte-paroles des quatre grandes expériences LHC – ALICE, ATLAS, CMS et LHCb – présentent aujourd'hui les mesures résultant des trois premiers mois de fonctionnement du LHC à 3,5 TeV par faisceau, soit une énergie trois fois et demie plus élevée que l’énergie atteinte à ce jour dans un accélérateur de particules.

Ces premières mesures sont l'occasion pour les expériences de redécouvrir les particules qui se trouvent au cœur du Modèle standard, la théorie qui correspond à la compréhension actuelle des particules de matière et des forces s’exerçant sur elles. C’est là une étape essentielle avant de passer à de nouvelles découvertes. Parmi les milliards de collisions déjà enregistrées, certaines contiennent des « candidats » pour le quark top, pour la première fois dans un laboratoire européen.

« Redécouvrir nos vieux amis du monde des particules montre que les expériences du LHC sont bien préparées à l'exploration d’un territoire nouveau, indique Rolf Heuer, directeur général du CERN. Il semble que le Modèle standard répond aux attentes. Maintenant, c’est à la nature de nous montrer ce qu'il y a de nouveau. »

La qualité des résultats présentés à l’ICHEP témoigne de l’excellente performance de la machine LHC et de la grande qualité des données obtenues dans les expériences. Le LHC, qui en est encore à ses débuts, progresse régulièrement, se rapprochant des conditions de fonctionnement finales. La luminosité – qui correspond au taux de collisions - a déjà augmenté d'un facteur de plus de mille depuis fin mars. Ces progrès fulgurants concernant le faisceau du LHC sont aussi impressionnants que la vitesse à laquelle les données résultant de milliards de collision ont été prises en charge par la Grille de calcul mondiale du LHC, qui permet aux données des expériences d'être analysées dans des centres participant au projet à travers le monde.

« En l’espace de quelques jours, nous avons trouvé des W, et ensuite des Z, les deux particules porteuses de la force faible, découvertes ici au CERN, il y a près de 30 ans, souligne Fabiola Gianotti, porte-parole de la collaboration ATLAS, qui compte 3000 personnes. « Grâce aux efforts de toute la collaboration, en particulier des jeunes chercheurs, toutes les opérations - acquisition de données par le détecteur, étalonnage, traitement des données, distribution, et enfin analyse de physique - se sont déroulées rapidement et efficacement. »

« C’est incroyable, nous avons « redécouvert » très vite les particules déjà connues : depuis les résonances les plus légères jusqu'au massif quark top. Ce qui est présenté ici à Paris n’est que la première récolte d’une campagne intensive de mesure précise des propriétés de ces particules, explique Guido Tonelli, porte-parole de CMS. Ce travail minutieux et systématique est nécessaire pour pouvoir définir un fond connu sur lequel va se détacher tout nouveau signal. »

« L’expérience LHCb est faite sur mesure pour étudier la famille des particules b, qui contient des quarks beauté, explique Andrei Golutvin, porte-parole de l’expérience. C’est donc très stimulant de voir que nous trouvons déjà des centaines d’exemples de ces particules, clairement révélés par l’analyse de nombreuses traces de particules.

« L'exploitation en cours, avec des collisions de protons, nous a permis de faire des rapprochements avec des résultats issus d'autres expériences, à des énergies plus basses, d'éprouver et d'améliorer les extrapolations réalisées pour le LHC, et de préparer le terrain pour les exploitations avec ions lourds », déclare Jurgen Schukraft, porte-parole de la collaboration ALICE. L’expérience ALICE est optimisée pour étudier les collisions d’ions de plomb, qui seront réalisées au LHC au cours de cette année.

Deux autres expériences ont déjà bénéficié des premiers mois de fonctionnement du LHC à 3,5 TeV par faisceau. LHCf, qui étudie la production de particules neutres dans les collisions proton-proton, afin de comprendre les interactions des rayons cosmiques dans l’atmosphère terrestre, a déjà rassemblé les données dont elle a besoin sous une énergie de faisceau de 3,5 TeV. TOTEM, un détecteur qui doit se rapprocher des faisceaux pour mieux scruter les protons, commence ses premières mesures.

Le CERN exploitera le LHC sur une période de 18 à 24 mois, avec pour objectif de fournir aux expériences suffisamment de données pour réaliser des avancées notables concernant différents processus de physique. Avec la quantité de données attendue, soit, pour les physiciens, 1 fb-1, les expériences devraient être bien placées pour faire des avancées intéressantes dans de nouveaux territoires, et éventuellement réaliser des découvertes importantes.

Partager ce message


Lien à poster
Partager sur d’autres sites

Waip, une luminosité de 1/fb serait magnifique, mais il reste encore de chemin avant d'arriver, et les difficultés vont croissant (notamment au niveau de détecteurs, pas seulement des accélérateurs).

+

S.

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonjour Simon, merci pour ces commentaires..

Les détecteurs, tu es très bien placé pour le savoir
J'avais noté cet extrait d'un bulletin du CERN qui le précisait clairement - je cite :

La luminosité nominale du LHC représente déjà un grand défi tant pour la machine que pour les expériences. Les aimants situés près des points de collision et des parties internes des détecteurs doivent pouvoir résister à de forts rayonnements et à des températures extrêmement élevées. Le CERN procède déjà à une première amélioration des aimants quadripolaires du LHC situés près des points de collision (les « triplets internes »). Cette première phase, axée sur la technologie du niobium, vise à augmenter la luminosité du LHC d’un facteur 2 à 3 au-dessus de la valeur nominale de 1034, probablement la limite pour cette technologie. Grâce à ce nouveau modèle d’aimant, reposant sur un supraconducteur en niobium-étain, une luminosité de 5 à 10 fois la luminosité nominale pourrait être atteinte, ce qui multiplierait le nombre de collisions à chaque croisement de paquets et rendrait plus complexe le traitement des résultats des interactions. « Les expériences ATLAS et CMS devront améliorer leurs détecteurs afin de relever le défi que cela représente, confirme Sergio Bertolucci, directeur de la recherche et de l’informatique.. »

Bon séjour, bon ciel et bonnes observations dans le Queyras !

Partager ce message


Lien à poster
Partager sur d’autres sites

Du site Futura-sciences :

Dernières nouvelles du boson de Higgs au Fermilab

A l’occasion de la 35e conférence internationale sur la physique des hautes énergies à Paris, les physiciens du Fermilab ont annoncé qu’ils pensaient désormais avoir exclu de façon claire une bande de valeurs possibles pour la masse du boson de Higgs. Si ce dernier existe, il est devenu plus probable qu’il soit léger et décrit par une théorie supersymétrique.

Article en entier :
http://www.futura-sciences.com/fr/news/t/physique-1/d/dernieres-nouvelles-du-boson-de-higgs-au-fermilab_24579/

Partager ce message


Lien à poster
Partager sur d’autres sites

Hmmm...je m'insurge :-) :-) le matraquage médiatique de la supersymmétrie (SUSY) encore frappé, cette article est complètement biaisé...

Alors en effet ils commencent à exclure la région qui avait déjà été exclue par le LEP (c'est à dire sous les 114 GeV environs, ce qui en soit est une petite "breaking news" car le Higgs du Modèle Standard (SM) commence à avoir quelques difficultés à se cacher :-)

MAIS, cela n'implique pas quoi que ce soit en terme de SUSY. Si on ne trouve pas le Higgs du SM (ce qui en soit n'est pas très surprenant) et si on part du principe qu'un secteur scalaire (le boson est un scalaire car spin nul) est nécessaire, cela veut juste dire que ce secteur scalaire est juste plus complexe que prévu...c'est tout!
En fait l'effet d'annonce pro-SUSY est motivé par le fait qu'il ont trouvé un excès d'évènement dans une région où le signal sur bruit est grand (5 évènements au lieu de un) dans le contexte d'une analyse SUSY. Ce qu'ils oublient de dire, c'est que cet excès est complètement incompatible avec la production d'un Higgs léger (section efficace, reconstruction de masse) :-D

Bon revenons au secteur scalaire, ça veut dire quoi avoir un secteur scalaire plus complexe?

Un secteur scalaire doit, pour fonctionner (c'est à dire pour être à la base d'une brisure spontanée de symétrie donnant au bosons de jauge W et Z leur masse), posséder une structure particulière; techniquement on dira: un structure en multiplets de Higgs. Le secteur de Higgs dans le Modèle Standard possède un seul "doublet" de Higgs c'est à dire 4 champs scalaire, dont trois sont "absorbés" par les bosons de jauges pour acquérir un degré de liberté supplémentaire qui est la masse, et le dernier restant ETANT le champs de Higgs dont la masse est celle du boson de Higgs en question.

Donc, partant de cela, un secteur scalaire plus complexe veut simplement dire qu'on va avoir plus de doublets ou plus généralement multiplets de Higgs. Ca a comme conséquence une multiplication des bosons de Higgs.

Par exemple, un modèle à deux doublets de Higgs contiens 5 bosons de Higgs (car 2x4 champs scalaires moins 3 absorbés par W+, W- et Z), dont trois neutres et deux chargés. Ce modèle existe en supersymétrie minimale, mais peut aussi exister dans un modèle non supersymétrique...Et il existe quantité de façon d'arranger les masses des bosons, leur propriétés de couplages, de manière à ne pas être en désaccord avec les contraintes directes et indirectes existantes. Je pense notamment à un modèle non-supersymétrique sur lequel j'ai bossé qui prévoit l'existence d'un pseudo-scalaire léger, d'un neutre un peu plus lourd, dégénéré en masse avec les deux chargés, et d'un scalaire bien plus lourd, ce modèle étant en parfait accord avec les contraintes existantes (même plus qu'en SUSY)...


Donc voilà pour la petite explication :-)

a+

Simon

[Ce message a été modifié par AlSvartr (Édité le 29-07-2010).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Ouch ! Merci Simon. Pas simple tout ça, j'ai besoin de magnésium

>>"Je pense notamment à un modèle non-supersymétrique sur lequel j'ai bossé"<<
Je comprend mieux maintenant tes réserves sur la supersymétrie , surtout quand tu précises : "..il existe quantité de façon d'arranger les masses des bosons, leur propriétés de couplages, de manière à ne pas être en désaccord avec les contraintes directes et indirectes existantes
Celà permet bien des spéculations en effet..

En réalité, il semble surtout que le Fermilab n'ait pas grand chose - voire rien - de nouveau à nous apprendre sur le Higgs..

Par ailleurs, j'imagine que si on ne trouvait qu'un seul Higgs de faible masse, conformémént à ce que prévoit le MS, pour certains.. ce serait pire que de ne rien trouver !.. Il y aurait de la déprime dans l'air

Mais bon, on en n'est pas là du tout, car si j'ai bien compris, au stade actuel tout est encore possible...

Partager ce message


Lien à poster
Partager sur d’autres sites

Vaufrège:

Oui effectivement, une partie de mes réserves concernant la SUSY vient du fait que j'ai travaillé sur un modèle similaire au point de vie des Higgs, mais pas supersymétrique. Cela dit, je ne parierais pas un kopek sur ce modèle là non plus :-) En fait je ne parierais pas un balle sur quelque modèle que ce soit car il y a de fortes chance qu'on trouve quelque chose qui soit décrit par un modèle dit "effectif" c'est à dire valide à une certaine énergie (disons sous le TeV) dont on ne pourra rien déduire quant à sa structure à des énergies plus hautes. Un peu comme le Modèle Standard quoi...Donc à partir de cette idée là, n'importe quel modèle est possible, tous équiprobables...

Et oui, le Tevatron n'a récemment (ces derniers mois) rien montré de plus que ce qu'on sait déjà: le Higgs MS semble exclu en dessous de 114 GeV et entre 165 et 175 GeV (n'ai plus les chiffres exacts en tête). Cela dit, vu le rythme auquel ça continue à tourner là bas il est possible qu'ils arrivent à exclure tout le range 100->200 GeV d'ici peu, ce qui tendrait à exclure définitivement le Higgs MS du fait que les mesures indirectes prévoient sa masse comme étant inférieure à 170 GeV (si je me souviens bien) avec un indice de certitude de plus de 95%. En sois, rien que le fait d'avoir exclu les masses sous 114 GeV pourrait deja etre un signe d'un secteur scalaire plus complexe ...

a+

S.

Partager ce message


Lien à poster
Partager sur d’autres sites

Yop,

Pour info, la luminositée intégrée (soit le nombre d'interaction possible pour une section efficace donnée) a encore fait un bond au LHC. Dans CMS nous somes maintenant à plus d'1.5/picobarn

Cela veut dire que nous ne sommes plus qu'à quelques encablures de la frontière à partir de laquelle on va pouvoir commencer à potentiellement "voir" des choses au delà du modèle standard, SUSY ou autres. En terme de chiffre il faut passer à 10/picobarn pour cela...donc un facteur 7 en plus et nous y sommes ;-)

En correlation avec cette luminosité qui augmente, nous avons maintenant pas mal de processus candidat "t-tbar" c'est à dire possédant une signature caractéristique de la production d'une paire top-antitop, chacun se désintégrant en un boson W et un quark b.

En voici un:

Explication du schéma: on a un anti muon, un muon, et deux jets "b-taggés" c'est à dire possédant les caractéristique de la production de quarks b (qui sont assez lourds). Il y a en plus un "E barré T" qui représente l'énergie transverse manquante, certainement générée par la production des neutrinos qui n'interagissent pas avec le détecteurs. Donc, pour résumer:

-un muon+un (anti-)neutrino=W-
-un anti-muon+ un neutrino= W+

->un b-jet+un W+= top
->un b-jet+un W-=anti-top

a+

Simon

[Ce message a été modifié par AlSvartr (Édité le 17-08-2010).]

[Ce message a été modifié par AlSvartr (Édité le 05-10-2010).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut et merci Simon

Tu écris : "Dans CMS nous sommes maintenant à plus d'1.5/picobarn".
Hors, en regardant les courbes on constate une différence entre la luminosité délivrée par le LHC et les luminosités enregistrées par les différents détecteurs : 1.367 pb pour CMS, et 1.409 pb pour ATLAS (voir ci dessous)
Pourquoi ces écarts ? Est-ce lié à la capacité des détecteurs ?

Dans un bulletin du CERN (voir mon message du 28/07) il était question de dépasser d'un facteur 2 à 3 la luminosité nominale de 1034 avec une "première amélioration" procurée par "la technique du nobium" pour les aimants quadripolaires situés près des points de collision.
Pourrais-tu nous préciser si ces aménagements sont réalisés ou prévus à court terme comme semblait l'indiquer ce bulletin ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut Vaufrège,


Il y a en effet une différence qui est due au fait que les détecteurs ne sont pas opérationnels 100% du temps, et que lorsque des faisceaux stables sont déclarés par les équipes de l'accélérateur, il faut un certain temps pour que l'ensemble des sous-détecteurs prennent les données de manière synchronisées. L'exemple le plus flagrant est LHCb, qui ne commence à enregistrer ses données que plusieurs dizaines de minutes après la déclaration de faisceaux stables, simplement à cause de leur VELO (VErtex LOcator) qui est un système de trajectographie des particules chargées qui doit s'approcher à 1mm du faisceau, d'où l'extrême prudence! De ce fait, LHCb a une luminosité intégrée bienplus faible qu'ATLAS ou CMS.


De plus, aux lumis enregistrées il faut encore soustraire les runs qui n'ont pas été satisfaisant, par exemple il peut arriver qu'une sous partie d'un sous-détecteur ne fonctionne pas correctement, et de ce fait les données enregistrées ne seront pas utilisables pour la physique car générant des biais.

Quant à te deuxième question, je n'en ai aucune idée j'ai loupé la session plénière de hier après-midi :-D

a+


Simon

[Ce message a été modifié par AlSvartr (Édité le 19-08-2010).]

Partager ce message


Lien à poster
Partager sur d’autres sites

Petit update, on a doublé la luminosité intégrée cette semaine:

On n'est plus qu'à quelques jours de toucher des régions inexplorées jusqu'à mtnt au niveau de la physique au delà du Modèle Standard: on va commencer à sonder/exclure/voir des processus caractéristiques de modèle type SUSY, leptoquarks, 4ème génération de fermions,...

a+

Simon

Partager ce message


Lien à poster
Partager sur d’autres sites

Super, on va enfin savoir ce qui se cache au delà du modèle standard (dans le tableau suivant, plein de particules sont encore hypothétiques :

Partager ce message


Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant