Forum Marxiste-Léniniste
Forum Marxiste-Léniniste
 
Retour au forum
 

Ajouter une réponse

Pseudo :    S'inscrire ?
Mot de passe :    Mot de passe perdu ?
Icône :
                                
                                
Message :
 
 
 
Smilies personnalisés
 
Options :
Notification par email en cas de réponse
Désactiver les smilies
Activer votre signature
 
 
Dernières réponses
Xuan
LHC : la nouvelle particule était un mirage


source : pour la science

Annoncé en décembre 2015, le signal d'une particule inconnue d'une masse de 750 GeV enregistré par les expériences Atlas et CMS au LHC ne s'est révélé être qu'une fluctuation due au hasard. Une déception qui pose la question du futur de la physique des particules.
Sean Bailly



Simulation d'un signal à deux photons (les longs traits verts) dans le détecteur CMS.
CMS / CERN


Début août, plusieurs centaines de physiciens des particules se sont rassemblés à Chicago lors de la conférence annuelle ICHEP pour faire le point sur les dernières avancées dans le domaine. Une réunion très attendue cette année : les équipes des expériences Atlas et CMS devaient annoncer si le « signal à 750 gigaélectronvolts » qui était l'objet de toutes les conversations depuis décembre 2015 était bien réel ou non.
Malheureusement, ce fut la déception dans les rangs des scientifiques : ce signal n'était finalement qu'une fluctuation statistique. La Nature ne se laisse pas si facilement découvrir ! Mais pourquoi ce signal a-t-il suscité tant d'attentes dans la communauté des physiciens des particules ?

Le LHC est le collisionneur de protons le plus puissant du monde. Lors de sa conception, les physiciens espéraient découvrir le boson de Higgs, la pièce manquante du modèle standard de la physique des particules qui décrit les interactions entre les particules. Cette découverte a eu lieu en 2012. Le deuxième objectif du LHC est d'observer des signaux qui ne peuvent être expliqués dans le cadre du modèle standard. Ils seraient des indices d'une théorie plus fondamentale qui se cache au-delà du modèle standard, et dont celui-ci n'est qu'une approximation à basse énergie. Les physiciens savent en effet que le modèle standard est incomplet.

Or chaque hiver, le LHC effectue une trêve (car l'électricité est plus chère à cette période de l'année !). Cette interruption est l'occasion d'un bilan annuel sur les résultats obtenus. La réunion de décembre 2015 a mis la communauté des chercheurs en émoi. Les collaborations des deux expériences principales, Atlas et CMS, avaient mis en évidence des indices suggérant qu'une particule inconnue d'une masse d'environ 750 gigaélectronvolts (GeV) pointait le bout de son nez. Était-ce un premier signe de physique au-delà du modèle standard ? Pour s'en assurer, les deux équipes devaient accumuler plus de données. La réponse serait donnée à l'été 2016.

La dure loi des statistiques

La recherche en physique des particules est avant tout une question d'analyse statistique. Lorsque deux protons, accélérés jusqu'à des vitesses proches de celle de la lumière, entrent en collision, l'énergie libérée engendre de nouvelles particules de façon aléatoire. Celles qui intéressent le plus les physiciens sont, en général, rares. Par ailleurs, les particules produites sont souvent instables et se désintègrent rapidement en d'autres particules. Ce sont ces dernières qui atteignent les détecteurs d'Atlas et CMS. Pour chaque collision donnée, ou événement, les physiciens doivent alors analyser l'ensemble des données enregistrées par les détecteurs pour reconstruire, à l'envers, toute l'histoire des désintégrations issues de la collision. Le risque est grand de reconstruire un événement de façon erronée, car, par exemple, certaines particules traversent les détecteurs sans y laisser de trace. C'est pourquoi on utilise une approche statistique en analysant un très grand nombre de collisions (des millions de milliards !) pour pouvoir extraire un signal pertinent. La fiabilité d'un nouveau signal est donnée par une certaine quantité liée à l'écart-type (noté sigma). Cette grandeur indique la probabilité que le signal soit le fruit de fluctuations dues au hasard et non à un phénomène réel. Plus elle est grande, plus ce risque diminue. Les physiciens ont fixé des valeurs arbitraires de cette grandeur pour qualifier la fiabilité d'un signal : à 3 sigmas, ils considèrent que le signal est intéressant et mérite qu'on s'y intéresse, et à 5 sigmas, on considère que le signal est bien réel et on peut parler de découverte.

En décembre 2015, les physiciens ont présenté une analyse de la désintégration de particules en deux photons. Aussi bien sur la courbe d'Atlas que sur celle de CMS, un pic était présent aux alentours de 750 GeV (près de six fois la masse du boson de Higgs) et son évaluation statistique était aux alentours de 3 sigmas (plus précisément, pour Atlas, il était de 3,9 sigmas, ce qui signifie que le risque qu'il soit le fait de fluctuations statistiques est de 1 pour 10 000. En combinant les données d'Atlas et de CMS et celles des années passées, on pouvait atteindre 4,4 sigmas). En augmentant le nombre de collisions analysées durant le printemps 2016, le signal pourrait être renforcé et atteindre 5 sigmas... ou s'évanouir complètement ! S'agissait-il vraiment d'une nouvelle particule avec une masse de 750 GeV ?

Comme souvent en physique des particules, il est bon d'être prudent, mais pour nombre de théoriciens, un signal à 3 sigmas et observé indépendamment par deux expériences sont des indices suffisants pour s'y intéresser sérieusement. Or, d'un point de vue théorique, ce signal était une surprise. Il n'était pas anticipé comme l'avait été celui du boson de Higgs en 2012. Dans l’hypothèse où ce signal était bien réel, il fallait donc trouver une explication. Celle-ci ne pouvait se faire dans le cadre du modèle standard et impliquait une manifestation de la théorie plus fondamentale sous-jacente.

La masse du boson de Higgs (125 GeV), par exemple, est une énigme en soi. Elle dépend des interactions du boson avec les autres particules. Selon la nature de ces particules, ces contributions à la masse du boson sont positives ou négatives et dépendent elles aussi de la masse de la particule. Le modèle standard suggère ainsi que la masse du boson de Higgs est de l'ordre de 100 GeV, mais dans le cadre d'une théorie à plus haute énergie au delà du modèle standard, il existerait des particules bien plus massives et la masse du boson de Higgs devrait donc être tirée vers des valeurs colossales, jusqu'à la masse de Planck (environ 1018 GeV). Mais ce n'est pas le cas. Il doit donc exister un mécanisme qui équilibre les contributions des unes et des autres particules. Et cette explication ne se trouve pas dans le modèle standard, mais au-delà, dans la théorie à plus haute énergie sous-jacente.

Une porte au-delà du modèle standard

Or jusqu'à présent, toutes les mesures effectuées dans les collisionneurs de particules sont en accord avec le modèle standard. Il est donc très difficile de savoir à quoi ressemble cette théorie sous-jacente. Mais le signal à 750 GeV entrouvrait une porte ! En l'espace de six mois, les physiciens ont écrit près de 500 articles pour interpréter ce signal.

Certains des scénarios envisagés faisaient intervenir une théorie très en vogue chez les physiciens théoriciens, la supersymétrie. Celle-ci postule l'existence d'une symétrie entre deux types de particules, les fermions et les bosons, et prévoit un grand nombre de nouvelles particules très massives. Elle a l'avantage de résoudre certains problèmes du modèle standard (par exemple, les contributions des bosons et des fermions se compensent dans l'expression de la masse du boson de Higgs qui garde ainsi une valeur raisonnablement faible) et d'offrir des candidats sérieux pour expliquer la matière noire (une composante de l'Univers dont la nature reste inconnue).
Malheureusement, la désintégration en deux photons d'une particule à 750 GeV s'accorde difficilement avec les scénarios les plus simples de la supersymétrie. En effet, dans ce contexte, d'autres signaux auraient du être détectés au LHC auparavant. Il faut alors invoquer des scénarios supersymétriques plus compliqués.

Une autre possibilité implique des modèles où il existe plus de dimensions d'espace que les trois usuelles. Ces dimensions sont enroulées sur elles-mêmes à des tailles qui les rendent inaccessibles à nos sens. Dans ces théories, par exemple dans la version proposée en 1999 par les physiciens américains Lisa Randall et Raman Sundrum, il existe des particules, nommées graviton de Kaluza-Klein, qui peuvent avoir la masse requise de 750 GeV et se désintégrer en deux photons.

Le signal n'en était pas un

Mais toutes ces spéculations théoriques se sont révélées inutiles. Lorsque les physiciens ont aggrégé les nouvelles données récoltées par CMS et Atlas en 2016 aux précédentes, le pic observé dans les courbes a disparu. Le signal à 750 GeV n'était finalement qu'une fluctuation statistique, et aucune nouvelle particule n'était au rendez-vous...

Cette annonce a été un choc pour la communauté. Et l'occasion pour certains de faire le point sur la situation en physique des particules. Ces dernières années, les physiciens des particules ont vécu deux annonces de découvertes majeures qui se sont révélés fausses par la suite. En 2011, l'expérience Opera avait mesuré des neutrinos allant à des vitesses supérieures à celle de la lumière, violant ainsi les règles de la relativité restreinte. De nombreux théoriciens avaient publié des articles pour expliquer ce phénomène... qui était en réalité du à un mauvais branchement instrumental.
Plus récemment, la collaboration BICEP2 avait annoncé avoir mesuré un certain type de polarisation dans le fond diffus cosmologique (le rayonnement émis par l'Univers alors âgé de seulement 380 000 ans).
Des physiciens ont montré que ce résultat impliquait l'existence d'ondes gravitationnelles dans l'Univers primordial et confirmait que celui-ci avait connu une phase d'expansion exponentielle, l'inflation. Or une analyse approfondie des données combinées à celles du satellite Planck ont montré qu'une sous-estimation d'une source parasite avait fait croire à cette polarisation.
Dans ces deux cas, un nombre conséquent d'articles ont tenté d'interpréter les résultats avant d'avoir une confirmation claire des mesures expérimentales. En est-il de même pour ce signal à 750 GeV ?

Pour le physicien théoricien Adam Falkowski, qui tient le blog Résonaances, la situation est très différente. Les données présentées en décembre 2015 semblaient suffisamment solides pour se pencher dessus. Le seul point qui pouvait laisser planer le doute était la forme des pics différente pour Atlas et CMS : l'un était étroit et l'autre large, ce qui indiquait une certaine contamination par du bruit statistique, sans pouvoir conclure outre mesure. Pour Tommaso Dorigo, membre de l'équipe CMS, il faudrait élever le niveau d'exigence statistique pour éviter l'emballement des chercheurs mais aussi des médias : un critère de trois sigmas, qui est un choix arbitraire, est aujourd'hui trop faible pour distinguer un signal intéressant du bruit de fond, surtout quand ce signal n'était pas prévu. En effet, le nombre d'expériences effectuées au LHC est si important qu'il est loin d'être impossible d'avoir des faux signaux concordants sur Atlas et CMS.

Scénario cauchemardesque ?

Ce rendez-vous manqué est aussi l'occasion de faire le bilan sur les avancées en physique des particules. Le LHC a connu un succès colossal avec la découverte du boson de Higgs, qui marque le triomphe du modèle standard. De nombreuses mesures de précision et la découverte de processus de désintégration très rares réalisées au LHC sont aussi d'importance pour les spécialistes. Cependant, tous ces résultats sont compatibles avec le modèle standard et aucun signe ne semble dévoiler ce qui se cache au-delà. Les résultats présentés à la conférence ICHEP confirment que les contraintes sont de plus en plus sévères sur les scénarios supersymétriques, mais aussi sur tous les autres modèles au-delà du modèle standard. Par ailleurs, les résultats fournis par d'autres expériences ne sont pas plus encourageants. L'expérience LUX, dédiée à la détection directe de matière noire, a annoncé qu'elle avait encore repoussé les limites sur les contraintes sur la matière noire supersymétrique. L'expérience IceCube a fait de même sur les neutrinos dits stériles.

Pour certains physiciens, c'est le scénario « cauchemardesque » qui est en train de se jouer : le modèle standard se confirme sans être contesté et aucun résultat expérimental ne permet de guider les physiciens vers la théorie plus fondamentale. Pour la physicienne Sabine Hossenfelder, ce mal pourrait cependant être l'occasion de remettre en cause les grands principes qui orientent la recherche en physique théorique. Un de ces principes était de corriger la masse du boson de Higgs de façon « naturelle », c'est-à-dire que les compensations entre les contributions des particules à la masse du boson de Higgs ne doivent pas être le fruit d'ajustements jusqu'à par exemple, 20 chiffres après la virgule. Dans le cadre de la supersymétrie, cette « naturalité » n'est possible que si les masses des particules supersymétriques sont assez basses, ce qui semble exclu par les contraintes posée par les expériences du LHC. La supersymétrie pourrait néanmoins exister à des masses plus élevées, au dépend de la naturalité. Certains prônent d'oublier cette exigence de naturalité ou de trouver d'autres façons d'obtenir la masse du boson de Higgs. Déjà de nouvelles pistes sont à l'étude du côté des théoriciens, nommées « hypothèse de relaxation », « Nnaturalness » ou encore « neutral naturalness ».

Les théoriciens sont loin d'avoir épuisé toutes leurs idées. Et par ailleurs, le LHC n'a pas encore dit son dernier mot. Peut-être qu'une surprise se cache déjà dans ses données... Tenter de comprendre la Nature est difficile, mais toujours aussi passionnant !
 
Retour au forum
 
créer forum