Aller au contenu

2021 - un espoir pour la physique des particules

Noter ce sujet


zenalpha

Messages recommandés

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)

Alors que les physiciens peinent à réconcilier la relativité générale et le modèle standard de la physique des particules 

Alors que le modèle standard de la physique des particules ne parvenait ni à être mise en defaut ni à confirmer les particules super symétriques predites par la théorie des cordes dans les accélérateurs de particules 

L'événement majeur de 2021 réside peut-être dans cette découverte récente 

A suivre

https://www.sciencesetavenir.fr/fondamental/particules/muon-et-meson-b-ces-deux-particules-qui-bousculent-la-physique_155510

  • Like 1
  • Merci 2
Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, 79ans Posté(e)
Hérisson_ Membre 693 messages
Forumeur forcené ‚ 79ans‚
Posté(e)

Le scoop est plutôt éventé: il remonte à avril 2021 !

Voir l'article de la Recherche

Les muons font-ils trembler le modèle standard de la physique des particules ?

Le mardi 13 avril 2021 Gratuit

Les chercheurs du laboratoire américain du Fermilab ont publié le 7 avril des résultats attendus depuis une vingtaine d’années : la confirmation d’un écart relativement important entre la théorie connue et leurs observations expérimentales sur l’anomalie magnétique d’une particule nommée muon. Cet écart pourrait être un indice sur l’une des énigmes les plus anciennes de la physique des particules : qu'y a-t-il au-delà du modèle standard, que l’on sait incomplet ? À moins que l’écart entre expérience et théorie ne soit finalement pas si grand si l'on adopte une approche différente, comme celle présentée dans un article paru dans Nature le même jour que les résultats du Fermilab ? Retour sur ces annonces avec deux spécialistes : Laurent Lellouch, membre de l'équipe qui a élaboré cette nouvelle approche, directeur de recherche CNRS au Centre de physique théorique et à l'Institut physique de l'univers, à Marseille, et Michel Davier, professeur émérite de l’université Paris-Saclay et membre de l’Académie des sciences, auteur de nombreux travaux sur les muons.

La Recherche. Les résultats expérimentaux autour du « moment magnétique du muon »ont été annoncés en grande pompe par le Fermilab. De quoi s’agit-il exactement ?

Michel Davier : Le muon est une particule élémentaire, un cousin de l’électron, mais 200 fois plus lourd et, de plus, éphémère. Ils ont les mêmes propriétés électromagnétiques : en particulier, ils agissent comme de minuscules aimants avec un moment magnétique, dont la valeur a été prédite par le Britannique Paul Adrien Maurice Dirac en 1927, en combinant mécanique quantique et relativité restreinte. Les premières déterminations expérimentales à partir des spectres atomiques ont confirmé cette prédiction pour l’électron, mais avec l’amélioration de la précision des mesures, une petite déviation d’un millième est apparue, qu’on a appelé l’anomalie magnétique de l’électron. La compréhension de cette anomalie est l’un des premiers grands succès de l’électrodynamique quantique : en 1948, l’Américain Julian Schwinger calcule la valeur de cette anomalie en 1948, en accord avec la valeur observée. Le muon, découvert en 1936 dans le rayonnement cosmique, a pu être assujetti aux mêmes investigations. D’abord avec une confirmation de la prédiction de Dirac en 1957, suivie trois ans plus tard par la mise en évidence d’une anomalie compatible avec celle de l’électron. Des expériences ont ensuite été conduites avec des appareillages de plus en plus performants, d’abord au CERN dans les années 1960-1970, puis aux États-Unis à Brookhaven vers 2000, et enfin aujourd’hui au Fermilab. Elles ont permis d’obtenir des mesures de plus en plus précises de cette anomalie magnétique. En parallèle, les physiciens, théoriciens et expérimentateurs se sont employés à en prédire la valeur théorique dans le cadre du modèle standard de la physique des particules, la théorie quantique des champs décrivant les interactions fondamentales entre les particules élémentaires.

Qu’est-ce qui crée cette déviation ?

M.D. : Le muon échange des photons avec le champ magnétique dans lequel il est plongé. Quelquefois ce muon, lorsqu’il est frappé par un photon du champ magnétique, est “habillé” de particules dites « virtuelles » – photons, leptons, quarks, antiquarks –, qui causent ce que l’on appelle les fluctuations quantiques du vide. C’est ce nuage, cet essaim de particules, qui va modifier la valeur du moment magnétique du muon lorsqu’il traverse le champ magnétique. 

Ce sont donc des particules virtuelles qui affectent le muon ? Pouvez-vous préciser comment il est possible davoir, dans le vide, une création spontanée de particules ?  

Laurent Lellouch : Les théories modernes de physique des particules mêlent physique quantique et relativité restreinte. Cette dernière stipule que si l'on a de l’énergie, on peut créer de la masse, le fameux E = mc². La théorie quantique, à travers le principe d'indétermination de Heisenberg, selon lequel la précision avec laquelle on peut mesurer l’énergie d’un état quantique est inversement proportionnelle au temps d’observation, implique qu’il peut se produire des violations de conservation d’énergie sur des temps très courts. Dans ces conditions, on peut avoir des fluctuations d’énergie dans le vide. En combinant ces deux notions, on a de l’énergie qui peut se transformer en masse et donc en particules.  La théorie quantique des champs relativistes donne cette énergie pour un temps très court et la reprend tout de suite après. On ne crée pas vraiment ces particules, on ne pourrait pas les récupérer, les observer : elles sont virtuelles. Mais elles ont un effet de rétroaction (« feedback »), de sorte qu’elles modifient légèrement le processus exploré. Ainsi, ces particules virtuelles auront un effet visible si la précision de l’expérience est suffisante. En particulier, à des précisions très élevées, on peut espérer mesurer des effets très fins, causés par des particules inconnues trop massives, ou des interactions trop faibles pour avoir été observées directement dans de grands collisionneurs. C’est dans cette optique que l’expérience du moment magnétique du muon est faite.   

M.D : Ce qui gêne souvent, c’est le terme de « virtuel ». Lorsque ce muon est là, tout seul, dans le vide, rien ne peut se passer, si l'on omet sa désintégration future. Il ne peut pas, par exemple, émettre un photon réel que l’on pourrait détecter, car cela violerait la conservation d’énergie. Mais il peut le faire pendant un temps très court, c’est la fluctuation quantique. Si la fluctuation est causée par un photon qui a été émis et réabsorbé, on le qualifie de virtuel parce qu’aucun détecteur n’est capable de le voir. Mais ces particules virtuelles existent bel et bien et on peut voir leur effet sur une observable physique, ici l’anomalie magnétique. Ce comportement est tout à fait pris en compte par la théorie quantique des champs.   

Finalement, ce que l’on cherche à faire en théorisant et en observant cette grandeur physique qu’est le moment magnétique du muon, c’est étudier ces particules virtuelles ?  

L.L. : Si l’on trouve un désaccord entre la prédiction du modèle standard et l’expérience du Fermilab, et si ni l’un ni l’autre ne se sont trompés, ça veut dire que, dans cet essaim de particules virtuelles qui fluctuent autour du muon, il y en a que l’on n’a jamais vues auparavant. L’objectif de tout le travail expérimental et théorique actuel sur le moment magnétique du muon consiste à améliorer la précision, à la fois du calcul et de la mesure, afin de trancher pour savoir si cette mesure ouvre une fenêtre sur ce qui pourrait se trouver au-delà du modèle standard de la physique des particules. Ce modèle représente la théorie la plus aboutie utilisée aujourd’hui pour décrire le monde qui nous entoure, avec ses particules élémentaires et leurs interactions fondamentales, mis à part la gravitation. Tester ses limites à travers des expériences telle que celle-ci sert à révéler des failles éventuelles et à mettre en évidence de nouveaux phénomènes. Aller “au-delà” du modèle standard, en analysant par exemple cet écart entre théorie et expérience, permet d'essayer de trouver une “nouvelle physique”.  Au niveau de précision que l’on a atteint, toutes les interactions décrites dans le modèle standard interviennent dans la prédiction du moment magnétique du muon. Il y a assez peu de phénomènes physiques où c’est le cas, de sorte que cela nous donne un test très important de la théorie. 

M.D. : Le modèle standard basé sur la théorie quantique des champs décrivant les interactions fondamentales est une magnifique construction qui a jusque là été vérifiée précisément lors de nombreux tests expérimentaux. Pourquoi donc s'acharner à vouloir le mettre en défaut, comme avec ces travaux sur le moment magnétique du muon ? Parce qu'il ne peut rendre compte de certains phénomènes astrophysiques comme l'observation de matière noire et l'asymétrie matière-antimatière dans l'Univers. En outre, il est forcément incomplet, dans la mesure où il n'explique ni la hiérarchie des masses des particules élémentaires, ni leur nombre de familles égale à 3, ni l'origine de la masse des neutrinos. Pour le compléter, voire le modifier, il faut trouver des désaccords clairs avec des mesures expérimentales qui nous aideront à pointer dans la bonne direction.

Comment est quantifié cet écart entre théorie et expérience ?   

M.D. : A tout résultat expérimental est associé une incertitude. Elle peut être d’origine statistique – la fluctuation sur un nombre d’événements mesurés – mais aussi systématique, car pour une mesure donnée il faut pouvoir estimer l’effet maximum de biais qui pourraient la perturber et ajouter une erreur systématique pour couvrir cet effet. Quand on veut tester la compatibilité entre deux résultats, on estime la probabilité qu’ils soient compatibles ou incompatibles. C’est ce qui donne ce qu’on nomme, en statistique, le nombre d’écarts-standard ou « sigma », une unité qui quantifie l’écart entre deux résultats, lorsque l’on combine leurs barres d'erreurs respectives.  

L.L. : À chaque sigma est associée une probabilité que les deux valeurs soient compatibles. Un résultat à 1 sigma signifie qu’il y a 32 % de chance que les valeurs soient compatibles, à 3 sigmas c’est de l’ordre de trois pour mille. D’un commun accord, les physiciens des particules disent qu’on a vraiment découvert quelque chose si l’écart est de 5 sigmas entre expérience et théorie, c’est-à-dire quand il y a six chances sur dix millions que ce qu’on a vu n’est pas réel. Les derniers calculs théoriques en date donnaient, lorsqu’on les compare avec la dernière expérience de mesure du moment magnétique du muon réalisée au début du siècle à l’accélérateur de Brookhaven, un écart de 3,7 sigmas. Ce n’est pas suffisant pour affirmer avoir découvert une nouvelle particule ou interaction, en revanche c’est beaucoup trop pour l’ignorer.  

Les résultats annoncés par les physiciens du Fermilab le 7 avril ont statué sur un écart de 4,2 sigmas avec la théorie. Qu’avez-vous pensé de ces annonces ?

M.D. : C’est un premier résultat d’une importance capitale. Le fait qu’il soit en accord avec l’expérience précédente de Brookhaven est une bonne nouvelle : cette expérience avait déjà trouvé un décalage avec la valeur théorique que nous avions élaborée à l’époque. Celle-ci s’est précisée au cours des années pour aboutir à la valeur utilisée comme référence. Du côté expérimental, les résultats du Fermilab sont les premiers depuis ceux de Brookhaven qui datent d’il y a 20 ans et, à part s’il y a une erreur de méthode – car c’est la même dans les deux cas –, il y a un tel niveau de vérification dans les données qu’ils présentent qu’on peut croire leur résultat. La communauté des physiciens est très excitée par cette annonce, et on attend la suite de la confrontation théorie/expérience avec impatience, la précision des deux valeurs devant notablement s’améliorer. La précision actuelle sur la prédiction et la mesure de l’anomalie magnétique du muon est inférieure à cinq dix-millionnièmes, l’écart entre les deux se situant au niveau de trente dix-millionnièmes. On voit donc le niveau de sensibilité requis pour mettre en défaut le modèle standard. 

L.L. :  C’est une grande validation de la mesure de cette quantité. Quand on voit la liste des effets qu’ils prennent en compte dans leur analyse expérimentale, c’est extraordinaire. C’est une prouesse d’avoir réussi à baisser l’erreur systématique par rapport à l’expérience de Brookhaven. Par ailleurs, ce premier résultat publié par Fermilab ne comporte qu’à peu près 6 % des données qu'ils traiteront au total, donc il est dominé par l’erreur statistique. Le fait qu’ils aient réussi à réduire l’erreur systématique sera très important dans ce qui suit : elle est la même quel que soit le nombre de données exploitées. La réduire est donc très important, et cela a été possible notamment grâce à la mesure très précise des champs magnétiques utilisés dans leur dispositif. C’est une étape nécessaire quand on sait que la précision statistique va de son côté grandement augmenter grâce à la quantité de données qu’ils amassent au cours de leurs différentes campagnes de mesures.  D’ici la fin de cette expérience dans quelques années, lorsqu’ils auront fini la collecte de données et leur analyse complète, l’incertitude sur la mesure du moment magnétique devrait être réduite d’un facteur environ trois par rapport à ce qu’elle est aujourd’hui. C’est énorme. Et ça peut encore tout changer. 

Comment a été construit le volet théorique du phénomène, qui a servi de valeur de référence à comparer à celle de l’expérience ?  

M.D : Avec des collègues du monde entier, dont mon équipe et celle de Laurent Lellouch, nous avons mis ensemble tout ce que nous savions sur le sujet et nous avons écrit un article de revue paru en 2020, qui donne la valeur de référence théorique du moment magnétique du muon. C’est à cette valeur que se compare le résultat expérimental annoncé par le Fermilab. Et c’est donc un écart à cette valeur qui a été mis en avant pour dire qu’il pourrait y avoir là le signe d’une physique au-delà du modèle standard. Nous devions produire la meilleure prédiction possible avant la présentation de leur premier résultat et sans en connaître la valeur.  

En résumé, quelles sont les principales composantes de cette théorie qui décrit le muon et le « nuage de particules virtuelles » qui l’entoure ?  

M.D. : Il est nécessaire de prendre en compte toutes les contributions issues de la théorie quantique des champs. Grâce à cette théorie, la contribution électromagnétique de l’essaim virtuel qui entoure le muon et affecte son moment magnétique, on la comprend très bien. La contribution de l’interaction électrofaible, on la connaît aussi très bien, elle est petite, mais on doit en tenir compte pour la prédiction. Ce qui pose problème, c’est la contribution hadronique, celle de l’interaction forte, qui fait intervenir les paires quark-antiquark et les gluons, les particules élémentaires formant les hadrons (comme les protons et le neutrons). Un muon ne ressent pas l’interaction forte, puisque ce n’est pas un hadron, mais comme nous l’avons expliqué, il peut émettre des photons virtuels, qui eux peuvent produire toutes les paires de particules et anti-particules chargées qui existent, donc les paires quark-antiquark.

D’où l’apparition de hadrons virtuels qu’il faut prendre également en compte ? 

M.D. : Exactement. Imaginons un muon émettant un photon virtuel. Celui-ci est capable de créer, pendant une durée très brève, une paire quark-antiquark qui va générer des hadrons, bientôt réabsorbés en un photon lui-même réabsorbé, et le muon sera in fine inchangé. Mais pendant ce bref laps de temps, ces particules virtuelles ont modifié le moment magnétique du muon en interaction avec le champ magnétique. Malheureusement, à l’aide de la théorie des champs, nous ne savons pas calculer cette contribution avec les méthodes usuelles, parce que l’échelle d’énergie de la masse du muon est trop faible : la théorie de l’interaction forte devient hautement non linéaire lorsque l’on va vers des basses énergies, comparables à l’énergie de masse du muon, de sorte qu’on ne peut pas faire les calculs directement. Alors on a trouvé un artifice pour contourner ce problème : si on connaissait très bien la probabilité qu’un photon puisse créer une paire quark-antiquark et se convertir en hadrons, on pourrait réinjecter cette connaissance dans le calcul théorique de la contribution hadronique à l’anomalie. Or, nous savons le faire en utilisant des données expérimentales obtenues par des expériences dans des collisionneurs électron-positon. Une annihilation entre un électron et son antiparticule, le positon, passe par l’intermédiaire d’un photon, qui peut créer une paire quark-antiquark, puis des hadrons. On peut alors mesurer la probabilité que cela se produise, en fonction de l’énergie des hadrons, et substituer cette information à ce qu’on ne peut pas calculer théoriquement. Il y a des relations mathématiques qui lient la probabilité qu’on observe dans ces expériences les effets de particules virtuelles dans le moment magnétique du muon. C’est l’approche que nous avons suivie et qui est la méthode de référence utilisée depuis plus de 25 ans. Ceci implique à la fois des calculs théoriques et des mesures de précision obtenues dans plusieurs laboratoires dans le monde, y compris par notre équipe avec le détecteur BABAR sur le collisionneur de Stanford. 

À côté de cette théorie, il y a une autre approche. C'est celle que vous développez, Laurent Lellouch, avec d’autres équipes de recherche, dans un article qui a été publié dans Nature le même jour que l'annonce du Fermilab. Quelles sont ses différences avec le calcul habituel qui vient d’être décrit ?  

L.L : Notre approche est complètement renouvelée. Elle consiste à calculer la contribution hadronique dominante au moment magnétique à partir des seules équations du modèle standard de la physique des particules, avec seulement quelques paramètres fondamentaux comme les masses des quarks, la charge de l’électron ou la constante d’interaction forte. Nous l’avons dit, ces équations sont très non linéaires aux énergies qui nous intéressent, de sorte qu’on ne peut pas faire des calculs analytiques à la main : le recours à l’ordinateur est indispensable. Nous avons donc entrepris de résoudre ces équations, à l’aide d’algorithmes de pointe et de codes informatiques hautement optimisés, sur les plus gros superordinateurs européens. En d’autres termes, ces calculs simulent directement la théorie quantique des champs relativistes. C’est une approche que nous, et toute une communauté à travers le monde, élaborons depuis de nombreuses années. C’est ce qu’on appelle la chromodynamique quantique (QCD, la théorie de l’interaction forte) sur réseau. Depuis quelques années, plusieurs équipes se sont intéressées à appliquer ces méthodes aux calculs des contributions hadroniques au moment magnétique du muon. Ce qui est intéressant, c’est qu’elle est complètement indépendante de l’approche de référence dont a parlé Michel Davier, qui est, elle, fondée sur l’exploitation de données expérimentales. C’est important, parce qu’il faut être absolument certain que la prédiction théorique et son erreur sont calculées correctement avant de possiblement remettre en cause le modèle standard, validé par d’innombrables expériences. Dans cette approche, on simule essentiellement le modèle standard dans une boîte d’espace-temps. Ce sont d’énormes calculs qui prennent des centaines de millions d’heures sur ces supercalculateurs. Maintenant qu'on a ces outils, ils devraient nous permettre de continuer à réduire les erreurs des prédictions théoriques et ainsi suivre l’amélioration des résultats expérimentaux. 

Quels sont les résultats de votre calcul ? 

L.L. : Il rapproche l’expérience de la prédiction du modèle standard : nous parvenons à un écart bien moins important avec notre valeur calculée numériquement qu’avec celle issue de l’approche habituelle. Cela suggère que le modèle standard n’est pas remis en cause pour l’instant, et qu’il va falloir pousser sa mise à l’épreuve plus loin. Évidemment, il est impératif que nos calculs soient vérifiés par d’autres équipes qui travaillent dans le même domaine, puisqu’ils sont les premiers à rivaliser en précision avec, aussi bien, la prédiction de référence et la mesure du moment magnétique du muon. Si nos résultats sont confirmés, il sera alors très important de comprendre pourquoi ils ne sont pas en accord avec l’approche traditionnelle. Car, aujourd’hui, il n’y a rien qui permet, dans les calculs théoriques et les résultats expérimentaux, de conclure qu’il y a un problème sérieux, ou quelque chose qui manque dans l’approche traditionnelle. L’équipe de Michel Davier et la mienne avons d’ailleurs commencé à travailler ensemble sur ce sujet pour comprendre les différences entre nos approches. Dans l’état actuel des choses, où les erreurs sont telles qu’elles sont, notre résultat semble indiquer que la physique nouvelle n’est pas encore accessible. Mais il est important de noter que cela ne veut pas dire qu’un jour, quand les erreurs seront réduites, ce désaccord n’existera pas ! 

M.D.: Le résultat présenté par l’équipe de Laurent Lellouch est une vraie prouesse technique. C’est la première fois que cette approche numérique donne une valeur de la prédiction sur l’anomalie magnétique à ce niveau de précision. C’est un très beau résultat, mais qui doit être confirmé par d’autres groupes utilisant la même technique, dans la mesure où l’examen critique n’a pas encore atteint le même niveau de maturité que pour l’approche utilisant les données expérimentales. La situation est loin d’être éclaircie et les prochaines années vont être cruciales et palpitantes pour le sort du modèle standard !

... et celui de Sciences et Avenir:

https://www.sciencesetavenir.fr/fondamental/particules/de-nouveaux-resultats-autour-du-muon-particule-elementaire-ebranlent-un-peu-plus-nos-connaissances-sur-les-lois-de-notre-univers_153310

 

 

 

Modifié par Hérisson_
  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, 79ans Posté(e)
Hérisson_ Membre 693 messages
Forumeur forcené ‚ 79ans‚
Posté(e)

Voir aussi l'article plus bref du CNRS

https://www.cnrs.fr/fr/physique-des-particules-les-muons-nous-meneront-ils-vers-une-nouvelle-physique

Physique des particules : les muons nous mèneront-ils vers une nouvelle physique ?

07 avril 2021
Physique
 
  • Les muons, des particules cousines des électrons, font tourner la tête des physiciens depuis plus de 10 ans : la mesure expérimentale de leurs propriétés magnétiques1 diverge en effet de la théorie. Peut-être à cause de particules ou de forces inconnues ?
  • Un nouveau calcul théorique de ce paramètre, impliquant notamment des physiciens du CNRS et publié dans la revue Nature, réduit l’écart avec la mesure expérimentale. Mais le débat n’est pas clos pour autant.

Depuis plus de 10 ans, la mesure des propriétés magtiques du muon (une sorte de cousin éphémère de l’électron) est en désaccord avec les pdictions théoriques, suggérant une possible lacune du mole standard de la physique des particules2 et laissant entrevoir une physique plus exotique. Ce 7 avril 2021 est dévoilé le premier résultat de l’expérience « Muon g-2 » de Fermilab, qui mesure l’une de ces propriétés du muon appelée « moment magnétique ».

Si la France ne participe pas directement à cette expérience, une équipe du CNRS3a joué un rôle déterminant dans le calcul de la prédiction théorique choisie comme référence4 et sans laquelle aucune conclusion n’est possible. Pour déterminer la contribution, dite de polarisation hadronique du vide, qui limite actuellement la précision du calcul, cette équipe utilise des mesures effectuées auprès de collisionneurs électron-positon. Cette approche exacte, dépendant seulement de la précision des mesures, a été développée et améliorée par cette équipe depuis plus de 20 ans, conduisant au désaccord avec la mesure expérimentale du moment magnétique du muon.

Une méthode différente a été récemment suivie par une autre équipe comprenant des chercheurs du CNRS5, qui révèle dans Nature le résultat de son calcul de cette contribution. Or, il réduit l’écart avec la valeur expérimentale connue jusqu’ici. Le modèle standard n’a donc peut-être pas dit son dernier mot ! Pour parvenir à ce résultat, les scientifiques ont calculé cette contribution ab initio, cest-à-dire en ne faisant appel quaux équations du modèle standard, sans paramètre supplémentaire. Avec environ un milliard de variables, plusieurs supercalculateurs européens massivement parallèles6 ont été nécessaires pour relever cet énorme défi. Pour la première fois, un tel calcul rivalise en précision avec l'approche de référence qui donne des valeurs du moment magnétique du muon plus éloignées de la valeur mesurée.

Pour trancher définitivement, il faudra attendre que le résultat de ce calcul théorique soit confirmé par d’autres équipes et comprendre d’où viennent les différences entre les deux approches théoriques. C’est ensemble que les équipes du CNRS relèvent actuellement ce défi. Leur espoir, en combinant les approches, est d’obtenir une nouvelle prédiction théorique de référence suffisamment précise pour décider du sort du modèle standard dans quelques années, lors de la publication des résultats définitifs de l’expérience « Muon g-2 » du Fermilab et d’une expérience ayant des objectifs similaires, menée au Japon.

# Évocation du calcul de l'effet de la polarisation du vide hadronique sur le magnétisme du muon. Comme une toupie, le muon (µ) tourne sur lui-même, devenant un minuscule aimant entouré d'un champ magnétique. Le muon suit une trajectoire le long de laquelle il interagit avec l'aimant de l'expérience « Muon g-2 » et avec des particules virtuelles du vide quantique. Il polarise ainsi le vide hadronique, ce qui modifie son moment magnétique. Le fond de 0 et de 1, et le pavage carré, évoquent le calcul sur supercalculateurs qui est l'une des approches décrites ici.
© Dani Zemba, Pennsylvania State University.

 

Bibliographie

The anomalous magnetic moment of the muon in the Standard Model, T. Aoyama et al. (dont Michel Davier et Laurent Lellouch), Physics Reports, 3 décembre 2020. DOI : 10.1016/j.physrep.2020.07.006

Leading hadronic contribution to the muon magnetic moment from lattice QCD, Sz. Borsanyi, Z. Fodor, J. N. Guenther, C. Hoelbling, S. D. Katz, L. Lellouch, T. Lippert, K. Miura, L. Parato, K. K. Szabo, F. Stokes, B. C. Toth, Cs. Torok, L. Varnhorst. Nature, 8 avril 2021. DOI : 10.1038/s41586-021-03418-1

 
  • Like 1
  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, 79ans Posté(e)
Hérisson_ Membre 693 messages
Forumeur forcené ‚ 79ans‚
Posté(e)

Et celui du CERN:

https://home.cern/fr/news/news/detectors/lhcb-finds-new-hints-possible-standard-model-deviations

LHCb : des divergences par rapport au Modèle standard ?

L’expérience LHCb a observé des anomalies intrigantes dans les voies de désintégration de certaines particules

18 avril, 2017

|

Par Stefania Pandolfi

LHCb : des divergences par rapport au Modèle standard ?

La collaboration LHCb a observé des mésons B0 se désintégrant en un kaon excité et deux électrons ou deux muons (Image: Maximilien Brice/CERN)

L’expérience LHCb a observé des anomalies intrigantes dans les voies de désintégration de certaines particules. Si ces observations se confirment, elles pourraient être le signe d’un phénomène de nouvelle physique, qui n’est pas prédit par le Modèle standard. Le signal observé présente une signification statistique encore limitée, mais il vient renforcer des indices semblables issus d’études antérieures. Les données à venir et les analyses qui suivront pourront établir si ces données représentent véritablement des fissures dans le Modèle standard ou s’il s’agit d’une fluctuation statistique.

Dans un séminaire qui se déroule aujourd’hui au CERN, la collaboration LHCb a présenté de nouveaux résultats très attendus sur une désintégration particulière de mésons B0 produits lors de collisions dans le Grand collisionneur de hadrons. Le Modèle standard de la physique des particules prédit la probabilité des nombreux modes de désintégrations possibles des mésons B0 ; d’éventuelles divergences entre les données et les prédictions constitueraient un signe d’une nouvelle physique.

Dans cette étude, la collaboration LHCb a observé des mésons B0 se désintégrant en un kaon excité et deux électrons ou deux muons. Le muon est 200 fois plus lourd que l’électron, mais à part cela ses interactions sont, dans le Modèle standard, identiques à celles de l’électron ; cette propriété est appelée l’universalité des leptons. La théorie sur l’universalité des leptons prédit que, mis à part un effet léger lié à la différence de masse, qui peut être calculé, les électrons et les muons devraient être créés avec la même probabilité lors de cette désintégration spécifique du méson B0. LHCb a toutefois observé que les désintégrations produisant des muons sont moins fréquentes.

Cette divergence par rapport au Modèle standard est potentiellement exceptionnelle, mais sa signification statistique est à un niveau de 2,2 à 2,5 sigma, ce qui n’est pas suffisant pour tirer une conclusion définitive. Ce résultat est toutefois d’autant plus intrigant qu’une récente mesure de LHCb sur une désintégration associée faisait apparaître un comportement semblable. 

Ces indices sont d’un grand intérêt, mais ils ne sont pas encore suffisants pour tirer une conclusion. Même si électrons et muons sont de natures différentes, de nombreuses prévisions antérieures étayent l’idée d’une symétrie entre ces deux particules. Davantage de données et des observations supplémentaires de désintégrations semblables sont nécessaires pour déterminer si les indices observés représentent uniquement une fluctuation statistique ou s’il s’agit des premiers signes de nouvelles particules, qui viendraient étendre et compléter le Modèle standard de la physique des particules. Les mesures citées ici ont été obtenues à partir de l’ensemble des données de la première exploitation du Grand collisionneur de hadrons. Si ces mesures pointent véritablement vers la physique au-delà du Modèle standard, le volume de données de la deuxième exploitation, plus important, sera suffisant pour confirmer les effets observés. 

  • Like 1
  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Pierrot89 Membre 9 173 messages
Maitre des forums‚
Posté(e)

Intéressant.

Mais toute découverte demande à être confirmé car des biais subtils sont parfois possibles.

L'outil du CERN de Genève qui sera bientôt encore plus performant apportera certainement de nouvelles découvertes.

Lien à poster
Partager sur d’autres sites

Membre, 79ans Posté(e)
Hérisson_ Membre 693 messages
Forumeur forcené ‚ 79ans‚
Posté(e)
il y a 6 minutes, Pierrot89 a dit :

Mais toute découverte demande à être confirmé car des biais subtils sont parfois possibles

C'est la sagesse même.

Une mise à jour de l'article de Wikipédia remet le problème en perspective:

Moment magnétique

Article connexe : Anomalies du muon.

Le moment magnétique du muon est l'objet d'intenses recherches, tant théoriques qu'expérimentales, parce que sa valeur précise est un test du modèle standard. On en discute en général sous la forme du facteur de Landé g {\displaystyle g} g, un nombre sans dimension défini par2 :

g = ( 2 m | q | ) μ S {\displaystyle g=\left({\frac {2m}{|q|}}\right){\frac {\mu }{S}}} {\displaystyle g=\left({\frac {2m}{|q|}}\right){\frac {\mu }{S}}}

où :

µ est le moment magnétique du muon ;
S son spin ;
m sa masse ;
q sa charge électrique.

L'équation de Dirac donne g = 2 {\displaystyle g=2} g=2 pour les particules de spin 1/2 comme le muon, mais le modèle standard prédit une valeur légèrement supérieure (d'un peu plus d'un millième) en raison de son interaction avec les particules virtuelles du vide. Pour comparer les valeurs théoriques et expérimentales de g {\displaystyle g} g on définit l'« anomalie du muon »2 :

a μ = g − 2 2 {\displaystyle a_{\mu }={\frac {g-2}{2}}} {\displaystyle a_{\mu }={\frac {g-2}{2}}}.

Les résultats les plus précis obtenus en 2021 sont2 :

Anomalie du muon Valeur
Mesure expérimentale 0,001 165 920 61(41)
Calcul théorique de référence 0,001 165 918 10(43)
Différence 0,000 000 002 51(59)

Ces deux résultats ne diffèrent que de 2,5 millionièmes (en valeur relative) mais la différence, égale à 4,3 écarts-type, est très probablement réelle. Si elle était confirmée (on a coutume d'exiger une différence d'au moins 5 écarts-type pour s'autoriser à conclure), elle serait la preuve que le modèle standard ne décrit pas parfaitement la réalité physique. L'une des explications possibles est l'existence de particules virtuelles non prévues par le modèle standard.

Un autre calcul théorique incluant la composante hadronique à l'aide de calcul de chromodynamique quantique sur réseau, publié en même temps que l'article indiquant la nouvelle valeur expérimentale, calcule une valeur de l’anomalie plus proche de la valeur expérimentale bien que toujours non compatible avec elle3. Le calcul nécessite d'être confirmé par d'autres équipes et il restera à expliquer la différence avec la valeur théorique de référence4

La lecture de l'article entier permet de se remettre en mémoire les caractéristiques de ces particules:

https://fr.wikipedia.org/wiki/Muon

image.thumb.png.79cdd824285911cd77693a816cdad8b9.png

Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
il y a une heure, Hérisson_ a dit :

Le scoop est plutôt éventé: il remonte à avril 2021 !

C'est comme le port salut, c'est écrit dessus :)

2021 un espoir pour la physique des particules 

Et non

2022 scoop de zenalpha

Merci pour tes liens très longs, je prendrai le temps de les lire.

Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
Il y a 8 heures, Hérisson_ a dit :

 

Ces deux résultats ne diffèrent que de 2,5 millionièmes (en valeur relative) mais la différence, égale à 4,3 écarts-type, est très probablement réelle. Si elle était confirmée (on a coutume d'exiger une différence d'au moins 5 écarts-type pour s'autoriser à conclure), elle serait la preuve que le modèle standard ne décrit pas parfaitement la réalité physique. L'une des explications possibles est l'existence de particules virtuelles non prévues par le modèle standard.

Le niveau de certitude de 5 sigmas que l'on sollicite en physique des particules pour qualifier des mesures de certaines et non de "tres probablement réel" est stupéfiant

En pratique, 5 sigmas, ça correspond à une probabilité d'erreur de 0.00006%

Modifié par zenalpha
Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
Il y a 8 heures, Pierrot89 a dit :

    L'outil du CERN de Genève qui sera bientôt encore plus performant apportera certainement de nouvelles découvertes.

Au cern, via Crivellin, c'est la mise en évidence des leptoquarks qui est l'hypothèse la plus sérieuse, des particules hypothétiques qui pourraient expliquer cette anomalie et dans le même temps jouer un rôle dans la désintégration du boson de Higgs en muons.

http://home.cern/fr/news/press-release/physics/cern-experiments-announce-first-indications-rare-higgs-boson-process

https://arxiv.org/abs/2008.02643

Modifié par zenalpha
Lien à poster
Partager sur d’autres sites

Membre, 53ans Posté(e)
SolarisXXX Membre 1 067 messages
Mentor‚ 53ans‚
Posté(e)
Le 15/01/2022 à 19:23, zenalpha a dit :

Le niveau de certitude de 5 sigmas que l'on sollicite en physique des particules pour qualifier des mesures de certaines et non de "tres probablement réel" est stupéfiant

En pratique, 5 sigmas, ça correspond à une probabilité d'erreur de 0.00006%

Sous hypothèse de normalité sinon ça ne veut rien dire ...

  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
il y a une heure, SolarisXXX a dit :

Sous hypothèse de normalité sinon ça ne veut rien dire ...

Venant d’un fake, on ne pouvait attendre qu’une belle lapalissade 

C’est fait.

 

Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)

A réflexion...  @SolarisXXX , puisque vous vous déclarez "enseignant chercheur dans le domaine de l’analyse des données" (enchanté) et puisque vous proposiez dans le topic concernant l’hydroxychloroquine qu’on vous pose questions dans ce domaine :

1- Pourquoi dans les  expériences au LHC se réfère t'on à la loi normale pour calculer différentes probabilités et non par exemple à la loi de cauchy sur laquelle nous avons échangé ou sur n’importe quelle autre loi statistique théorique existante ?

2- Dans quels domaines de la physique (ou autres) se réfère t'on à la loi de Cauchy sur laquelle nous avions échangé ? Et pourquoi pas inversement à la loi normale ?

Je ne connais que la spectroscopie dont l’utilisation de la loi met en relation l’indice du prisme et la longueur d'onde (on en a d'ailleurs même pas besoin en pratique...) et qui sert notamment dans la caractérisation du spectre d’émission discret dont je parlais à @Hérisson_ alors qu’il pensait que les spectres continus étaient une démonstration que l’énergie pouvait aller au deça d’une valeur finie de manière continue

Le monde est petit...tout se recoupe...toujours 

A quoi sert cette loi j’ai pas d’exemple concret en tête à l’inverse

3- Je n’ai toujours pas compris (et je ne comprendrai jamais...)  pourquoi vous calculez une esperance infinie pour la loi de Cauchy alors qu’elle n’est pas calculable et que,  si nous calculons la moyenne empirique sur des variables qui suivent cette loi, aucune ne diverge à l’infini et, au contraire, toutes ces moyennes restent aléatoires sans diverger ni converger vers une valeur finie (ce qui est une illustration empirique que la variable n’étant pas intégrable, on ne peut pas calculer d'espérance et qu’elle est indéfinie)

J’avoue que ce point .. totalement trivial vous a ôté toute crédibilité à mes yeux mais crevons cet abscès

Comment avez vous pu imaginer même sans connaître Cauchy ce qui est normal selon votre domaine d'activité une loi statistique quelle qu’elle soit avec une esperance infinie ?

D’ailleurs faute de pouvoir la calculer, pourquoi la médiane qui remplace l’esperance dans cette loi est elle finie ?

Si c’est une erreur de votre part, n’en parlons plus...même si c’est quand même gros (ça peut arriver) mais est-ce le cas ?

4- Quelle est la probabilité qu’une observation de la loi normale (centrée réduite ou pas) soit donc >4,3 sigmas (comme dans l’article présenté) et combien d’observations réelles faut il pouvoir mesurer en réalité pour que les anomalies constatées dans les mesures par rapport à la loi normale théorique soient en nombre suffisant ?

Voilà gommons tout (je vous avoue avoir un énooooorme doute) et recommençons sur des bases saines

Cordialement 

 

Modifié par zenalpha
Lien à poster
Partager sur d’autres sites

Membre, 53ans Posté(e)
SolarisXXX Membre 1 067 messages
Mentor‚ 53ans‚
Posté(e)
Il y a 9 heures, zenalpha a dit :

Venant d’un fake, on ne pouvait attendre qu’une belle lapalissade 

C’est fait.

 

Cher ami !

Tout d'abord pourriez-vous essayer de vous contrôler et arréter d'être agressif pour un oui pour un non ?

Relisez mon message il ne contient aucune agression que je sache.

Comme on se doit d'être précis (et concis) en mathématiques je faisais juste référence au fait que vous avez omis que votre résultat n'est vrai que sous "hypothèse de normalité" ... aucun "fake" là dedans que je sache puisque ce que j'ai dit est la totale vérité ... donc pourquoi mentir ?

Sinon pour en revenir à nos moutons vous faîtes référence à l'interprétation en terme d'écart-type de l'intervalle de fluctuation associé à une variable aléatoire. J’ai juste fait remarquer que dans votre cas vous utilisez la loi normale, ceci n'est pas trivial puisque ledit intervalle dépend de la loi postulé ... ou non si l'on se réfère à certains résultats qui eux sont totalement indépendants de la loi utilisée (je ne vous ferait pas l'offense de les citer, un puits de science tel que vous les connait sur le bout des doigts).

Après sur le fond maintenant je ne préciserait pas ceci à quelqu'un de spécialiste du domaine où ce serait sous-entendu (je parle de la normalité) mais ayant pu constater que vous avez de gros problèmes de compréhension pour l'espérance voire la médiane je me suis permis de préciser.

D'autant que des indicateurs de dispersion c'est un peu "un cran au dessus" ... ils sont intrinsèquement liés à des produits scalaires ... qui peuvent être liés à des espaces de Hilbert .. sujet qui semble aussi vous tenir à coeur tout en étant visiblement assez nébuleux pour vous.

Sur ce je vous souhaite une bonne journée.

Bien cordialement.

 

Modifié par SolarisXXX
  • Like 1
Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)

Les détecteurs du CERN avec leurs chambres multifilaires sont nous le voyons bien dans cette magnifique vidéo de Louapre des instruments d’une précision incroyable qui ont, grâce à leurs liaisons directes avec ce réseau d’ordinateurs mondial via la grille de calcul la capacité d’engranger une information colossale de l’ordre de milliers d’hexabyts

Ces expériences conjuguent une coordination internationale exceptionnelle ainsi que des recherches parmi les plus abouties en matière notamment de recherche en réseaux neuronaux spécifiques pour la physique des particules 

Ces détecteurs sont donc

Alice (au pays des merveilles et la pilule rouge de Morpheus qui ne passe pas toujours très bien ah ah ah...) pèse 10 000 tonnes, à seize mètre de diamètre et dispose d’un spectromètre à muons.

Son rôle est d’explorer les conditions extrêmes de température et de densité pour la matière nucléaire. Il engrange chaque seconde un giga de données 

160 000 micro détecteurs dont la résolution temporelle est de 100 pico secondes

Le CMS très bien présenté dans la vidéo a nécessité de faire glisser sur une centaine de mètres des éléments de 1000 tonnes sur un coussin à air comprimé en les faisant descendre sur d’énormes grues inspirées des chantiers navals 

Atlas toujours superbement présenté pèse autant que la tour Eiffel 45 m de long, 25m de haut

Alice comme Atlas utilisent les chambres multifilaires inventées par Charpak et qui ont remplacé les chambres à bulles

Époque où il fallait une armée de physiciens concentrés sur des millions de photographies préhistoriques de l’Analyse de Données

Le LHCB plus particulièrement spécialisé dans l’étude de la violation de la symétrie CP très importante tant en cosmologie concernant l’étude de la matière noire,  la prédominance de la matière sur l’animalière que concernant l’étude des interactions faibles

Ce qui m’intéresserait en collaboration avec toi @SolarisXXX

C’est l’échange autour de l’analyse des données 

Chaque expérience génèrent des millions de collisions dont parfois seulement une dizaine sont significatifs sur le phénomène recherché

Et donc en particulier ce domaine dont, jusqu'à présent, je me suis toujours un peu méfier à la frontière du déap learning

Un réseau de neurones est destiné à faire des tris et prendre des décisions y compris en synchrone et presque toujours dans un contexte statistique 

La plupart du temps, c’est un processus d’apprentissage assisté car au départ l’algorithme est à proprement parler...stupide

On lui soumet un flux de données à partir d’échantillons pré filtrés qu’on compare "bêtement" à la réponse correcte pré connue

L’explication fait intervenir un volume considérable pour retenir presque de manière heuristique mais à base de l’architecture du réseau neuronal (parfois 5 couches) et donc gouvernés par une certaine....fonction mathématique

Toujours est-il qu'après de très très très nombreux essais (je trouve vraiment le concept du réseau neuronal excessivement efficace en flux énorme et....totalement stupide, incompréhensible dans ses choix de pondération) le réseau de neurones devient capable de prendre les décisions notamment de filtrage pour optimiser le ratio signal / bruit

Bref la guerre et le nerf de la guerre est aussi statistique 

Heureux d’échanger nos réflexions là dessus @SolarisXXX

 

il y a 8 minutes, SolarisXXX a dit :

Cher ami !

Tout d'abord pourriez-vous essayer de vous contrôler et arréter d'être agressif pour un oui pour un non ?

 

Aucun

Parlons du fond

Rassurez moi éventuellement,   mes premières questions demandent maxi 10 min pour y répondre et j’ai besoin d’échanges... de fond ne serait ce que pour être rassuré/votre technicité présentée

Toutes étaient triviales, vraiment triviales...

Merci par avance 

Modifié par zenalpha
Lien à poster
Partager sur d’autres sites

Membre, 53ans Posté(e)
SolarisXXX Membre 1 067 messages
Mentor‚ 53ans‚
Posté(e)
Il y a 2 heures, zenalpha a dit :

A réflexion...  @SolarisXXX , puisque vous vous déclarez "enseignant chercheur dans le domaine de l’analyse des données" (enchanté) et puisque vous proposiez dans le topic concernant l’hydroxychloroquine qu’on vous pose questions dans ce domaine :

1- Pourquoi dans les  expériences au LHC se réfère t'on à la loi normale pour calculer différentes probabilités et non par exemple à la loi de cauchy sur laquelle nous avons échangé ou sur n’importe quelle autre loi statistique théorique existante ?

2- Dans quels domaines de la physique (ou autres) se réfère t'on à la loi de Cauchy sur laquelle nous avions échangé ? Et pourquoi pas inversement à la loi normale ?

Je ne connais que la spectroscopie dont l’utilisation de la loi met en relation l’indice du prisme et la longueur d'onde (on en a d'ailleurs même pas besoin en pratique...) et qui sert notamment dans la caractérisation du spectre d’émission discret dont je parlais à @Hérisson_ alors qu’il pensait que les spectres continus étaient une démonstration que l’énergie pouvait aller au deça d’une valeur finie de manière continue

Le monde est petit...tout se recoupe...toujours 

A quoi sert cette loi j’ai pas d’exemple concret en tête à l’inverse

3- Je n’ai toujours pas compris (et je ne comprendrai jamais...)  pourquoi vous calculez une esperance infinie pour la loi de Cauchy alors qu’elle n’est pas calculable et que,  si nous calculons la moyenne empirique sur des variables qui suivent cette loi, aucune ne diverge à l’infini et, au contraire, toutes ces moyennes restent aléatoires sans diverger ni converger vers une valeur finie (ce qui est une illustration empirique que la variable n’étant pas intégrable, on ne peut pas calculer d'espérance et qu’elle est indéfinie)

J’avoue que ce point .. totalement trivial vous a ôté toute crédibilité à mes yeux mais crevons cet abscès

Comment avez vous pu imaginer même sans connaître Cauchy ce qui est normal selon votre domaine d'activité une loi statistique quelle qu’elle soit avec une esperance infinie ?

D’ailleurs faute de pouvoir la calculer, pourquoi la médiane qui remplace l’esperance dans cette loi est elle finie ?

Si c’est une erreur de votre part, n’en parlons plus...même si c’est quand même gros (ça peut arriver) mais est-ce le cas ?

4- Quelle est la probabilité qu’une observation de la loi normale (centrée réduite ou pas) soit donc >4,3 sigmas (comme dans l’article présenté) et combien d’observations réelles faut il pouvoir mesurer en réalité pour que les anomalies constatées dans les mesures par rapport à la loi normale théorique soient en nombre suffisant ?

Voilà gommons tout (je vous avoue avoir un énooooorme doute) et recommençons sur des bases saines

Cordialement 

 

Désolé mais je n'ai pas le temps ni l'envie de me livrer à vos "questionnaires" .... le second semestre commence et j'ai pas mal de cours aujourd'hui mon bon ami (modèles linéaires,  MSP et DOE in english ... je ne détaille pas ces acronymes qui n'ont pas de secrets pour vous j’en suis sur).

De plus si vous avez des questions sur les torchons publiés par Raoult le mieux est de les poser dans les sujets dédiés cela pourra éclairer les complotistes antivax (on peut toujours rêver ....).

Je vous réponds par contre (une dernière fois car ça devient usant) concernant l’affaire de l'espérance.

Vous avez expliqué qu'une espérance infinie cela ne peut pas exister (tout en ayant une médiane finie) ... quand je vous ai dit que c'était faux vous m'avez pris de haut comme vous savez si bien le faire.

Donc je vous ai donné un exemple très simple avec une densité de probabilité en 1/x**2 ou la médiane existe et où l'espérance est infinie ... point final ...

Vous êtes ensuite monté sur vos grands chevaux en expliquant que de telles lois ne servent à rien voire que je ne saurai faire que des "calculs" mais (bien évidemment) rien comprendre au fond des choses (alors que - c'est évident - vous comprenez tout).

Le problème n'est absolument pas "scientifique" ici mais relationnel ... vous avez affirmé une grosse connerie avec un énorme aplomb et je vous ai trouvé une contre-exemple .. quelqu'un de normal dirait "ok je me suis trompé" ... mais comme vous êtes incapable d'admettre cela vous vous enfoncez toujours plus ...

Bonne journée.

Modifié par SolarisXXX
  • Merci 1
  • Haha 1
Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
il y a 5 minutes, SolarisXXX a dit :

Désolé mais je n'ai pas le temps ni l'envie de me livrer à vos "questionnaire" ....

Bababa.... non....

Vous avez expressément écrit que l’espérance de la loi de Cauchy pouvait être infinie...

Expressément 

Alors je vous le demande à nouveau, c'est le cas ?

Restons simple dans l’échange 

C’est technique mais de (très) faible niveau je suis ok

Ça peut être une simple erreur j’ai pas de souci avec les erreurs...

Modifié par zenalpha
Lien à poster
Partager sur d’autres sites

Membre, 53ans Posté(e)
SolarisXXX Membre 1 067 messages
Mentor‚ 53ans‚
Posté(e)
il y a 6 minutes, zenalpha a dit :

Bababa.... non....

Vous avez expressément écrit que l’espérance de la loi de Cauchy pouvait être infinie...

Expressément 

Alors je vous le demande à nouveau, c'est le cas ?

Restons simple dans l’échange 

C’est technique mais de (très) faible niveau je suis ok

Ça peut être une simple erreur j’ai pas de souci avec les erreurs...

Der de der car vous en savez pas vous arréter.

J'ai finalement illustré ceci  à l'aide d'un exemple plus simple (pas loin de la loi de Cauhy) et "fait maison" avec la densité en 1/x**2 sur l'intervalle 1 l'infini ... merci de vous référer à ce contre exemple s’il vous pose problème.

Vous ne comprenez pas sur cet exemple que l'espérance mathématique est infinie alors que la médiane vaut 2 ?

CQFD ... donc vos affirmations de la semaine dernière sur lesquelles vous tournez encore en boucle sont fausses.

Bonne journée le devoir m'appelle  (vous en travaillez jamais ?)

Modifié par SolarisXXX
  • Merci 1
Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
à l’instant, SolarisXXX a dit :

Der de der car vous en savez pas vous arréter.

J'ai finalement illustré ceci  à l'aide d'un exemple plus simple (pas loin de la loi de Cauhy) et "fait maison" avec la densité en 1/x**2 sur l'intervalle 1 l'infini ... merci de vous référer à ce contre exemple s’il vous pose problème.

Vous ne comprenez pas sur cet exemple que l'espérance mathématique est infinie alors que la médiane vos 2 ?

CQFD ... donc vos affirmations de la semaine dernière sur lesquelles vous tournez encore en boucle sont fausses.

Bonne journée le devoir m'appelle  (vous en travaillez jamais ?)

Pas au niveau...

Je vous le répète, dans mon esprit, à 100%, non seulement vous n’êtes ni prof de stats et encore moins statisticien

Très mauvaise base pour échanger d'autant qu’en mécanique quantique, c’est même pas un niveau initiatique qui vous permet de torpiller mes écrits bêtement 

Faite croire ce que vous voulez à qui vous voulez ou vous voulez

Mais ne venez pas sur mes topics, je vous le demande une dernière fois gentiment si le fond ne vous intéresse pas

Merci par avance 

Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
Il y a 2 heures, SolarisXXX a dit :

D'autant que des indicateurs de dispersion c'est un peu "un cran au dessus" ... ils sont intrinsèquement liés à des produits scalaires ... qui peuvent être liés à des espaces de Hilbert .. sujet qui semble aussi vous tenir à coeur tout en étant visiblement assez nébuleux pour vous.

Techniquement c'est totalement délirant 

Évidemment que dans les espaces de Hilbert on peut être amené à faire des calculs de variance...t’y connaît strictement rien on le savait déjà...puisque tu ne sais même pas ce qu’est la mécanique quantique....

Mais les indicateurs de dispersion pour l’ensemble des lois statistiques dites paramétriques y compris pour Cauchy, c’est première année de stat et dès la première variable quantitative continue (donc intégrable...) en univarié...

Les indicateurs de dispersion sont multiples mais le principe est toujours le même, on regarde comment les observations (ou la variable) s’écartent des tendances centrales dont on considère par exemple le carré des écarts à la moyenne (variance) ou la racine carrée de la variance (le sigma dont nous parlons)

Il en existe bien d’autres de même que des indicateurs de symétrie ou d’aplatissement bref...pas le temps pour un xème cours...

Faut bien comprendre que, d’une part tu n’as aucune notion basique de mécanique quantique....mais que, de plus, cauchy c’est niveau 1ere année et les indicateurs de dispersion de mon temps c’était en seconde.

Mon point de vue sur ton niveau est qu’il est totalement catastrophique 

Arrête s’il te plaît de m’arracher les yeux à chaque écrit, s’il te plaît...ne me commente jamais, c’est soit hors sujet, soit trivial soit faux soit délirant, bref tu ne m’intéresses pas tu me colles, c’est du....harcèlement 

Merci, vraiment...

Modifié par zenalpha
Lien à poster
Partager sur d’autres sites

Membre, Agitateur Post Synaptique, 56ans Posté(e)
zenalpha Membre 22 480 messages
56ans‚ Agitateur Post Synaptique,
Posté(e)
Il y a 5 heures, zenalpha a dit :

4- Quelle est la probabilité qu’une observation de la loi normale (centrée réduite ou pas) soit donc >4,3 sigmas (comme dans l’article présenté) ?

Petit exercice pratique de 2 sec pour un statisticien 1ere année, 5 minutes pour un mathématicien qui déteste les stats et super instructif pour qui aime apprendre et prend une matinée à se casser (et tout à fait normalement sans honte, bien au contraire) la tête 

Pourquoi ?

Juste pour comprendre en pianotant "comment ça marche" dans les grandes lignes évidemment une loi stat

En cliquant sur bulles aides, changeant des paramètres...

Je passe mon temps dans des casse tête mais plus depuis quasi 40 ans sur bien d’autres sujets...

Pour apprendre se rendre compte qu’on ne comprend pas est le strict minimum 

Je demande pas la réponse mais en mp si ça amuse

https://wims.univ-cotedazur.fr/wims/wims.cgi?session=Y2BC1DE4C0.2&+lang=fr&+module=tool%2Fstat%2Ftable.fr&+cmd=resume

Modifié par zenalpha
Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.

×