Aller au contenu
  • billets
    32
  • commentaires
    53
  • vues
    32 500

LHC du CERN - Présentation


zenalpha

269 vues

 

Les détecteurs du CERN avec leurs chambres multifilaires sont des instruments d’une précision incroyable qui ont, grâce à leurs liaisons directes avec ce réseau d’ordinateurs mondial via la grille de calcul la capacité d’engranger une information colossale de l’ordre de milliers d’hexabyts

Ces expériences conjuguent une coordination internationale exceptionnelle ainsi que des recherches parmi les plus abouties en matière notamment de recherche en réseaux neuronaux spécifiques pour la physique des particules 

Ces détecteurs sont :

Alice qui pèse 10 000 tonnes, à seize mètre de diamètre et dispose d’un spectromètre à muons.

Son rôle est d’explorer les conditions extrêmes de température et de densité pour la matière nucléaire. Il engrange chaque seconde un giga de données 

160 000 micro détecteurs dont la résolution temporelle est de 100 pico secondes

Le CMS très bien présenté dans la vidéo a nécessité de faire glisser sur une centaine de mètres des éléments de 1000 tonnes sur un coussin à air comprimé en les faisant descendre sur d’énormes grues inspirées des chantiers navals 

Atlas toujours superbement présenté pèse autant que la tour Eiffel 45 m de long, 25m de haut

Alice comme Atlas utilisent les chambres multifilaires inventées par Charpak et qui ont remplacé les chambres à bulles

Époque où il fallait une armée de physiciens concentrés sur des millions de photographies préhistoriques de l’Analyse de Données

Le LHCB plus particulièrement spécialisé dans l’étude de la violation de la symétrie CP très importante tant en cosmologie concernant l’étude de la matière noire,  la prédominance de la matière sur l’animalière que concernant l’étude des interactions faibles 

Chaque expérience génèrent des millions de collisions dont parfois seulement une dizaine sont significatifs sur le phénomène recherché

Un réseau de neurones est destiné à faire des tris et prendre des décisions y compris en synchrone et presque toujours dans un contexte statistique 

La plupart du temps, c’est un processus d’apprentissage assisté

On lui soumet un flux de données à partir d’échantillons pré filtrés qu’on compare à la réponse correcte pré connue

L’explication fait intervenir un volume considérable pour retenir presque de manière heuristique mais à base de l’architecture du réseau neuronal (parfois 5 couches) et donc gouvernés par une certaine....fonction mathématique

Toujours est-il que le réseau de neurones devient capable de prendre les décisions notamment de filtrage pour optimiser le ratio signal / bruit

Bref la guerre et le nerf de la guerre est aussi statistique 

1 Commentaire


Commentaires recommandés

Invité
Ajouter un commentaire…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement
×