49 research outputs found
The PCIe-based readout system for the LHCb experiment
International audienceThe LHCb experiment is designed to study differences between particles and anti-particles as well as very rare decays in the beauty and charm sector at the LHC. The detector will be upgraded in 2019 in order to significantly increase its efficiency, by removing the first-level hardware trigger. The upgrade experiment will implement a trigger-less readout system in which all the data from every LHC bunch-crossing are transported to the computing farm over 12000 optical links without hardware filtering. The event building and event selection are carried out entirely in the farm. Another original feature of the system is that data transmitted through these fibres arrive directly to computers through a specially designed PCIe card called PCIe40. The same board handles the data acquisition flow and the distribution of fast and slow controls to the detector front-end electronics. It embeds one of the most powerful FPGAs currently available on the market with 1.2 million logic cells. The board has a bandwidth of 480 Gbits/s in both input and output over optical links and 100 Gbits/s over the PCI Express bus to the CPU. We will present how data circulate through the board and in the PC server for achieving the event building. We will focus on specific issues regarding the design of such a board with a very large FPGA, in particular in terms of power supply dimensioning and thermal simulations. The features of the board will be detailed and we will finally present the first performance measurement
Conception and Validation Software Tools for the Level 0 Muon Trigger of LHCb
The Level-0 muon trigger processor of the LHCb experiment looks for straight particules crossing muon detector and measures their transverse momentum. It processes 40×106 proton-proton collisions per second. The tracking uses a road algorithm relying on the projectivity of the muon detector. The architecture of the Level-0 muon trigger is complex with a dense network of data interconnections. The design and validation of such an intricate system has only been possible with intense use of software tools for the detector simulation, the modelling of the hardware components behaviour and the validation. A database describing the dataflow is the corner stone between the software and hardware components
Évolution de la contribution française à l'upgrade de LHCb
Ce document décrit l'évolution de la contribution française à l'upgrade de LHCb. Il s'inscrit dans le prolongement de la Lettre d'Intention [1], du Framework TDR [2], du document soumis au Conseil scientifique de l'IN2P3 le 21 juin 2012 [3], et des Technical Design Reports soumis au LHCC en novembre 2013 [4, 5]. Ces derniers concernent le détecteur de vertex et les détecteurs utilisés dans l'identification des particules. La contribution française s'est cristallisée autour de quatre grands projets : l'électronique front-end des calorimètres et du trajectographe à fibres scintillantes, le système de déclenchement de premier niveau et la carte de lecture à 40MHz commune à l'ensemble des sous-systèmes. Dans ce document nous décrivons les contributions envisagées et les ressources nécessaires pour mener à bien ces projets
Contribution française à l'upgrade de LHCb
La contribution française à l'upgrade de LHCb est d etaillée dans ce document et s'inscrit dans le prolongement du Framework TDR soumis au LHCC le 25 mai 2012. La France a contribué à la conception et à la réalisation de la mécanique et de l'électronique de lecture des calorimètres. Elle est l'acteur principal du système de déclenchement de premier niveau et l'initiatrice du projet DIRAC, progiciel de traitement et d'analyse de données dans un environnement distribué. Les physiciens et ingénieurs français ont de nombreuses responsabilités de premier plan et sont très fortement impliqués dans l'analyse des données. Les groupes français souhaitent poursuivre leur forte participation a l'expérience en contribuant a son upgrade, notamment l'électronique de lecture des calorimètres et du trajectographe en fibres scintillantes ainsi qu'au data processing
Contribution française à l'upgrade de LHCb
La contribution française à l'upgrade de LHCb est d etaillée dans ce document et s'inscrit dans le prolongement du Framework TDR soumis au LHCC le 25 mai 2012. La France a contribué à la conception et à la réalisation de la mécanique et de l'électronique de lecture des calorimètres. Elle est l'acteur principal du système de déclenchement de premier niveau et l'initiatrice du projet DIRAC, progiciel de traitement et d'analyse de données dans un environnement distribué. Les physiciens et ingénieurs français ont de nombreuses responsabilités de premier plan et sont très fortement impliqués dans l'analyse des données. Les groupes français souhaitent poursuivre leur forte participation a l'expérience en contribuant a son upgrade, notamment l'électronique de lecture des calorimètres et du trajectographe en fibres scintillantes ainsi qu'au data processing
The LHCb upgrade I
The LHCb upgrade represents a major change of the experiment. The detectors have been almost completely renewed to allow running at an instantaneous luminosity five times larger than that of the previous running periods. Readout of all detectors into an all-software trigger is central to the new design, facilitating the reconstruction of events at the maximum LHC interaction rate, and their selection in real time. The experiment's tracking system has been completely upgraded with a new pixel vertex detector, a silicon tracker upstream of the dipole magnet and three scintillating fibre tracking stations downstream of the magnet. The whole photon detection system of the RICH detectors has been renewed and the readout electronics of the calorimeter and muon systems have been fully overhauled. The first stage of the all-software trigger is implemented on a GPU farm. The output of the trigger provides a combination of totally reconstructed physics objects, such as tracks and vertices, ready for final analysis, and of entire events which need further offline reprocessing. This scheme required a complete revision of the computing model and rewriting of the experiment's software