23 research outputs found

    Contribution française à l'upgrade de LHCb

    Get PDF
    La contribution française à l'upgrade de LHCb est d etaillée dans ce document et s'inscrit dans le prolongement du Framework TDR soumis au LHCC le 25 mai 2012. La France a contribué à la conception et à la réalisation de la mécanique et de l'électronique de lecture des calorimètres. Elle est l'acteur principal du système de déclenchement de premier niveau et l'initiatrice du projet DIRAC, progiciel de traitement et d'analyse de données dans un environnement distribué. Les physiciens et ingénieurs français ont de nombreuses responsabilités de premier plan et sont très fortement impliqués dans l'analyse des données. Les groupes français souhaitent poursuivre leur forte participation a l'expérience en contribuant a son upgrade, notamment l'électronique de lecture des calorimètres et du trajectographe en fibres scintillantes ainsi qu'au data processing

    Contribution française à l'upgrade de LHCb

    No full text
    La contribution française à l'upgrade de LHCb est d etaillée dans ce document et s'inscrit dans le prolongement du Framework TDR soumis au LHCC le 25 mai 2012. La France a contribué à la conception et à la réalisation de la mécanique et de l'électronique de lecture des calorimètres. Elle est l'acteur principal du système de déclenchement de premier niveau et l'initiatrice du projet DIRAC, progiciel de traitement et d'analyse de données dans un environnement distribué. Les physiciens et ingénieurs français ont de nombreuses responsabilités de premier plan et sont très fortement impliqués dans l'analyse des données. Les groupes français souhaitent poursuivre leur forte participation a l'expérience en contribuant a son upgrade, notamment l'électronique de lecture des calorimètres et du trajectographe en fibres scintillantes ainsi qu'au data processing

    Évolution de la contribution française à l'upgrade de LHCb

    Get PDF
    Ce document décrit l'évolution de la contribution française à l'upgrade de LHCb. Il s'inscrit dans le prolongement de la Lettre d'Intention [1], du Framework TDR [2], du document soumis au Conseil scientifique de l'IN2P3 le 21 juin 2012 [3], et des Technical Design Reports soumis au LHCC en novembre 2013 [4, 5]. Ces derniers concernent le détecteur de vertex et les détecteurs utilisés dans l'identification des particules. La contribution française s'est cristallisée autour de quatre grands projets : l'électronique front-end des calorimètres et du trajectographe à fibres scintillantes, le système de déclenchement de premier niveau et la carte de lecture à 40MHz commune à l'ensemble des sous-systèmes. Dans ce document nous décrivons les contributions envisagées et les ressources nécessaires pour mener à bien ces projets

    Étude de la diffusion optique par des matériaux hétérogènes rugueux :<br />Diffusions surfacique, volumique et couplage surface/volume

    No full text
    The modeling of the scattering by rough heterogeneous media is a complex subject. In our work, the size of the various element involved are in the optical and the infra-red domain. We aim this work at the computation of the Bidirectional Reflectence Distribution Function in 2D geometry. A Monte Carlo approach based on a finite difference in the temporal domain method (FDTD) for the electromagnetic computation and rough heterogeneous media generation (Metropolis) is developped. This approach is used to study the scattering by rough surface with a gaussian or an exponential autocorrelation function. The results of these computations are compared with the ones given by the Method Of Moments. Then, a new approach to derive the effective optical constant of an heterogeneous media based on the coherent energy propagation is presented. It is used to assess the validity domain of approximate models : Maxwell-Garnett, Bruggeman, Foldy-Twersky and Keller. These results are used to study the far field scattered by a bidisperse media and the possibility of using an homogenehized media to represent the small particules. In the last part, we study rough heterogeneous media. We assess the validity of a splitting rule based on the effective optical constant previously described for the surface scattering in particular in the case where the roughness is created by the particles.La modélisation de la diffusion par des matériaux hétérogènes rugueux est un sujet complexe tant au niveau théorique que numérique. Dans notre travail, les dimensions des différents éléments constitutifs du milieu sont dans le domaine résonant et leurs propriétés sont caractéristiques du domaine optique ou infrarouge. Nous chercherons à calculer numériquement la Fonction de Distribution de la Réflectance Bidirectionnelle pour une géométrie 2D. Nous développons une approche de Monte Carlo basée sur la combinaison d'une méthode des différences finies dans le domaine temporel (FDTD) pour le calcul électromagnétique et de méthodes de génération de milieux hétérogènes rugueux (Metropolis). Nous appliquons cette approche pour étudier la diffusion par des surfaces rugueuses de fonctions d'auto-corrélation gaussienne ou exponentielle. Les résultats des calculs sont comparés avec ceux donnés par la Méthode des Moments. Ensuite, nous proposons une méthode originale de détermination d'un indice effectif relié à la propagation de l'énergie cohérente. Nous l'utilisons pour déterminer les domaines de validité de modèles approchés : Maxwell-Garnett, Bruggeman, Foldy-Twersky et Keller. Nous utilisons ces résultats pour étudier la diffusion en champ lointain par un ensemble bidisperse de particules, et notamment la possibilité de remplacer l'influence des petites particules par le milieu homogénéisé décrit précédemment. Enfin, nous étudions le problème du couplage surface/volume. Nous vérifions une hypothèse de découplage basée sur l'utilisation de l'indice effectif défini précédemment pour la diffusion surfacique notamment dans le cas où la rugosité est directement corrélée à la position des particules

    Hardware Implementation of an ADC Error Compensation Using Neural Networks

    No full text
    International audienceA compensation technique for Analog-to-Digital Converter (ADC) based on a neural network is proposed. The implementation is done both in software and in a hardware description language. The latter is targeted for a massively parallel ASIC. The training of the neural network is done by learning a Look Up Table generated by processing the output of the ADC for sine waves inputs. Then, the effective number of bits (ENOB) is computed over a large range of frequencies for the raw data of a 100MS/s ADC and for the compensated data. These results are used to compare various neural network architecture and the effects of the approximations made for the hardware implementation

    A Front End chip development for triggering with Silicon Strip Pt-modules

    No full text
    MICRHAU - pole de Microélectronique RHone Auvergn

    The Front-End electronics for the LHCb scintillating fibres detector

    No full text
    The LHCb detector will be upgraded during the next LHC shutdown in 2018/19 [ 1 ]. The tracker system will have a major overhaul. Its components will be replaced with new technologies in order to cope with the increased hit occupancy and radiation environment. A detector made of scintillating fibres read out by silicon photomultipliers (SiPM) is studied for this upgrade. Even if this technology has proven to achieve high efficiency and spatial resolution, its integration within a LHC experiment bears new challenges. This detector will consist of 12 planes of 5 to 6 layers of 250 m m fibres with an area of 5 6 m 2 . It leads to a total of 500k SiPM channels which need to be read out at 40 MHz. This article gives an overview of the R&D; status of the readout board and the PACIFIC chip. The readout board is connected to the SiPM on one side and to the experiment data-acquisition, experimental control system and services on the other side. The PACIFIC chip is a 128-channels ASIC which can be connected to one 128-channels SiPM without the need of any external component. It includes the analog signal processing and a 2 bits non-linear flash ADC for digitisation. The PACIFIC chip design features a very fast shaping ( 10 ns ) and the ability to cope with different SiPM suppliers with a power consumption below 8 mW per channe

    A Front End Chip Development For The SLHC CMS Silicon Strip Tracker

    No full text
    International audienc

    The Level 0 Trigger Decision Unit for the LHCb experiment

    No full text
    International audienceThe LHCb experiment is currently being installed at the Large Hadron Collider at CERN (Geneva, Switzerland). In order to reduce the amount of data storage for offline analysis, a trigger system is required. The Level-0 Decision Unit (LODU) is the central part of the first trigger level. It is a full custom 16 layers board using advanced FPGAs in BGA package. The LODU receives information from the Level-0 sub-triggers (432 bits @ 80 MHz) which transmit the data via high speed optical links running at 1.6 Gb/s. The processing is implemented using a 40 MHz synchronous pipelined architecture. It performs a simple physical algorithm to compute at 40 MHz the Level-0 trigger decision in order to reduce the data flow down to 1 MHz for the next trigger level. The internal design of the processing FPGA is mainly composed by a Partial Data Processing (PDP) and a Trigger Definition Unit (TDU). The aim of the PDP is to adjust the clock phase, perform the time alignment, prepare the data for the TDU and monitor the data processing. The TDU is flexible and allows to fully re-configure all the trigger conditions without any re-programming the FPGAs through the Experiment Control System (ECS)
    corecore