10 research outputs found

    Development of pixel detectors for the IBL and HL-LHC ATLAS experiment upgrade

    Get PDF
    Aquesta tesi tracta el desenvolupament de detectors de silici de tecnologia avançada per experiments de Física d'Altes Energies (HEP en anglès). La mida dels detectors de silici per determinar traces en experiments de HEP ha de disminuïr per millorar la resolució espacial en les mesures i millorar l'ocupancia en l'electrònica. Els experiments al CERN hauran de funcionar amb fluencies de fins a 2·10 16 n eq 1cm2 , i els detectors de silici més petits tindran menys atrapament de les parelles electró-forat generats al volum, que porta a un millor comportament sota un medi amb alts nivells de radiació. Aquesta tesi estudia detectors de silici fabricats al CNM-Barcelona per aplicacions de HEP amb dos tipus d'arquitectura nou: 3D i detectors d'allau amb guany moderat (LGAD en anglès). Els detectors 3D afavoreixen la reducció de la mida de la regió buidada dins del detector i permet treballar a voltatges més baixos, mentres que els detectors LGAD tenen guany intern que incrementa la senyal col·leccionada amb un mecanisme de multiplicació. El capítol 1 introdueix els detectors de silici aplicats a HEP. Els capítols 2 i 3 exploren els dissenys de detectors 3D de silici fabricats al CNM-Barcelona. Els detectors 3D de silici van ser introduïts per primera vegada a un experiment de HEP durant el 2013 per una nova capa del experiment ATLAS, la Insertable B-Layer (IBL), i alguns d'aquests detectors han sigut caracteritzats durant aquest treball. Actualment, detectors 3D de silici amb dimensions de píxel més petites seran operatius per noves posades a punt de l'ATLAS, i aquests detectors s'han simulat en aquest treball. El capítol 4 està dedicat a detectors LGAD segmentats i fabricats en oblies epitaxials amb la intenció de disminuïr el gruix dels detectors i augmentar la càrrega col·leccionada amb el mecanisme de multiplicació. Aquesta tesi mostra simulacions tecnològiques, el procés de fabricació, simulació elèctrica i caracterització elèctrica i de càrrega d'aquests detectors.This thesis presents the development of advanced silicon technology detectors fabricated at CNM-Barcelona for High Energy Physics (HEP) experiments. The pixel size of the tracking silicon detectors for the upgrade of the HL-LHC will have to decrease in size in order to enhance the resolution in position for the measurements and they need to have better occupancy for the electronics. The future experiments at CERN will cope with fluences up to 2·10 16 n eq 1cm2 , and the smaller 3D silicon detectors will have less trapping of the electron-holes generated in the bulk leading to a better performance under high radiation environment. This thesis studies silicon detectors fabricated at CNM-Barcelona applied to HEP experiments with two different kinds of novel projects: 3D and Low Gain Avalanche Detectors (LGAD). The 3D detectors make it possible to reduce the size of the depleted region inside the detector and to work at lower voltages, whereas the LGAD detectors have an intrinsic gain which increase the collected signal with a multiplication mechanism. Chapter 1 introduces the silicon detectors applied to HEP experiments. Chapters 2 and 3 explore the new designs for 3D silicon detectors fabricated at CNM-Barcelona. 3D silicon detectors were first introduced in a HEP experiment in 2013 for a new ATLAS layer, the Insertable B layer (IBL), and some of them are characterized in this work. Now, it is expected that 3D silicon detectors with smaller pixel size will be operative for the next ATLAS upgrade, and they are also simulated in this thesis. Chapter 4 is devoted to segmented LGAD detectors fabricated on epitaxial wafer with the intention to decrease the thickness of the detector and increase the charge collected with the multiplication mechanism. This thesis shows technological simulations, fabrication process, electrical simulations and electrical and charge characterization of those devices

    Combinations of single-top-quark production cross-section measurements and vertical bar f(LV)V(tb)vertical bar determinations at root s=7 and 8 TeV with the ATLAS and CMS experiments

    Get PDF
    This paper presents the combinations of single-top-quark production cross-section measurements by the ATLAS and CMS Collaborations, using data from LHC proton-proton collisions at = 7 and 8 TeV corresponding to integrated luminosities of 1.17 to 5.1 fb(-1) at = 7 TeV and 12.2 to 20.3 fb(-1) at = 8 TeV. These combinations are performed per centre-of-mass energy and for each production mode: t-channel, tW, and s-channel. The combined t-channel cross-sections are 67.5 +/- 5.7 pb and 87.7 +/- 5.8 pb at = 7 and 8 TeV respectively. The combined tW cross-sections are 16.3 +/- 4.1 pb and 23.1 +/- 3.6 pb at = 7 and 8 TeV respectively. For the s-channel cross-section, the combination yields 4.9 +/- 1.4 pb at = 8 TeV. The square of the magnitude of the CKM matrix element V-tb multiplied by a form factor f(LV) is determined for each production mode and centre-of-mass energy, using the ratio of the measured cross-section to its theoretical prediction. It is assumed that the top-quark-related CKM matrix elements obey the relation |V-td|, |V-ts| << |V-tb|. All the |f(LV)V(tb)|(2) determinations, extracted from individual ratios at = 7 and 8 TeV, are combined, resulting in |f(LV)V(tb)| = 1.02 +/- 0.04 (meas.) +/- 0.02 (theo.). All combined measurements are consistent with their corresponding Standard Model predictions.Peer reviewe

    Search for weak dipole moments of the [Tau] Lepton with the ALEPH detector

    No full text
    Consultable des del TDXTítol obtingut de la portada digitalitzada(Mireu els fitxers: "resum_cat.pdf" i "resum_english.pdf"

    Probing new physics at the LHC: searches for heavy top-like quarks with the ATLAS experiment

    Get PDF
    ¿Es el Modelo Estándar (Standard Model o SM) de las partículas elementales completo? Al parecer, la respuesta es "no". Un gran número de teorías intentando dar respuestas a preguntas como por ejamplo cuál es la naturaleza de la materia oscura, o cuál es la razón por la que el bosón de Higgs es tan ligero, han sido propuestas. Ahora que el Large Hadron Collider (LHC) en el CERN está en pleno funcionamiento, experimentos como ATLAS son capaces de explorar regímenes de muy alta energía, donde se puede testear la presencia de nueva física. El trabajo presentado en esta tesis consta de dos análisis diseñados para descubrir (o excluir) la existencia de una nueva partícula: un quark similar al quark top (la partícula más pesada del SM), "top-like", pero con una masa mucho más alta. Este nuevo quark exótico podría ser una simple réplica del quark top del SM, sólo mas masivo, es decir, una cuarta generación quiral de up-type quark, o podría tener una naturalez aún más exótica. Esta última hipótesis es particularmente interesante ya que muchas extensiones del SM predicen nuevos quarks llamados "vectoriales". Ambas búsquedas están basadas en el análisis de una muestra parcial de los datos acumulados por el experimento ATLAS en colisiones protón-protón durante el año 2012. Estos resultados están documentados en dos notas públicas (ATLAS-CONF-2013-018 y ATLAS-CONF-2013-060) y en la actualidad se están actualizando con las estadísticas completas. Estos análisis también son parte de un esfuerzo combinado de diferentes equipos de investigación dentro del grupo de trabajo ATLAS Exóticos, encaminados a explorar diferentes escenarios de quarks vectoriales, incluidos la posible existencia de un quark vectorial compañero del quark botom. El primer análisis descrito se centra en la producción de parejas de quarks vectoriales top-like que se desintegran en un bosón W y un quark bottom, de manera similar al quark top. En este caso, la características cinemáticas del proceso de desintegración, como el hecho de que el bosón W resultante es más energético en el caso del quark pesado, son explotadas para reconstruir la masa de la partícula y discriminar entre una posible señal de nueva física y el fondo de los procesos del Modelo Estándar. El segundo análisis descrito tambien estudia la producción de pares de quarks vectoriales top-like, pero requiriendo al menos uno de ellos desintegrándose en el bosón de Higgs del SM y un quark top. En este caso la reconstrucción de la masa de la partícula es extremadamente difícil debido a la presencia de un gran número de chorros de hadrones (jets), resultando en un elevado fondo combinatorio. Esta dificultad da lugar a la adopción de una estrategia completamente diferente, involucrando la construcción de una variable discriminante sensible a múltiples modos de desintegración de la pareja de quarks top-like, y explotando el hecho de que son pocos los procesos del SM que pueden producir tal multiplicidad alta de jets, muchos de los cuales proceden de quarks bottom. Ambos búsquedas son complementarias e independientes entre sí de modo que es posible combinarlas y realizar un análisis cuasi independiente del modelo, lo que resulta en las cotas más estrictas existentes sobre la masa de un quark vectorial top-like. De hecho, esta partícula con una masa en el rango de entre 350 GeV y 550 GeV (casi hasta 600 GeV) ha sido excluída con un nivel de confianza del 95%, independientemente del modelo. Bajo la suposición de que dichos quarks vectoriales son singletes de isospin, la exclusión en masa se extiende hasta 670 GeV.Is our Standard Model (SM) of the fundamental particle interactions complete? Apparently, the answer is "no". Many theories have been proposed to explain what is currently not understood, like the nature of Dark Matter, or the reason why the Higgs boson is so light. Now that the Large Hadron Collider (LHC) at CERN is fully operational, it is possible for experiments like ATLAS to explore very high-energy regimes where new physics can be probed. The work presented in this dissertation consists of two analyses aimed at the discovery (or exclusion) of a signal from a new particle: a quark similar to the top quark (the heaviest particle of the Standard Model) but with a larger mass. This new "top-like" quark could be a simple replica of the SM top quark, just with higher mass, i.e. a chiral fourth-generation up-type quark, or it could have exotic features. The latter hypothesis is particularly interesting as many "beyond-Standard Model" theories predict new heavy so-called vector-like quarks. Both searches rely on a partial dataset of proton-proton collisions collected by the ATLAS experiment during the year 2012. These results are documented in two ATLAS public notes (ATLAS-CONF-2013-018 and ATLAS-CONF-2013-060) and are currently being updated with the full statistics. They are also part of a combined effort of different research teams within the ATLAS Exotics working group to explore additional signatures, including those from heavy vector-like bottom partners. The first analysis described focuses on pair production of heavy top-like quarks decaying into a W boson and a bottom quark, exactly like the top quark. In this case kinematic features of the decay process, namely the fact that the W boson from the heavy top will receive more boost than the W boson from the top, are exploited to reconstruct the mass of the particle and discriminate between a signal from new physics and background from Standard Model processes. The second analysis instead studies pair production of heavy top-like quarks, with at least one of them decaying into a Standard Model Higgs boson and a top quark. Here the complete reconstruction of the mass of the particle is difficult, since many jets are present in the final state, resulting in a high combinatorial background. This apparent disadvantage is instead used to build a discriminating variable sensitive to multiple decay modes of the heavy top-like pair, and exploiting the fact that few Standard Model processes can produce such high jet multiplicity, many of which originate from bottom quarks. Both searches are and kept independent from theoretical assumptions and orthogonal to each other so that it is possible to combine them and perform a quasi-model independent analysis, resulting in the most stringent limits on the mass of the heavy vector-like top partner. Indeed, this particle is excluded at 95% CL, independently on the model, for masses from 350 GeV and up to 550 GeV (almost up to 600 GeV). If instead an assumption on the model is made and vector-like tops are considered to be singlets of isospin, then we are able to exclude them at 95% CL for masses up to 670 GeV. A previous analysis that was performed in 2011 on data from proton-proton collisions at a center-of-mass energy of 7 TeV and that set the strategy for vector-like quark searches is not detailed in this dissertation but is documented in a paper published on Phys. Lett. B 718 (2013) 128

    Design, development, and modeling of a compton camera tomographer based on room temperature solid statepixel detector

    Get PDF
    Desde el descubrimiento de los rayos X en 1895 y su primera aplicación médica un año después, se han desarrollado diferentes técnicas de imagen médica. La tomografía por emisión es una rama de las imágenes médicas que permite a los médicos realizar un seguimiento de los procesos fisiológicos en el paciente. Un compuesto radiactivo llamado radiotrazador se inyecta en el cuerpo del paciente. La molécula radiotrazador se elige para cumplir una tarea específica en el organismo que permite el seguimiento de un proceso fisiológico concreto. Los dos principales de técnicas de tomografía por emisión son PET y SPECT. En PET (Tomografía por Emisión de Positrones) el radiotrazador inyectado es un emisor de positrones. El positrón emitido se aniquila con un electrón produciendo un par de fotones gamma emitidos "back -to-back". El escáner PET (por lo general de forma cilíndrica) detecta estos pares de fotones y reconstruye una imagen de la concentración del radiotrazador en el organismo. En SPECT (Tomografía Computarizada por Emisión Simple de Fotones) un solo fotón gammas es emitido en cada desintegración radiactiva del compuesto. El sistema de SPECT consiste en (al menos) una cámara gamma. Una cámara gamma está compuesta por un colimador mecánico y un fotodetector capaz de registrar la posición de la interacción. El colimador mecánico esta compuesto por un material denso con aperturas que sólo permite el paso de los fotones procedentes de una dirección particular. Los fotones colimados son detectados por el detector obteniendo una proyección del radiotrazador en el volumen del cuerpo del paciente. A partir de estas proyecciones se obtiene una imagen tomografía de la concentración del radiotrazador- SPECT es la técnica de tomografía de emisión más ampliamente utilizado debido a la gran variedad de radiotrazadores disponibles, y el bajo coste en comparación con PET. Sin embargo, SPECT tiene limitaciones intrínsecas debido a la colimación mecánica: baja eficiencia ya que sólo una fracción de los fotones gamma puede pasar a través del colimador, una relación proporcional inversa entre la eficiencia y la resolución de la imagen ( A mayor tamaño de las aperturas del colimador mayor será la eficiencia pero la resolución de la imagen empeorara) , y la cámara debe girar aumentando el tiempo de exposición . El concepto de cámara Compton fue concebido con el fin de superar estas limitaciones. Una cámara de Compton consta de dos detectores, llamados "scatterer" y "absorber", trabajando en coincidencia. En un evento de coincidencia el fotón gamma (emitido por el radiotrazador) alcanza el "scatterer" y cambia de dirección como consecuencia de una interacción Compton. La gamma dispersada alcanza el "absorber" donde es absorbida en una interacción fotoeléctrica. Con la posición de ambas interacciones y las correspondientes energías, se puede reconstruir la superficie de un cono que contiene el punto desde donde el fotón gamma fue emitido. Con los conos reconstruidos a partir de varias coincidencias, es posible reconstruir una imagen de la actividad en el cuerpo del paciente. La cámara Compton tiene el potencial de superar todas las limitaciones intrínsecas de los SPECT ya que: cada gamma tiene una probabilidad de ser dispersado y producir una coincidencia, la resolución de la imagen no está vinculada a la eficiencia, y es posible obtener imágenes tridimensionales sin mover la cámara. Sin embargo, la complejidad de la reconstrucción de la imagen y los límites en la tecnología de detectores, han impedido que el concepto de cámara Compton se convertirse en un sistema de imagen médica viable. El proyecto VIP ("Voxel Imaging PET") propone un diseño de detector de estado sólido (CdTe) con tecnología pixel para superar las limitaciones de los detectores basados en cristales de centelleo utilizados en PET. VIP cuenta con un diseño modular en el que el elemento básico es el modulo de detección. El módulo contiene los detectores de estado sólido que están segmentados en "voxels" de tamaño milimétrico. Gracias a un chip de lectura desarrollado en el proyecto, cada uno de los "voxels" del detector constituye un canal independiente para la medición de la energía, posición, y el tiempo de llegada de los fotones gamma detectados. Los módulos son apilados con el fin de formar los sectores de PET. Poner varios de estos sectores juntos, permite construir un anillo PET. Aunque el módulo VIP ha sido diseñado para el PET, la flexibilidad del diseño del módulo permite explorar otras posibles aplicaciones, como PEM (Mamografía por Emisión de positrones) y la cámara de Compton. En esta tesis se evaluará una cámara de Compton basado en el concepto detector VIP. Los detectores "scatterer" y "absorber" están compuestos de módulos de detección especial diseñados. Los módulos son apilados para crear los detectores. En el "scatterer" se utiliza Silicio como material activo a fin de maximizar la probabilidad de interacción Compton de los fotones. En el "absorber", CdTe se utiliza como material activo con el fin de detener los fotones gamma que salen del "scatterer". La excelente resolución en la energía de los detectores de estado sólido combinado con el tamaño milimétrico de los "voxels", permiten obtener una alta precisión en la reconstrucción de los conos Compton que no se puede lograr con cristales de centelleo. En esta tesis vamos a utilizar simulaciones de Monte Carlo para evaluar y optimizar el diseño de la cámara Compton. Se utilizarán dos algoritmos de reconstrucción de imagen diferentes. La simulación nos permitirá obtener los parámetros geométricos óptimos, así como el rendimiento esperado de la cámara de Compton en términos de eficiencia en la detección y de resolución de la imagen. Se ha evaluado también un prototipo con menor campo de visión.Since the discovery of the X-rays in 1895 and their first medical application one year later, many different medical imaging techniques have been developed. Emission tomography is a branch of medical imaging that allows the doctors to track physiological processes in the patient. A radioactive compound called radiotracer is injected in the body of the patient. The radiotracer molecule is chosen to fulfill an specific task in the organism allowing to track a concrete physiological process. The two main emission tomography techniques are PET and SPECT. In PET (Positron Emission Tomography) the injected radiotracer is a positron emitter. The emitted positron annihilates with an electron producing a pair of back-to-back gamma photons. The PET scanner (usually having a cylindrical shape) detects these photons pairs and reconstructs an image of the radiotracer concentration. In SPECT (Single Photon Emission Computerized Tomography) a single gamma photon is emitted in each radioactive decay of the radiotracer compound. The SPECT system consists of (at least) one gamma camera. A gamma camera is composed by a mechanical collimator and a position sensitive photodetector. The mechanical collimator consists of a thick material with holes that only allow the passing of photons coming from a particular direction. The collimated photons are detected by the photodetector obtaining a projection of the radiotracer in the volume of the patient body. A three dimensional image of the radiotracer concentration in the patient body is obtained from the projections obtained in several directions. SPECT is the most widely used emission tomography technique because of the large variety of available radiotracers, and the relative low cost when compared with PET. However, SPECT has intrinsic limitations due to the mechanical collimation: low efficiency as only a fraction of the gamma photons can pass through the collimator, an inverse proportional relationship between the efficiency and the image resolution (the bigger the collimator holes the higher the efficiency but the lower the image resolution), and the camera must be rotated increasing exposure time. The concept of Compton camera has been proposed in order to overcome those limitations. A Compton camera consists of two detectors, called scatterer and absorber, working in coincidence. In a coincidence event the gamma photon (emitted by the radiotracer) reaches the scatterer and undergoes a Compton interaction, scattering into a certain angle. The scattered gamma reaches the absorber where it undergoes a photoelectric interaction and is absorbed. Using the positions of both interactions and the corresponding deposited energies, one can reconstruct a cone surface which contains the emission point of the gamma photon. With the cones reconstructed from several coincidences, an image of the activity in the patient body can be obtained. The Compton camera has the potential to overcome all the intrinsic limitations of SPECT as: each gamma has a probability to be scattered and produce a coincidence event, the image resolution is not tied to the efficiency, and it is possible to obtain three dimensional images without moving the camera. However, the complexity of the image reconstruction and the limits in the detector technology has prevented the Compton camera concept to become a viable medical imaging system. The VIP (Voxel Imaging PET) project proposes a novel detector design based on pixelated solid state (CdTe) technology to overcome the limitations of scintillator detectors used in PET. VIP features a modular design in which the basic element is the detector module unit. The module contains the solid state detectors which are segmented in millimeter size voxels. Thanks to a dedicated read-out chip developed within the project, each one of the voxels is an independent channel for the measurement of energy, position, and time of arrival of the detected gamma photons. The module detectors are stacked in order to form PET sectors. Putting several of these sectors together leads to a seamless PET ring. Although the VIP module has been designed for PET, the flexibility of the module design allows to explore other possible applications like PEM (Positron Emission Mammography) and Compton camera. In this thesis we will evaluate a Compton camera based on the VIP detector concept. The scattering and the absorber detectors will be made from the stacking of specially designed module units. Silicon will be used as detector material in the scatterer in order to maximize the Compton interaction probability for the incoming gamma photons. In the absorber, CdTe will be used as detector material in order to stop the gamma photons emerging from the scatterer. The excellent energy resolution of the solid state detectors combined with the millimeter size of the detector voxels, result in a high accuracy in the reconstruction of the Compton cones that cannot be achieved with scintillator crystals. In this thesis we will use Monte Carlo simulations in order to evaluate and model the proposed Compton camera. Two different image reconstruction algorithms will be used. The simulation will allow us to obtain the optimal geometrical parameters as well as the expected performance of the Compton camera in terms of detection efficiency and image resolution. A smaller FOV (Field-Of-View) prototype will be also evaluated

    Search for new physics in tt nal states with additional heavy-flavor jets with the ATLAS detector

    Get PDF
    Esta tésis presenta búsquedas de nueva física en estados finales tt ̄ con jets adicionales pesados usando 20,3 fb-1 de datos provenientes de colisiones de pp a una energía de √s = 8 TeV, recogidos en el experimento ATLAS en el LHC. Haciendo uso de este estado final, tres análisis han sido realizados para investigar la inestabilidad de la masa del bosón de Higgs desde diferentes perspectivas. La mayor dificultad para los análisis es conseguir una predicción precisa del background, en concreto tt+bb. Dado que aún no se han realizados medidas de la producción de tt con jets adicionales pesados, los análisis basan la descripción de este proceso en simulación mediante Monte Carlo (MC). Avances recientes en la simulación de MC han conseguido mejorar la descripción del background, y se ha dedicado mucho trabajo a conseguir incluir estas mejoras en el análisis. Los sistemáticos debidos al modelado de tt+bb constituyen la mayor fuente de degradación de la sensiblidad de los análisis. A fin de reducir el impacto de los sistemáticos, el análisis usa un ajuste a los datos para constreñir in-situ los sistemáticos más importantes. Un análisis estadístico detallado es necesario para probar la existencia de una señal en los datos. El primero de los análisis estudia el proceso ttH para medir su producción, de lo cual se puede extraer el acoplo entre el quark top y el bosón de Higgs. Para distinguir la señal ttH del background se usan redes neuronales, y la variable más discriminante viene de aplicar el matrix element method. No se observa evidencia para el proceso ttH, y por tanto se pueden establecer limites con una confianza del 95 %, excluyendo una señal 3.6 veces más grande que la predicción del model estándar. Realizando un ajuste con la hipótesis de señal, el mejor valor para la normalización de la señal es: μ = 1,2 ± 1,3. También se ha realizado una búsqueda de quarks vectoriales emparejados con el top, para estudiar varios modelos que predicen esta señal. El análisis de eventos con un número alto de jets y b-jets, y al mismo tiempo varios objetos con alto pT permiten mejorar la sensibilidad de la búsqueda. No se observa un exceso sobre la predicción y se han fijado límites en varios modelos. El mismo análisis se ha usado también para establecer límites en modelos que predicen estados finales con cuatro quarks top. Se han establecido límites en la producción de cuatro tops en el model estándar, en un modelo efectivo con una interacción de contacto, la producción de pares de sgluons y producción de modos de Kaluza-Klein en un modelos con dos dimensiones extra. Por último, la tesis incluye también una búsqueda de tops bosónicos, o stops, a fin de estudiar modelos supersimétricos donde las búsquedas típicas no tienen sensibilidad. El análisis busca el stop pesado, t2, en modelos donde el t1 es ligero, y la diferencia de masas con el neutralino es parecida a la masa del quark top. No se observa un exceso sobre la predicción de eventos y se han establecido límites en el plano de masas mt2−mχ . Para valores concretos de la masa se han establecido también límites en función de la fracción de decaimiento del t2. Los análisis presentados en esta tesis constituyen los análisis más sensibles en los respectivos canales.This dissertation presents searches in tt final states with additional heavy-flavor jets using 20.3 fb-1 of pp collision data at √s = 8 TeV, recorded with the ATLAS experiment at the LHC. Exploiting this final state, three analyses are presented that address the instability of the Higgs boson mass from different perspectives. The main challenge for the presented analyses lies in the precise modeling of the background, in particular tt+bb. Since no measurements have been performed yet on the tt production with additional heavy-flavor jets, the analyses have to rely on Monte Carlo (MC) simulation for the background. Recent developments in MC simulation have improved the description of the background, and a great effort is invested in porting the state-of-the-art predictions into the analyses. The systematic uncertainties on the modeling of the tt+bb background constitute the main source of sensitivity degradation. In order to reduce the impact of the systematic uncertainties, the analyses use a profile likelihood fit to reduce in-situ the leading uncertainties. A detailed statistical analysis is performed in order to test for the presence of a signal in the observed data. The first of the analyses aims to study the ttH process and to measure its production rate, from which the top Yukawa coupling can be extracted. Neural networks are used to discriminate the ttH signal from the background, where the most discriminant variable stems from the matrix element method. No evidence for the ttH process is found, and a 95% confidence level (CL) upper limit is set, excluding a signal 3.6 times larger than predicted by the SM. Performing a signal-plus-background fit the best fitted value for the signal strength is found to be: μ = 1.2±1.3. A search for vector-like top partners and four-top-quark production is presented, addressing several models that predict such signatures. The analysis of events with high jet and b-tag multiplicity, as well as multiple high-pT objects allows increasing the sensitivity of the search. No excess over the background expectation is found and 95% CL upper limits are set in different models. The same search is also used to establish limits on models predicting four-top-quark final states. Exclusion limits are set on SM tttt production, tttt production via an effective field theory model with a four-top contact interaction, sgluon pair production and Kaluza-Klein modes production. As last, a search for bosonic top partners, or stops, is presented, addressing supersymmetric models where traditional searches have little sensitivity. A search for the heavier stop, t2, is performed targeting models where the t1 is light and the mass difference to the neutralino is close to the top mass. No excess over the background expectation is found and 95 % CL upper limits are set for different masses in the mt2−mχ. For representative values of the masses exclusion limits are set as a function of the t2 branching ratios. The analyses presented constitute the most sensitive searches to date in their respective channels

    A High-granularity timing detector for the ATLAS Phase-II upgrade

    Get PDF
    Acord transformatiu CRUE-CSICThe increase of the particle flux at the HL-LHC with instantaneous luminosities up to L=7.5 × 10 cm s will have a severe impact on the ATLAS detector reconstruction and trigger performance. The end-cap and forward region where the liquid Argon calorimeter has coarser granularity and the inner tracker has poorer momentum resolution will be particularly affected. A High Granularity Timing Detector will be installed in front of the liquid Argon end-cap calorimeters to help in charged-particle reconstruction and luminosity measurement. This low angle detector is introduced to augment the new all-silicon Inner Tracker in the pseudo-rapidity range from 2.4 to 4.0. Two silicon-sensor double-sided per end-cap will provide precision timing information for minimum-ionizing particles with a resolution as good as 30 ps per track in order to assign each particle to the correct vertex. Readout cells have a size of 1.3 mm × 1.3 mm, leading to a highly granular detector with 3.7 million channels. The Low Gain Avalanche Detectors technology has been chosen as sensor as it provides excellent timing performance. The requirements and overall specifications of the High Granularity Timing Detector are presented as well as the technical design and the project status. The on-going R&D effort carried out to study the sensors, the readout ASIC, and the other components, supported by laboratory and test beam results, are also presented

    Measurement of the W boson polarisation in t(t)over-bar events from pp collisions at root s = 8 TeV in the lepton + jets channel with ATLAS (vol 77, pg 264, 2018)

    Get PDF
    This change does not have any impact on the measured helicity fractions, but it changes the obtained limits on the anomalous couplings

    Measurement of jet shapes in top-quark pair events at using the ATLAS detector

    No full text
    A measurement of jet shapes in top-quark pair events using 1.8 fb −1 of pp collision data recorded by the ATLAS detector at the LHC is presented. Samples of top-quark pair events are selected in both the single-lepton and dilepton final states. The differential and integrated shapes of the jets initiated by bottom-quarks from the top-quark decays are compared with those of the jets originated by light-quarks from the hadronic W -boson decays in the single-lepton channel. The light-quark jets are found to have a narrower distribution of the momentum flow inside the jet area than b -quark jets

    A measurement of the calorimeter response to single hadrons and determination of the jet energy scale uncertainty using LHC Run-1 pp -collision data with the ATLAS detector

    No full text
    A measurement of the calorimeter response to isolated charged hadrons in the ATLAS detector at the LHC is presented. This measurement is performed with 3.2 nb of proton-proton collision data at from 2010 and 0.1 nb of data at from 2012. A number of aspects of the calorimeter response to isolated hadrons are explored. After accounting for energy deposited by neutral particles, there is a 5% discrepancy in the modelling, using various sets of hadronic physics models, of the calorimeter response to isolated charged hadrons in the central calorimeter region. The description of the response to anti-protons at low momenta is found to be improved with respect to previous analyses. The electromagnetic and hadronic calorimeters are also examined separately, and the detector simulation is found to describe the response in the hadronic calorimeter well. The jet energy scale uncertainty and correlations in scale between jets of different momenta and pseudorapidity are derived based on these studies. The uncertainty is 2-5% for jets with transverse momenta above 2 , where this method provides the jet energy scale uncertainty for ATLAS
    corecore