4 research outputs found
Allen: A high-level trigger on GPUs for LHCb
Documento escrito por un elevado número de autores/as, solo se referencia el/la que aparece en primer lugar y los/as autores/as pertenecientes a la UC3M.We describe a fully GPU-based implementation of the first level trigger for the upgrade of the LHCb detector, due to start data taking in 2021. We demonstrate that our implementation, named Allen, can process the 40 Tbit/s data rate of the upgraded LHCb detector and perform a wide variety of pattern recognition tasks. These include finding the trajectories of charged particles, finding proton-proton collision points, identifying particles as hadrons or muons, and finding the displaced decay vertices of long-lived particles. We further demonstrate that Allen can be implemented in around 500 scientific or consumer GPU cards, that it is not I/O bound, and can be operated at the full LHC collision rate of 30 MHz. Allen is the first complete high-throughput GPU trigger proposed for a HEP experiment.We would like to thank N. Neufeld and T. Colombo for many fruitful discussions. We also thank the LHCb RTA team for supporting this publication and reviewing this work. We thank the technical and administrative staff at the LHCb institutes. We acknowledge support from CERN and from the national agencies: CAPES, CNPq, FAPERJ and FINEP (Brazil); MOST and NSFC (China); CNRS/IN2P3 (France); BMBF, DFG and MPG (Germany); INFN (Italy); NWO (The Netherlands); MNiSW and NCN (Poland); MEN/IFA (Romania); MSHE (Russia); MinECo (Spain); SNSF and SER (Switzerland); NASU (Ukraine); STFC (UK); DOE NP and NSF (USA). We acknowledge the computing resources that are provided by CERN, IN2P3 (France), KIT and DESY (Germany), INFN (Italy), SURF (The Netherlands), PIC (Spain), GridPP (UK), RRCKI and Yandex LLC (Russia), CSCS (Switzerland), IFIN-HH (Romania), CBPF (Brazil), PL-GRID (Poland) and OSC (USA). We are indebted to the communities behind the multiple open-source software packages on which we depend. Individual groups or members have received support from AvH Foundation (Germany); EPLANET, Marie Skłodowska-Curie Actions and ERC (European Union); ANR, Labex P2IO and OCEVU, and Région Auvergne-Rhône-Alpes (France); Key Research Program of Frontier Sciences of CAS, CAS PIFI, and the Thousand Talents Program (China); RFBR, RSF and Yandex LLC (Russia); GVA, XuntaGal and GENCAT (Spain); the Royal Society and the Leverhulme Trust (UK). J. Albrecht acknowledges support of the European Research Council Starting Grant PRECISION 714536. D. vom Bruch, V. V. Gligorov, F. Reiss and R. Quagliani acknowledge support of the European Research Council Consolidator Grant RECEPT 724777. H. Stevens, L. Funke acknowledge support of the Collaborative Research Center SFB 876. T. Boettcher and M. Williams are supported by US NSF Grant PHY-1912836. D. Craik is supported by US NSF Grants OAC-1836650 and PHY-1904160. A. Ustyuzhanin is supported by the Russian Science Foundation Grant Agreement No. 19-71-30020. D. Martínez Santos and A. Brea Rodríguez acknowledge support from the European Research Council Starting Grant BSMFLEET 639068
Cliente Twitter con compresión de datos
La popular red social Twitter es usada hoy en día en diversos lugares y momentos, gracias también a las redes móviles que nos proporcionan conexión a internet en casi cualquier lugar. Twitter permite publicar y mandar mensajes cortos de texto plano con un máximo de 140 caracteres, así como la lectura de estos mensajes cortos de otros usuarios a los que podemos seguir para tal propósito.
Hacer uso de este servicio en zonas con buena cobertura, o cuando usamos Wi-fi no supone generalmente ningún problema. Es cuando nos encontramos en zonas de poca cobertura cuando vemos problemas para hacer uso de este servicio, ya que las velocidades de descarga pueden disminuir hasta el punto de necesitar decenas de segundos para disponer de los mensajes cortos, los “Tweets”. A esto hay que añadir que los planes de datos actuales están limitados de alguna forma (al alcanzar un número de Mb), por lo que la cantidad de Mb usada es hoy también un factor importante.
Para ello esta aplicación ofrece la experiencia de un cliente Twitter sencillo en el que consultar los “Tweets” de a quien seguimos, así como publicar “Tweets”, haciendo uso de un Proxy que comprime estos datos considerablemente de forma que se reducen los tiempos de descarga para las zonas de poca cobertura y además se reduce el número de Mb consumidos por el dispositivo móvil.Grado en Ingeniería Informátic
Particle tracking and identification on multi- and many-core hardware platforms
Mención Internacional en el título de doctorParticle track reconstruction in high-energy physics is used for purposes
that include simulation, particle analysis, and particle collision
filtering and recording. The LHCb experiment at CERN is undergoing
an upgrade where improvements are being applied to the detectors,
hardware and software. One of the main changes of this upgrade
includes the removal of the "hardware filter" which used custom electronics
to filter particle collisions, and its substitute: the "software
filter". This new filter is composed of commodity hardware which
must be able to process a data rate of 40 Tb per second in real-time.
Different architectures are being considered to achieve this goal, and
the software used to compute it must be optimized and improved
to achieve the target data throughput. This software filter is used
to reconstruct particle collisions, also known as events, including the
trajectories of the resulting particles, which later are analyzed and
used to help explain problems like the matter-antimatter asymmetry.
This thesis explores different opportunities with multi and manycore
architectures, to improve the throughput processing of particle
collisions, and the maintainability and improvement of the source
code used for it.
The Kalman filter algorithm is widely used in high-energy physics
for particle reconstruction, and the Intel Xeon Phi KNL processor offers
a many-core x86 architecture that is well suited for parallel workloads.
Performance and maintainability improvements are discussed, where
optimization are targeted towards the Intel Xeon Phi processor.
GPU architectures are a good fit for high-energy physics workloads,
where its highly parallel architecture can benefit the throughput processing
of it. A GPU framework for event filtering is discussed, in
particular the optimizations and changes implemented to a tracking
algorithm to deliver high-throughput.
Finally vectorization opportunities for CPUs are explored by using
data-oriented algorithms and constructs that benefit the vector units
found in x86 processors. A SPMD compiler that resembles programming
for GPUs is used to improve the readability and performance of
these algorithms.La reconstrucción de trayectorias en física de partículas se usa con
distintos fines entre los que se incluyen la simulación, el análisis y el
filtrado y recogida de las colisiones entre protones. El experimento
LHCb del CERN se encuentra en pleno proceso de actualización
en el que cambios y mejoras serán aplicadas a los detectores, los
procesadores y el software. Uno de los principales cambios incluye
la eliminación del "filtro hardware" basado en circuitos integrados
específicos para estas aplicaciones, por un "filtro software". Este nuevo
filtro está compuesto por procesadores de distintas arquitecturas que
deben ser capaces de procesar un ratio de datos de 40 Tb por segundo,
en tiempo real. Distintas arquitecturas están siendo consideradas para
alcanzar este objetivo, y el software utilizado para procesarlo debe
ser optimizado y mejorado para conseguir alacanzar el objetivo de
rendimiento de procesamiento de datos. Este filtro basado en software
es usado para reconstruir las colisiones entre partículas, también
conocidas como eventos, lo que incluye las trayectorias que se producen
tras la colisión entre protones. Estas son procesadas y analizadas
posteriormente, lo que ayuda a entender y explicar problemas como
la asimetría entre materia y antimateria.
En esta tesis se exploran las potenciales oportunidades que ofrecen
las arquitecturas con múltiples núcleos de procesamiento para mejorar
el rendimiento al procesar las colisiones entre partículas y el mantenimiento
y mejora del código fuente usado para ello. El algoritmo filtro
de Kalman es ampliamente utilizado en física de partículas para la reconstrucción
de partículas, y el procesador Intel Xeon Phi KNL ofrece
una arquitectura x86 con múltiples núcleos que está bien adaptada a
cargas de trabajo paralelas.
Las arquitecturas GPU se adaptan bien a los problemas encontrados
en física de partículas, donde su arquitectura masivamente paralela
puede beneficiar el rendimiento de procesado. En esta tesis se discute
un framework software basado en GPUs para filtrado de eventos,
en particular se discuten las optimizaciones y cambios implementados
para un algoritmo de reconstrucción para conseguir un alto
rendimiento.
Finalmente se exploran las oportunidades que presenta la vectorización
en CPUs utilizando algoritmos orientados a datos y estructuras
que mejoran las unidades de vectorización en los procesadores x86.
Un compilador de modelo SPMD que utiliza un modelo similar al utilizado
con GPUs, se utiliza para mejorar la legibilidad y rendimiento
de los algoritmos.Thanks to the Spanish MINISTERIO DE ECONOMÍA Y COMPETITIVIDAD though project grant TIN2016-79637-P TOWARDS UNIFICATION OF HPC AND BIG DATA PARADIGMS, the EU Project ICT
644235 "REPHRASE: REfactoring Parallel Heterogeneous Resource-
Aware Applications", Spanish "Ministerio de Economía y Competitividad"
under the project grant TIN2016-79637-P "Towards Unification
of HPC and Big Data Paradigms", and Madrid Regional Government,
CABAHLA-CM (ConvergenciA Big dAta-Hpc: de Los sensores a las
Aplicaciones) grant number S2018/TCS-4423.Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de MadridPresidente: David Exposito Singh.- Secretario: Manuel Prieto Matías.- Vocal: Marco Danelutt
A parallel-computing algorithm for high-energy physics particle tracking and decoding using GPU architectures
Real-time data processing is one of the central processes of particle physics experiments which require large computing resources. The LHCb (Large Hadron Collider beauty) experiment will be upgraded to cope with a particle bunch collision rate of 30 million times per second, producing 10 9 particles/s. 40 Tbits/s need to be processed in real-time to make filtering decisions to store data. This poses a computing challenge that requires exploration of modern hardware and software solutions. We present Compass, a particle tracking algorithm and a parallel raw input decoding optimized for GPUs. It is designed for highly parallel architectures, data-oriented, and optimized for fast and localized data access. Our algorithm is configurable, and we explore the trade-off in computing and physics performance of various configurations. A CPU implementation that delivers the same physics performance as our GPU implementation is presented. We discuss the achieved physics performance and validate it with Monte Carlo simulated data. We show a computing performance analysis comparing consumer and server-grade GPUs, and a CPU. We show the feasibility of using a full GPU decoding and particle tracking algorithm for high-throughput particle trajectories reconstruction, where our algorithm improves the throughput up to 7.4 × compared to the LHCb baseline.This work was supported in part by the European Research Council (ERC) under the European Union's Horizon 2020 Research and Innovation Programme under Grant 724777 ``RECEPT,'' and in part by the Spanish MINISTERIO DE ECONOMÍA Y COMPETITIVIDAD though Project Grant TIN2016-79637-P TOWARDS UNIFICATION OF HPC AND BIG DATA PARADIGMS