2 research outputs found

    Scalable Declarative HEP Analysis Workflows for Containerised Compute Clouds

    Get PDF
    We describe a novel approach for experimental High-Energy Physics (HEP) data analyses that is centred around the declarative rather than imperative paradigm when describing analysis computational tasks. The analysis process can be structured in the form of a Directed Acyclic Graph (DAG), where each graph vertex represents a unit of computation with its inputs and outputs, and the graph edges describe the interconnection of various computational steps. We have developed REANA, a platform for reproducible data analyses, that supports several such DAG workflow specifications. The REANA platform parses the analysis workflow and dispatches its computational steps to various supported computing backends (Kubernetes, HTCondor, Slurm). The focus on declarative rather than imperative programming enables researchers to concentrate on the problem domain at hand without having to think about implementation details such as scalable job orchestration. The declarative programming approach is further exemplified by a multi-level job cascading paradigm that was implemented in the Yadage workflow specification language. We present two recent LHC particle physics analyses, ATLAS searches for dark matter and CMS jet energy correction pipelines, where the declarative approach was successfully applied. We argue that the declarative approach to data analyses, combined with recent advancements in container technology, facilitates the portability of computational data analyses to various compute backends, enhancing the reproducibility and the knowledge preservation behind particle physics data analyses.Peer reviewe

    Studier av jet energi korrigeringar pÄ CMS experimentet samt automatiseringen av dem

    Get PDF
    At the Compact Muon Solenoid (CMS) experiment at CERN (European Organization for Nuclear Research), the building blocks of the Universe are investigated by analysing the observed final-state particles resulting from high-energy proton-proton collisions. However, direct detection of final-state quarks and gluons is not possible due to a phenomenon known as colour confinement. Instead, event properties with a close correspondence with their distributions are studied. These event properties are known as jets. Jets are central to particle physics analysis and our understanding of them, and hence of our Universe, is dependent upon our ability to accurately measure their energy. Unfortunately, current detector technology is imprecise, necessitating downstream correction of measurement discrepancies. To achieve this, the CMS experiment employs a sequential multi-step jet calibration process. The process is performed several times per year, and more often during periods of data collection. Automating the jet calibration would increase the efficiency of the CMS experiment. By automating the code execution, the workflow could be performed independently of the analyst. This in turn, would speed up the analysis and reduce analyst workload. In addition, automation facilitates higher levels of reproducibility. In this thesis, a novel method for automating the derivation of jet energy corrections from simulation is presented. To achieve automation, the methodology utilises declarative programming. The analyst is simply required to express what should be executed, and no longer needs to determine how to execute it. To successfully automate the computation of jet energy corrections, it is necessary to capture detailed information concerning both the computational steps and the computational environment. The former is achieved with a computational workflow, and the latter using container technology. This allows a portable and scalable workflow to be achieved, which is easy to maintain and compare to previous runs. The results of this thesis strongly suggest that capturing complex experimental particle physics analyses with declarative workflow languages is both achievable and advantageous. The productivity of the analyst was improved, and reproducibility facilitated. However, the method is not without its challenges. Declarative programming requires the analyst to think differently about the problem at hand. As a result there are some sociological challenges to methodological uptake. However, once the extensive benefits are understood, we anticipate widespread adoption of this approach.PÄ experimentet Compact Muon Solenoid (CMS) vid CERN (Europeiska organisationen för kÀrnforskning) undersöks universums byggstenar genom att analysera de observerade sluttillstÄnds partiklarna som hÀrrör frÄn proton-proton kollisioner med hög energi. Direkt detektering av sluttillstÄnds kvarkar och gluoner Àr dock inte möjligt pÄ grund av ett fenomen kÀnt som fÀrg inneslutning. IstÀllet studeras hÀndelse egenskaper med en nÀra överensstÀmmelse med deras distributioner. Dessa hÀndelse egenskaper Àr kÀnda som jets. Jets Àr centrala för partikelfysik analys och vÄr förstÄelse av dem, och dÀrmed förstÄelsen av vÄrt universum, Àr beroende av vÄr förmÄga att noggrant mÀta deras energi. TyvÀrr Àr nuvarande detektorteknik inte exakt, vilket krÀver korrigering av mÀt avvikelser. För att uppnÄ detta anvÀnder CMS-experimentet en sekventiell flerstegs jet kalibreringsprocess. Processen utförs flera gÄnger per Är, och oftare under datainsamling perioder. Att automatisera jet kalibreringen skulle öka effektiviteten i CMS-experimentet. Genom att automatisera kod körningen kunde arbetsflödet utföras oberoende av analytikerns nÀrvarande. Detta skulle i sin tur pÄskynda analysen och minska analytikerns arbetsbelastning. Dessutom möjliggör automatisering högre nivÄer av reproducerbarhet. I denna avhandling presenteras en ny metod för att automatisera hÀrledningen av jet energi korrigeringar frÄn simulering. För att uppnÄ automatisering anvÀnder metoden deklarativ programmering. Av analytikern krÀvs enbart att uttrycka vad som ska utföras och hen behöver inte lÀngre avgöra hur den ska utföras. För att framgÄngsrikt automatisera berÀkningen av jet korrigeringar Àr det nödvÀndigt att fÄnga detaljerad information om bÄde berÀknings stegen och berÀknings miljön. Det förstnÀmnda uppnÄs med ett berÀknings arbetsflöde och det senare med container teknologi. Detta möjliggör ett bÀrbart och skalbart arbetsflöde,, vilket Àr enkelt att förvalta och jÀmföra med tidigare körningar. Resultaten av denna avhandling tyder starkt pÄ att det Àr bÄde uppnÄeligt och fördelaktigt att fÄnga komplexa experimentella partikelfysik analyser med deklarativa arbetsflödes sprÄk. Produktiviteten hos analytikern förbÀttrades och reproducerbarheten underlÀttades. Metoden Àr dock inte utan sina utmaningar. Deklarativ programmering krÀver att analytikern tÀnker annorlunda om det aktuella problemet. Som ett resultat finns det ett par sociologiska utmaningar för metodens upptagningen. Men nÀr de omfattande fördelarna har förstÄtts, förvÀntar vi oss en bred tillÀmpning av detta tillvÀgagÄngssÀtt
    corecore