This work belongs to the field of computational high-energy physics (HEP). The key methods used in this thesis work to meet the challenges raised by the Large Hadron Collider (LHC) era experiments are object-orientation with software engineering, Monte Carlo simulation, the computer technology of clusters, and artificial neural networks.
The first aspect discussed is the development of hadronic cascade models, used for the accurate simulation of medium-energy hadron-nucleus reactions, up to 10 GeV. These models are typically needed in hadronic calorimeter studies and in the estimation of radiation backgrounds. Various applications outside HEP include the medical field (such as hadron treatment simulations), space science (satellite shielding), and nuclear physics (spallation studies).
Validation results are presented for several significant improvements released in Geant4 simulation tool, and the significance of the new models for computing in the Large Hadron Collider era is estimated. In particular, we estimate the ability of the Bertini cascade to simulate Compact Muon Solenoid (CMS) hadron calorimeter HCAL.
LHC test beam activity has a tightly coupled cycle of simulation-to-data analysis. Typically, a Geant4 computer experiment is used to understand test beam measurements. Thus an another aspect of this thesis is a description of studies related to developing new CMS H2 test beam data analysis tools and performing data analysis on the basis of CMS Monte Carlo events. These events have been simulated in detail using Geant4 physics models, full CMS detector description, and event reconstruction.
Using the ROOT data analysis framework we have developed an offline ANN-based approach to tag b-jets associated with heavy neutral Higgs particles, and we show that this kind of NN methodology can be successfully used to separate the Higgs signal from the background in the CMS experiment.Tärkeimmät menetelmät tässä kokeellisen hiukkasfysiikan laskennan alaan kuuluvassa työssä ovat olipohjainen ohjelmistokehitys, Monte Carlo simulointi ja keinotekoiset hermoverkot. Näitä menetelmiä on käytetty vastaamaan haasteisiin joita asettaa CERN:n Large Hadron Collider - kiihdyttimellä tehtävien kokeiden simulointi ja data-analyysi -menetelmien kehittäminen.
Työn ensimmäisessä osassa keskitytään atomiytimen sisäisten hadroni-kaskadimallien kehittämiseen. Näiden mallien tyypilliset käyttöalueet ovat hiukkasfysiikassa hadronikalorimetrien simulointi ja taustasäteilyn arviointi, ydifysiikassa spallaatiotutkimus, avaruustutkimuksesa säteilynsuojelu ja lääketieteessä hadronihoitojen mallintaminen.
Työssä esitellään avoimen lähdekoodin ohjelmistossa Geant4:ssä kehitettyjen mallien suorituskykyä ja sovellutuksia erityisesti CERN:n Compact Muon Solenoid -kokeen hadronikalorimetrin näkökulmasta ja perustellaan miksi CERN kokeet ovat valinneet työssä kehitetyt mallit standardityökaluksi simulaatioissaan.
Työn toisessa osassa kuvataan hiukkassuihkujen analysointiin Helsinki Silicon Beam Telescope -jäljistimellä kehittettyä Geant4-simulointia ja data-analyysi -ohjelmistoa. Lisäksi esitellään uusi menetelmä erottaa CMS kokeeessa Higgs hiukkasen signaali vallitsevasta taustasta käyttäen keinotekoisia hemoverkkoja. Aikaisemmin vain vähän sovelletujen itseoppivien hermoverkkojen analyysillä todistetaan että myös tällainen työkalu soveltuu tukemaan perinteisiä menetelmiä