29 research outputs found

    Exploring Scheduling for On-demand File Systems and Data Management within HPC Environments

    Get PDF

    Exploring Scheduling for On-demand File Systems and Data Management within HPC Environments

    Get PDF

    New Statistical Algorithms for the Analysis of Mass Spectrometry Time-Of-Flight Mass Data with Applications in Clinical Diagnostics

    Get PDF
    Mass spectrometry (MS) based techniques have emerged as a standard forlarge-scale protein analysis. The ongoing progress in terms of more sensitive machines and improved data analysis algorithms led to a constant expansion of its fields of applications. Recently, MS was introduced into clinical proteomics with the prospect of early disease detection using proteomic pattern matching. Analyzing biological samples (e.g. blood) by mass spectrometry generates mass spectra that represent the components (molecules) contained in a sample as masses and their respective relative concentrations. In this work, we are interested in those components that are constant within a group of individuals but differ much between individuals of two distinct groups. These distinguishing components that dependent on a particular medical condition are generally called biomarkers. Since not all biomarkers found by the algorithms are of equal (discriminating) quality we are only interested in a small biomarker subset that - as a combination - can be used as a fingerprint for a disease. Once a fingerprint for a particular disease (or medical condition) is identified, it can be used in clinical diagnostics to classify unknown spectra. In this thesis we have developed new algorithms for automatic extraction of disease specific fingerprints from mass spectrometry data. Special emphasis has been put on designing highly sensitive methods with respect to signal detection. Thanks to our statistically based approach our methods are able to detect signals even below the noise level inherent in data acquired by common MS machines, such as hormones. To provide access to these new classes of algorithms to collaborating groups we have created a web-based analysis platform that provides all necessary interfaces for data transfer, data analysis and result inspection. To prove the platform's practical relevance it has been utilized in several clinical studies two of which are presented in this thesis. In these studies it could be shown that our platform is superior to commercial systems with respect to fingerprint identification. As an outcome of these studies several fingerprints for different cancer types (bladder, kidney, testicle, pancreas, colon and thyroid) have been detected and validated. The clinical partners in fact emphasize that these results would be impossible with a less sensitive analysis tool (such as the currently available systems). In addition to the issue of reliably finding and handling signals in noise we faced the problem to handle very large amounts of data, since an average dataset of an individual is about 2.5 Gigabytes in size and we have data of hundreds to thousands of persons. To cope with these large datasets, we developed a new framework for a heterogeneous (quasi) ad-hoc Grid - an infrastructure that allows to integrate thousands of computing resources (e.g. Desktop Computers, Computing Clusters or specialized hardware, such as IBM's Cell Processor in a Playstation 3)

    Evaluation of the Hitachi S-3800 supercomputer using six benchmarks

    No full text
    International Journal of Supercomputer Applications and High Performance Computing9158-70IJSA

    Designing Efficient Network Interfaces For System Area Networks

    Full text link
    The network is the key component of a Cluster of Workstations/PCs. Its performance, measured in terms of bandwidth and latency, has a great impact on the overall system performance. It quickly became clear that traditional WAN/LAN technology is not too well suited for interconnecting powerful nodes into a cluster. Their poor performance too often slows down communication-intensive applications. This observation led to the birth of a new class of networks called System Area Networks (SAN). The ATOLL network introduces a new optimized architecture for SANs. On a single chip, not one but four network interfaces (NI) have been implemented, together with an on-chip 4x4 full-duplex switch and four link interfaces. This unique "Network on a Chip" architecture is best suited for interconnecting SMP nodes, where multiple CPUs are given an exclusive NI and do not have to share a single interface. It also removes the need for any additional switching hardware, since the four byte-wide full-duplex links can be connected by cables with neighbor nodes in an arbitrary network topology

    Analytical Modeling of High Performance Reconfigurable Computers: Prediction and Analysis of System Performance.

    Get PDF
    The use of a network of shared, heterogeneous workstations each harboring a Reconfigurable Computing (RC) system offers high performance users an inexpensive platform for a wide range of computationally demanding problems. However, effectively using the full potential of these systems can be challenging without the knowledge of the system’s performance characteristics. While some performance models exist for shared, heterogeneous workstations, none thus far account for the addition of Reconfigurable Computing systems. This dissertation develops and validates an analytic performance modeling methodology for a class of fork-join algorithms executing on a High Performance Reconfigurable Computing (HPRC) platform. The model includes the effects of the reconfigurable device, application load imbalance, background user load, basic message passing communication, and processor heterogeneity. Three fork-join class of applications, a Boolean Satisfiability Solver, a Matrix-Vector Multiplication algorithm, and an Advanced Encryption Standard algorithm are used to validate the model with homogeneous and simulated heterogeneous workstations. A synthetic load is used to validate the model under various loading conditions including simulating heterogeneity by making some workstations appear slower than others by the use of background loading. The performance modeling methodology proves to be accurate in characterizing the effects of reconfigurable devices, application load imbalance, background user load and heterogeneity for applications running on shared, homogeneous and heterogeneous HPRC resources. The model error in all cases was found to be less than five percent for application runtimes greater than thirty seconds and less than fifteen percent for runtimes less than thirty seconds. The performance modeling methodology enables us to characterize applications running on shared HPRC resources. Cost functions are used to impose system usage policies and the results of vii the modeling methodology are utilized to find the optimal (or near-optimal) set of workstations to use for a given application. The usage policies investigated include determining the computational costs for the workstations and balancing the priority of the background user load with the parallel application. The applications studied fall within the Master-Worker paradigm and are well suited for a grid computing approach. A method for using NetSolve, a grid middleware, with the model and cost functions is introduced whereby users can produce optimal workstation sets and schedules for Master-Worker applications running on shared HPRC resources

    Methods for Seismic Wave Propagation on Local and Global Scales with Finite Differences

    Get PDF
    Die vorliegende Arbeit behandelt zwei unterschiedliche Anwendungen aus dem Bereich der numerischen Seismologie: Das erste Thema umfasst die Entwicklung und Anwendung eines Programms zur Berechnung der lokalen Wellenausbreitung in seismischen Störungszonen (Fault Zones) mit spezieller Fokussierung auf gefĂŒhrte Wellen (Trapped Waves). Dieser Wellentyp wird an vielen Störungszonen beobachtet und aus seinen Eigenschaften können Informationen ĂŒber die jeweilige Tiefenstruktur abgeleitet werden. Das zweite Thema dieser Arbeit behandelt die Entwicklung und Anwendung zweier Verfahren zur Berechnung der globalen Wellenausbreitung, also der Ausbreitung seismischer Wellen durch die gesamte Erde einschließlich des Ă€ußeren und inneren Erdkerns. Die verwendeten Methoden ermöglichen es, kleinrĂ€umige Strukturen in großen Tiefen wie zum Beispiel die Streueigenschaften des Erdmantels oder die kleinskalige Geschwindigkeitsstruktur an der Kern-Mantelgrenze in knapp 2900 km Tiefe zu untersuchen. Wellenausbreitung in seismischen Störungszonen: Seismische Störungszonen, wie zum Beispiel der San Andreas Fault in Kalifornien, zeigen auf beeindruckende Weise, wie die Gestalt der ErdoberflĂ€che durch seismische AktivitĂ€t als Folge tektonischer Prozesse geprĂ€gt wird. Die genaue Kenntnis der Tiefenstruktur einer Störungszone hingegen bietet zusĂ€tzlich einen Einblick in die vergangene SeismizitĂ€t, die die Struktur der jeweiligen Störung geprĂ€gt hat. Neben den tektonischen Eigenschaften einer Region lassen sich aus der Tiefenstruktur auch Voraussagen ĂŒber HĂ€ufigkeit und zu erwartende StĂ€rke zukĂŒnftiger Erdbeben ableiten. Da Erdbeben vorzugsweise in solchen Störungszonen auftreten, ist eine möglichst genaue Kenntnis der Geometrie einer SchwĂ€chezone wichtig, um Regionen mit erhöhtem GefĂ€hrdungspotenzial zu erkennen. FĂŒr die Untersuchung der Tiefenstruktur einer Störungszone stehen in vielen FĂ€llen ausschließlich Messungen von der ErdoberflĂ€che zur VerfĂŒgung, etwa von seismischen Netzen, die in unmittelbarer Umgebung oder direkt auf einer Störung platziert wurden. Ereignet sich nun ein Erdbeben in einigen Kilometern Tiefe innerhalb der Störungszone, breitet sich ein Teil der angeregten seismischen Wellen durch die gesamte Störungszone bis zur ErdoberflĂ€che aus, wo sie registriert werden. Die aufgezeichneten Signale werden somit entlang ihres gesamten Laufweges durch die Struktur der Störungszone beeinflusst, was die Ableitung der tiefenabhĂ€ngigen Struktur aus den Messdaten erschwert. Um trotzdem ein genaues seismisches Abbild einer Störungszone zu bekommen, analysiert man unterschiedliche Wellentypen im Seismogramm, wodurch ein Maximum an Strukturinformation abgeleitet werden kann. Einer dieser Wellentypen, der sich durch besondere Eigenschaften auszeichnet, ist die gefĂŒhrte Welle (Trapped Wave). Diese entsteht, wenn eine Störungszone einen ausgeprĂ€gten vertikal ausgedehnten Bereich drastisch reduzierter seismischer Ausbreitungsgeschwindigkeit (Low Velocity Layer) und nicht zu komplexer Geometrie besitzt, der als seismischer Wellenleiter wirkt. In einem solchen Wellenleiter kann sich eine gefĂŒhrte Welle ausbreiten, die als mit Abstand stĂ€rkstes Signal an der ErdoberflĂ€che registriert wird, also deutlich stĂ€rkere Bodenbewegungen hervorruft als etwa die direkte Welle. Dieser VerstĂ€rkungseffekt hat unter anderem Konsequenzen fĂŒr die AbschĂ€tzung der seismischen GefĂ€hrdung in der NĂ€he einer Störungszone, zum Beispiel wenn die Störungszone durch dicht besiedeltes Gebiet verlĂ€uft. GefĂŒhrte Wellen beinhalten aufgrund ihrer hohen SensitivitĂ€t bezĂŒglich der Eigenschaften von Niedergeschwindigkeitszonen Strukturinformationen, die aus anderen Wellentypen nicht abgeleitet werden können. Daher leistet das VerstĂ€ndnis dieses Wellentyps einen wichtigen Beitrag fĂŒr die Ableitung möglichst vollstĂ€ndiger Modelle von Störungszonen. Ausbreitung von SH- und P-SV Wellen in Erdmantel und der ganzen Erde: Das allgemeine VerstĂ€ndnis der Struktur und Dynamik des tiefen Erdinneren basiert zu einem großen Teil auf den Ergebnissen der globalen Seismologie. Im Gegensatz zum ersten Teil dieser Arbeit haben diese Erkenntnisse keine unmittelbare Auswirkung auf unser tĂ€gliches Leben. Jedoch liefert die Kenntnis des inneren Aufbaus der Erde wichtige Erkenntnisse fĂŒr die geophysikalische Grundlagenforschung bis hin zum VerstĂ€ndnis der Entstehungsgeschichte der Erde und unseres Planetensystems. Die Modellierung der globalen seismischen Wellenausbreitung unterscheidet sich von der lokalen Modellierungen in zwei wesentlichen Punkten: (1) die wesentlich grĂ¶ĂŸere Ausdehnung globaler Modelle, welche die gesamte Erde oder zumindest große Teile des Erdinnern beinhalten, und (2) der Eigenschaft seismischer Wellen, sich im globalen Maßstab hauptsĂ€chlich in der Ebene auszubreiten, die durch den Großkreis zwischen Quelle und EmpfĂ€nger aufgespannt wird. Beide Punkte legen nahe, zur Verringerung des Rechenaufwands eine Symmetriebedingung einzufĂŒhren. In dieser Arbeit wird durch die Formulierung von Wellengleichung und Modell in einem sphĂ€risch-achsensymmetrischen Koordinatensystem der – im globalen Maßstab im Allgemeinen geringe – Anteil von Variationen der seismischen Parameter und von Wellenfeldanteilen orthogonal zur Großkreisebene vernachlĂ€ssigt. Diese BeschrĂ€nkung fĂŒhrt zu einer enormen Einsparung an Rechenressourcen, da das zu berechnende seismische Wellenfeld nur noch zwei Dimensionen aufspannt. Eine Folge der Achsensymmetrie ist die Aufspaltung des seismischen Wellenfeldes in einen SH- und einen P-SV Anteil. Beide Wellenfeldanteile sind voneinander entkoppelt und breiten sich in unterschiedlichen Regionen des Erdinneren aus. Zur Berechnung des SH- und des P-SV Wellenfeldes wurden daher in dieser Arbeit zwei separate Programme SHaxi und PSVaxi entwickelt. Kapitel 3 behandelt die Berechnung des globalen SH Wellenfeldes fĂŒr Achsensymmetrische Geometrien mit dem im Rahmen dieser Arbeit entwickelten Programm SHaxi. Das SH Wellenfeld besteht aus horizontal polarisierten Scherwellen, die sich in guter NĂ€herung ausschließlich im Erdmantel, also zwischen ErdoberflĂ€che und Kern-Mantelgrenze ausbreiten. Somit muss nur der Erdmantel als Modellraum abgebildet werden, was die Diskretisierung des Modells und die Implementierung der Wellengleichung deutlich vereinfacht. Um eine Anwendung auf modernen Parallelcomputern mit verteilter Speicherarchitektur zu ermöglichen, wurde der Modellraum durch vertikale Schnitte in gleichgroße Segmente geteilt, die von den einzelnen Elementen (Knoten) eines Parallelrechners getrennt bearbeitet werden können. Das Wellenfeld in den Randbereichen dieser Segmente muss dabei nach jedem Zeitschritt explizit zwischen benachbarten Knoten ausgetauscht werden, um die Ausbreitung durch das gesamte Modell zu ermöglichen. Ein wesentlicher Aspekt des Kapitels ist die Verifikation des Verfahrens unter besonderer BerĂŒcksichtigung der implementierten Ringquelle. Durch einen Vergleich mit analytisch berechneten Seismogrammen werden die Eigenschaften der implementierten achsensymmetrischen Ringquelle diskutiert und es wird gezeigt, dass das Programm korrekte Seismogramme berechnet, die mit einer realistischen Double-Couple Quelle vergleichbar sind. Abschließend werden bisherige Anwendungen des Programms gezeigt: (1) die Modellierung von Streuung im gesamten Erdmantel und (2) die Untersuchung von kleinskaliger Topographie der D“ Schicht im untersten Erdmantel. Kapitel 4 behandelt das GegenstĂŒck des im vorherigen Kapitel behandelten Verfahrens: Das Programm PSVaxi zur Berechnung des globalen P-SV Wellenfeldes fĂŒr achsensymmetrische Geometrien. Im Gegensatz zum SH Wellenfeld breitet sich das P-SV Wellenfeld nicht nur im Erdmantel sondern auch im Ă€ußeren und inneren Erdkern aus. Dies erforderte eine Erweiterung des Modellraums bis praktisch zum Erdmittelpunkt, die sich mit dem im SH Fall verwendeten gleichförmigen Gitter aufgrund von GrundsĂ€tzlichen StabilitĂ€tsproblemen des verwendeten Finite Differenzen Verfahrens nicht durchfĂŒhren lĂ€sst. Um diesen zusĂ€tzlichen Modellraum zu erschließen wurde eine Mehrgebietsmethode (Multi-Domain Method) implementiert. Diese fĂŒllt zusĂ€tzliche Tiefenbereiche mit neuen, jeweils gleichförmigen Gittern (Domains) aus, deren GitterabstĂ€nde an den jeweiligen Tiefenbereich angepasst sind, was fĂŒr die notwendige StabilitĂ€t des Verfahrens sorgt. ZusĂ€tzlich zur tiefenabhĂ€ngigen Aufteilung des Modellraumes in gleichförmige Gitter wurde eine Parallelisierung vorgenommen, um das Programm auf Parallelcomputern nutzen zu können. Dazu wurde der Modellraum durch horizontale Schnitte in einzelne Segmente zerlegt, die – analog zu den vertikalen Schnitten bei der SHaxi Parallelisierung – von den einzelnen Knoten eines Parallelrechners bearbeitet werden können. Die Kombination von Mehrgebietsmethode und Segmentierung fĂŒhrt zu einem recht aufwendigen Algorithmus, erlaubt jedoch die Berechnung des hochfrequenten globalen Wellenfeldes durch die ganze Erde auf Parallelrechnern mit vergleichsweise geringem Rechenaufwand. Erste Anwendungen des PSVaxi Programms werden am Ende des Kapitels diskutiert: (1) eine exemplarische Modellierung der Wellenausbreitung in einer angenommenen D“ Schicht mit Topographie (2) eine Studie des Einflusses von Niedergeschwindigkeitszonen mit Topographie auf seismische Phasen, die durch den untersten Mantel und den Ă€ußeren Kern verlaufen und (3) eine Arbeit, die die Streueigenschaften des Mantels aus an der Kern-Mantelgrenze diffraktieren Wellen ableitet

    Optimising BWR spent fuel storage using the burnup credit method and exploring other solutions for the management of high-level waste

    Get PDF
    The volumes of accumulated spent fuel from commercial power plants have significantly increased over the last decades and are projected to grow further. With a small part of the spent fuel being reprocessed and with the lack of delivered solutions for the long-term spent fuel management, the demand for interim spent fuel storage facilities is expected to grow in the foreseeable future. Currently, LWRs – PWRs and BWRs, are considered as the major contributor to the spent fuel accumulation. The given research is focused on analysing BWR spent fuel properties since it is less researched than PWR due to the more complex fuel assembly design. The criticality safety analysis is a part of the safety assessment of the design of storage facilities. The criticality analysis can be performed by either the fresh fuel approach (unirradiated fuel) or by applying the burnup credit method (considers fuel burnup). The burnup credit method is widely applied to PWR storage systems and, in some countries, to BWR wet storage, but is still under development for BWR dry storage. The current study aims to develop a novel cutting-edge approach to the burnup credit analysis that can account for the realistic status of the BWR fuel assemblies through their lifetime in the reactor core. To achieve that, the approach incorporates the results of the reactor core nodal burnup simulations into the criticality safety assessment of the spent fuel storage cask. In addition, the study examines potential solutions for the long-term LWR spent fuel management. Prior to development of the burnup credit model, supporting investigations have been performed to determine the quality of the computational tools for the nodal reactor core analysis. The research included evaluation of potential lattice physics codes for BWR burnup calculations and comparison of nodal and high-fidelity methods for the full-core analysis with heterogenous BWR fuel assembly design. According to the results, the lattice physics modules TRITON and Polaris of SCALE-6.2 package showed to be robust for BWR analysis, while the UK code WIMS-10A produced the least satisfactory results among analysed codes. As expected, the outcome of the reactor core analysis by nodal and high-fidelity approaches for BWR core differed from each other. The leading reasons for that were found in the difference in the estimation of the axial power profiles for 3D fuel assembly models performed under both approaches. The main advantage of the nodal approach was the significantly lower computational demand which allowed more comprehensive reactor core analysis which was to date not possible in full-depth using the high-fidelity approach. The burnup credit study included the development of a 3D nodal fuel assembly model with coupled neutronics and thermal-hydraulics as well as steady-state reactor core analysis of four cycles of reactor operation with different initial parameters. The results of the reactor core analysis, such as fuel assembly’s discharge burnup or its approximated operational conditions (no actual operational data from a plant has been used), were used to define the composition of the spent fuel for further criticality analysis of the BWR storage cask. The variation of the initial parameters was conducted to estimate their effect on the criticality of the storage cask. The varied initial parameters included refuelling scenarios, fuel assembly types, and target burnups. The study demonstrated that the utilisation of the more detailed 3D nodal model of the BWR fuel assembly can improve the accuracy of the 2D lattice approach while analysing the fuel assembly status, and lead to a reduction of the conservatism of existing approaches of criticality analysis such as the fresh fuel approach. Although creating a detailed and realistic model of the fuel assembly for burnup credit analysis is more time-consuming and computationally expensive than just using a 2D lattice model or applying fresh fuel approach for the criticality analysis, it can potentially provide significant benefit in terms of reduction of the costs of spent fuel storage. The developed advanced modelling approach will mostly benefit the handling of complex and heterogeneous BWR fuel assemblies which are commonly used today in BWRs and are planned to be used in developing ABWRs. At the final part of the study, it was shown that the molten salt reactors working directly on a spent fuel can be a cost-effective, safe, and feasible alternative to the generally accepted strategies of the long-term spent fuel management such as completely closed nuclear fuel cycle and direct disposal of spent fuel
    corecore