29 research outputs found
New Statistical Algorithms for the Analysis of Mass Spectrometry Time-Of-Flight Mass Data with Applications in Clinical Diagnostics
Mass spectrometry (MS) based techniques have emerged as a standard forlarge-scale protein analysis. The ongoing progress in terms of more sensitive
machines and improved data analysis algorithms led to a constant expansion of
its fields of applications. Recently, MS was introduced into clinical proteomics
with the prospect of early disease detection using proteomic pattern matching.
Analyzing biological samples (e.g. blood) by mass spectrometry generates
mass spectra that represent the components (molecules) contained in a
sample as masses and their respective relative concentrations.
In this work, we are interested in those components that are constant within a
group of individuals but differ much between individuals of two distinct groups.
These distinguishing components that dependent on a particular medical condition
are generally called biomarkers. Since not all biomarkers found by the
algorithms are of equal (discriminating) quality we are only interested in a
small biomarker subset that - as a combination - can be used as a
fingerprint for a disease. Once a fingerprint for a particular disease
(or medical condition) is identified, it can be used in clinical diagnostics to
classify unknown spectra.
In this thesis we have developed new algorithms for automatic extraction of
disease specific fingerprints from mass spectrometry data. Special emphasis has
been put on designing highly sensitive methods with respect to signal detection.
Thanks to our statistically based approach our methods are able to
detect signals even below the noise level inherent in data acquired by common MS
machines, such as hormones.
To provide access to these new classes of algorithms to collaborating groups
we have created a web-based analysis platform that provides all necessary
interfaces for data transfer, data analysis and result inspection.
To prove the platform's practical relevance it has been utilized in several
clinical studies two of which are presented in this thesis. In these studies it
could be shown that our platform is superior to commercial systems with respect
to fingerprint identification. As an outcome of these studies several
fingerprints for different cancer types (bladder, kidney, testicle, pancreas,
colon and thyroid) have been detected and validated. The clinical partners in
fact emphasize that these results would be impossible with a less sensitive
analysis tool (such as the currently available systems).
In addition to the issue of reliably finding and handling signals in noise we
faced the problem to handle very large amounts of data, since an average dataset
of an individual is about 2.5 Gigabytes in size and we have data of hundreds to
thousands of persons. To cope with these large datasets, we developed a new
framework for a heterogeneous (quasi) ad-hoc Grid - an infrastructure that
allows to integrate thousands of computing resources (e.g. Desktop Computers,
Computing Clusters or specialized hardware, such as IBM's Cell Processor in a
Playstation 3)
Evaluation of the Hitachi S-3800 supercomputer using six benchmarks
International Journal of Supercomputer Applications and High Performance Computing9158-70IJSA
Designing Efficient Network Interfaces For System Area Networks
The network is the key component of a Cluster of Workstations/PCs. Its performance, measured in terms of bandwidth and latency, has a great impact on the overall system performance. It quickly became clear that traditional WAN/LAN technology is not too well suited for interconnecting powerful nodes into a cluster. Their poor performance too often slows down communication-intensive applications. This observation led to the birth of a new class of networks called System Area Networks (SAN). The ATOLL network introduces a new optimized architecture for SANs. On a single chip, not one but four network interfaces (NI) have been implemented, together with an on-chip 4x4 full-duplex switch and four link interfaces. This unique "Network on a Chip" architecture is best suited for interconnecting SMP nodes, where multiple CPUs are given an exclusive NI and do not have to share a single interface. It also removes the need for any additional switching hardware, since the four byte-wide full-duplex links can be connected by cables with neighbor nodes in an arbitrary network topology
Analytical Modeling of High Performance Reconfigurable Computers: Prediction and Analysis of System Performance.
The use of a network of shared, heterogeneous workstations each harboring a Reconfigurable Computing (RC) system offers high performance users an inexpensive platform for a wide range of computationally demanding problems. However, effectively using the full potential of these systems can be challenging without the knowledge of the systemâs performance characteristics. While some performance models exist for shared, heterogeneous workstations, none thus far account for the addition of Reconfigurable Computing systems. This dissertation develops and validates an analytic performance modeling methodology for a class of fork-join algorithms executing on a High Performance Reconfigurable Computing (HPRC) platform. The model includes the effects of the reconfigurable device, application load imbalance, background user load, basic message passing communication, and processor heterogeneity. Three fork-join class of applications, a Boolean Satisfiability Solver, a Matrix-Vector Multiplication algorithm, and an Advanced Encryption Standard algorithm are used to validate the model with homogeneous and simulated heterogeneous workstations. A synthetic load is used to validate the model under various loading conditions including simulating heterogeneity by making some workstations appear slower than others by the use of background loading. The performance modeling methodology proves to be accurate in characterizing the effects of reconfigurable devices, application load imbalance, background user load and heterogeneity for applications running on shared, homogeneous and heterogeneous HPRC resources. The model error in all cases was found to be less than five percent for application runtimes greater than thirty seconds and less than fifteen percent for runtimes less than thirty seconds. The performance modeling methodology enables us to characterize applications running on shared HPRC resources. Cost functions are used to impose system usage policies and the results of vii the modeling methodology are utilized to find the optimal (or near-optimal) set of workstations to use for a given application. The usage policies investigated include determining the computational costs for the workstations and balancing the priority of the background user load with the parallel application. The applications studied fall within the Master-Worker paradigm and are well suited for a grid computing approach. A method for using NetSolve, a grid middleware, with the model and cost functions is introduced whereby users can produce optimal workstation sets and schedules for Master-Worker applications running on shared HPRC resources
Methods for Seismic Wave Propagation on Local and Global Scales with Finite Differences
Die vorliegende Arbeit behandelt zwei unterschiedliche Anwendungen aus dem Bereich der numerischen Seismologie: Das erste Thema umfasst die Entwicklung und Anwendung eines Programms zur Berechnung der lokalen Wellenausbreitung
in seismischen Störungszonen (Fault Zones) mit spezieller Fokussierung auf gefĂŒhrte Wellen (Trapped Waves). Dieser Wellentyp wird an vielen Störungszonen beobachtet und aus seinen Eigenschaften können Informationen ĂŒber die jeweilige Tiefenstruktur abgeleitet werden.
Das zweite Thema dieser Arbeit behandelt die Entwicklung und Anwendung zweier Verfahren zur Berechnung der globalen Wellenausbreitung, also der Ausbreitung seismischer Wellen durch die gesamte Erde einschlieĂlich des Ă€uĂeren und inneren Erdkerns. Die verwendeten Methoden ermöglichen es, kleinrĂ€umige Strukturen in groĂen Tiefen wie zum Beispiel die Streueigenschaften des Erdmantels oder die kleinskalige Geschwindigkeitsstruktur an der Kern-Mantelgrenze in knapp 2900 km Tiefe zu untersuchen.
Wellenausbreitung in seismischen Störungszonen:
Seismische Störungszonen, wie zum Beispiel der San Andreas Fault in Kalifornien, zeigen auf beeindruckende Weise, wie die Gestalt der ErdoberflĂ€che durch seismische AktivitĂ€t als Folge tektonischer Prozesse geprĂ€gt wird. Die genaue Kenntnis der Tiefenstruktur einer Störungszone hingegen bietet zusĂ€tzlich einen Einblick in die vergangene SeismizitĂ€t, die die Struktur der jeweiligen Störung geprĂ€gt hat. Neben den tektonischen Eigenschaften einer Region lassen sich aus der Tiefenstruktur auch Voraussagen ĂŒber HĂ€ufigkeit und zu erwartende StĂ€rke zukĂŒnftiger Erdbeben ableiten. Da Erdbeben vorzugsweise in solchen
Störungszonen auftreten, ist eine möglichst genaue Kenntnis der Geometrie einer SchwÀchezone wichtig, um Regionen mit erhöhtem GefÀhrdungspotenzial zu erkennen.
FĂŒr die Untersuchung der Tiefenstruktur einer Störungszone stehen in vielen FĂ€llen ausschlieĂlich Messungen von der ErdoberflĂ€che zur VerfĂŒgung, etwa von seismischen Netzen, die in unmittelbarer Umgebung oder direkt auf einer Störung
platziert wurden. Ereignet sich nun ein Erdbeben in einigen Kilometern Tiefe innerhalb der Störungszone, breitet sich ein Teil der angeregten seismischen Wellen durch die gesamte Störungszone bis zur ErdoberflÀche aus, wo sie
registriert werden. Die aufgezeichneten Signale werden somit entlang ihres gesamten Laufweges durch die Struktur der Störungszone beeinflusst, was die Ableitung der tiefenabhÀngigen Struktur aus den Messdaten erschwert.
Um trotzdem ein genaues seismisches Abbild einer Störungszone zu bekommen, analysiert man unterschiedliche Wellentypen im Seismogramm, wodurch ein Maximum an Strukturinformation abgeleitet werden kann. Einer dieser
Wellentypen, der sich durch besondere Eigenschaften auszeichnet, ist die gefĂŒhrte Welle (Trapped Wave). Diese entsteht, wenn eine Störungszone einen ausgeprĂ€gten vertikal ausgedehnten Bereich drastisch reduzierter seismischer Ausbreitungsgeschwindigkeit (Low Velocity Layer) und nicht zu komplexer Geometrie besitzt, der als seismischer Wellenleiter wirkt. In einem solchen Wellenleiter kann sich eine gefĂŒhrte Welle ausbreiten, die als mit Abstand stĂ€rkstes Signal an der ErdoberflĂ€che registriert wird, also deutlich stĂ€rkere Bodenbewegungen hervorruft als etwa die direkte Welle. Dieser VerstĂ€rkungseffekt hat unter anderem Konsequenzen fĂŒr die AbschĂ€tzung der seismischen GefĂ€hrdung in der NĂ€he einer Störungszone, zum Beispiel wenn die Störungszone durch dicht besiedeltes Gebiet verlĂ€uft. GefĂŒhrte Wellen beinhalten aufgrund ihrer hohen SensitivitĂ€t bezĂŒglich der
Eigenschaften von Niedergeschwindigkeitszonen Strukturinformationen, die aus anderen Wellentypen nicht abgeleitet werden können. Daher leistet das VerstĂ€ndnis dieses Wellentyps einen wichtigen Beitrag fĂŒr die Ableitung
möglichst vollstÀndiger Modelle von Störungszonen.
Ausbreitung von SH- und P-SV Wellen in Erdmantel und der ganzen Erde:
Das allgemeine VerstĂ€ndnis der Struktur und Dynamik des tiefen Erdinneren basiert zu einem groĂen Teil auf den Ergebnissen der globalen Seismologie. Im Gegensatz zum ersten Teil dieser Arbeit haben diese Erkenntnisse keine
unmittelbare Auswirkung auf unser tĂ€gliches Leben. Jedoch liefert die Kenntnis des inneren Aufbaus der Erde wichtige Erkenntnisse fĂŒr die geophysikalische Grundlagenforschung bis hin zum VerstĂ€ndnis der Entstehungsgeschichte der Erde und unseres Planetensystems. Die Modellierung der globalen seismischen Wellenausbreitung unterscheidet sich von der lokalen Modellierungen in zwei wesentlichen Punkten: (1) die wesentlich gröĂere Ausdehnung globaler Modelle, welche die gesamte Erde oder zumindest groĂe Teile des Erdinnern beinhalten, und (2) der Eigenschaft seismischer Wellen, sich im globalen MaĂstab hauptsĂ€chlich in der Ebene auszubreiten, die durch den GroĂkreis zwischen Quelle und EmpfĂ€nger aufgespannt wird. Beide Punkte legen nahe, zur Verringerung des Rechenaufwands eine Symmetriebedingung
einzufĂŒhren. In dieser Arbeit wird durch die Formulierung von Wellengleichung und Modell in einem sphĂ€risch-achsensymmetrischen Koordinatensystem der â im globalen MaĂstab im Allgemeinen geringe â Anteil von Variationen der
seismischen Parameter und von Wellenfeldanteilen orthogonal zur GroĂkreisebene vernachlĂ€ssigt. Diese BeschrĂ€nkung fĂŒhrt zu einer enormen Einsparung an Rechenressourcen, da das zu berechnende seismische Wellenfeld nur noch zwei Dimensionen aufspannt. Eine Folge der Achsensymmetrie ist die Aufspaltung des seismischen Wellenfeldes in einen SH- und einen P-SV Anteil. Beide Wellenfeldanteile sind voneinander entkoppelt und breiten sich in unterschiedlichen Regionen des Erdinneren aus. Zur Berechnung des SH- und des P-SV Wellenfeldes wurden daher in dieser Arbeit zwei separate Programme SHaxi und PSVaxi entwickelt. Kapitel 3 behandelt die Berechnung des globalen SH Wellenfeldes fĂŒr Achsensymmetrische Geometrien mit dem im Rahmen dieser Arbeit entwickelten Programm SHaxi. Das SH Wellenfeld besteht aus horizontal polarisierten Scherwellen, die sich in guter NĂ€herung ausschlieĂlich im Erdmantel, also zwischen ErdoberflĂ€che und Kern-Mantelgrenze ausbreiten. Somit muss nur der Erdmantel als Modellraum abgebildet werden, was die Diskretisierung des Modells und die Implementierung der Wellengleichung deutlich vereinfacht. Um
eine Anwendung auf modernen Parallelcomputern mit verteilter
Speicherarchitektur zu ermöglichen, wurde der Modellraum durch vertikale Schnitte in gleichgroĂe Segmente geteilt, die von den einzelnen Elementen (Knoten) eines Parallelrechners getrennt bearbeitet werden können. Das
Wellenfeld in den Randbereichen dieser Segmente muss dabei nach jedem Zeitschritt explizit zwischen benachbarten Knoten ausgetauscht werden, um die Ausbreitung durch das gesamte Modell zu ermöglichen. Ein wesentlicher Aspekt des Kapitels ist die Verifikation des Verfahrens unter
besonderer BerĂŒcksichtigung der implementierten Ringquelle. Durch einen Vergleich mit analytisch berechneten Seismogrammen werden die Eigenschaften der implementierten achsensymmetrischen Ringquelle diskutiert und es wird
gezeigt, dass das Programm korrekte Seismogramme berechnet, die mit einer realistischen Double-Couple Quelle vergleichbar sind. AbschlieĂend werden bisherige Anwendungen des Programms gezeigt: (1) die Modellierung von
Streuung im gesamten Erdmantel und (2) die Untersuchung von kleinskaliger Topographie der Dâ Schicht im untersten Erdmantel. Kapitel 4 behandelt das GegenstĂŒck des im vorherigen Kapitel behandelten Verfahrens: Das Programm PSVaxi zur Berechnung des globalen P-SV Wellenfeldes fĂŒr achsensymmetrische Geometrien. Im Gegensatz zum SH
Wellenfeld breitet sich das P-SV Wellenfeld nicht nur im Erdmantel sondern auch im Ă€uĂeren und inneren Erdkern aus. Dies erforderte eine Erweiterung des Modellraums bis praktisch zum Erdmittelpunkt, die sich mit dem im SH Fall
verwendeten gleichförmigen Gitter aufgrund von GrundsĂ€tzlichen StabilitĂ€tsproblemen des verwendeten Finite Differenzen Verfahrens nicht durchfĂŒhren lĂ€sst.
Um diesen zusĂ€tzlichen Modellraum zu erschlieĂen wurde eine Mehrgebietsmethode (Multi-Domain Method) implementiert. Diese fĂŒllt zusĂ€tzliche Tiefenbereiche mit neuen, jeweils gleichförmigen Gittern (Domains) aus, deren GitterabstĂ€nde an den jeweiligen Tiefenbereich angepasst sind, was fĂŒr die
notwendige StabilitĂ€t des Verfahrens sorgt. ZusĂ€tzlich zur tiefenabhĂ€ngigen Aufteilung des Modellraumes in gleichförmige Gitter wurde eine Parallelisierung vorgenommen, um das Programm auf Parallelcomputern nutzen zu können. Dazu wurde der Modellraum durch horizontale Schnitte in einzelne Segmente zerlegt, die â analog zu den vertikalen Schnitten bei der SHaxi Parallelisierung â von den einzelnen Knoten eines Parallelrechners bearbeitet werden können. Die Kombination von Mehrgebietsmethode und Segmentierung fĂŒhrt zu einem recht aufwendigen Algorithmus, erlaubt jedoch die Berechnung des hochfrequenten globalen Wellenfeldes durch die ganze Erde auf Parallelrechnern mit
vergleichsweise geringem Rechenaufwand. Erste Anwendungen des PSVaxi Programms werden am Ende des Kapitels diskutiert: (1) eine exemplarische Modellierung der Wellenausbreitung in einer angenommenen Dâ Schicht mit Topographie (2) eine Studie des Einflusses von Niedergeschwindigkeitszonen mit Topographie auf seismische Phasen, die durch den untersten Mantel und den Ă€uĂeren Kern verlaufen und (3) eine Arbeit, die die Streueigenschaften des Mantels aus an der Kern-Mantelgrenze diffraktieren
Wellen ableitet
Optimising BWR spent fuel storage using the burnup credit method and exploring other solutions for the management of high-level waste
The volumes of accumulated spent fuel from commercial power plants have significantly increased over the last decades and are projected to grow further. With a small part of the spent fuel being reprocessed and with the lack of delivered solutions for the long-term spent fuel management, the demand for interim spent fuel storage facilities is expected to grow in the foreseeable future. Currently, LWRs â PWRs and BWRs, are considered as the major contributor to the spent fuel accumulation. The given research is focused on analysing BWR spent fuel properties since it is less researched than PWR due to the more complex fuel assembly design. The criticality safety analysis is a part of the safety assessment of the design of storage facilities. The criticality analysis can be performed by either the fresh fuel approach (unirradiated fuel) or by applying the burnup credit method (considers fuel burnup). The burnup credit method is widely applied to PWR storage systems and, in some countries, to BWR wet storage, but is still under development for BWR dry storage. The current study aims to develop a novel cutting-edge approach to the burnup credit analysis that can account for the realistic status of the BWR fuel assemblies through their lifetime in the reactor core. To achieve that, the approach incorporates the results of the reactor core nodal burnup simulations into the criticality safety assessment of the spent fuel storage cask. In addition, the study examines potential solutions for the long-term LWR spent fuel management. Prior to development of the burnup credit model, supporting investigations have been performed to determine the quality of the computational tools for the nodal reactor core analysis. The research included evaluation of potential lattice physics codes for BWR burnup calculations and comparison of nodal and high-fidelity methods for the full-core analysis with heterogenous BWR fuel assembly design. According to the results, the lattice physics modules TRITON and Polaris of SCALE-6.2 package showed to be robust for BWR analysis, while the UK code WIMS-10A produced the least satisfactory results among analysed codes. As expected, the outcome of the reactor core analysis by nodal and high-fidelity approaches for BWR core differed from each other. The leading reasons for that were found in the difference in the estimation of the axial power profiles for 3D fuel assembly models performed under both approaches. The main advantage of the nodal approach was the significantly lower computational demand which allowed more comprehensive reactor core analysis which was to date not possible in full-depth using the high-fidelity approach. The burnup credit study included the development of a 3D nodal fuel assembly model with coupled neutronics and thermal-hydraulics as well as steady-state reactor core analysis of four cycles of reactor operation with different initial parameters. The results of the reactor core analysis, such as fuel assemblyâs discharge burnup or its approximated operational conditions (no actual operational data from a plant has been used), were used to define the composition of the spent fuel for further criticality analysis of the BWR storage cask. The variation of the initial parameters was conducted to estimate their effect on the criticality of the storage cask. The varied initial parameters included refuelling scenarios, fuel assembly types, and target burnups. The study demonstrated that the utilisation of the more detailed 3D nodal model of the BWR fuel assembly can improve the accuracy of the 2D lattice approach while analysing the fuel assembly status, and lead to a reduction of the conservatism of existing approaches of criticality analysis such as the fresh fuel approach. Although creating a detailed and realistic model of the fuel assembly for burnup credit analysis is more time-consuming and computationally expensive than just using a 2D lattice model or applying fresh fuel approach for the criticality analysis, it can potentially provide significant benefit in terms of reduction of the costs of spent fuel storage. The developed advanced modelling approach will mostly benefit the handling of complex and heterogeneous BWR fuel assemblies which are commonly used today in BWRs and are planned to be used in developing ABWRs. At the final part of the study, it was shown that the molten salt reactors working directly on a spent fuel can be a cost-effective, safe, and feasible alternative to the generally accepted strategies of the long-term spent fuel management such as completely closed nuclear fuel cycle and direct disposal of spent fuel