59 research outputs found

    Expansion of the Severe Accident Code MELCOR by Coupling External Models (KIT Scientific Reports ; 7726)

    Get PDF
    In this work the MELCOR-Code is coupled with the Phase-Change Effective Convectivity Model (PECM) using the developed universal coupling tool DINAMO to improve the prediction of molten core material in the lower head during a severe accident in a Nuclear Power Plan. The coupled system was tested by simulating different experiments performed in the LIVE-facility. The coupled simulation of an entire severe accident shows the necessity for more detailed models in integral codes

    Management of SPMD based parallel processing on clusters of workstations

    Full text link
    Current attempts to manage parallel applications on Clusters of Workstations (COWs) have either generally followed the parallel execution environment approach or been extensions to existing network operating systems, both of which do not provide complete or satisfactory solutions. The efficient and transparent management of parallelism within the COW environment requires enhanced methods of process instantiation, mapping of parallel process to workstations, maintenance of process relationships, process communication facilities, and process coordination mechanisms. The aim of this research is to synthesise, design, develop and experimentally study a system capable of efficiently and transparently managing SPMD parallelism on a COW. This system should both improve the performance of SPMD based parallel programs and relieve the programmer from the involvement into parallelism management in order to allow them to concentrate on application programming. It is also the aim of this research to show that such a system, to achieve these objectives, is best achieved by adding new special services and exploiting the existing services of a client/server and microkernel based distributed operating system. To achieve these goals the research methods of the experimental computer science should be employed. In order to specify the scope of this project, this work investigated the issues related to parallel processing on COWs and surveyed a number of relevant systems including PVM, NOW and MOSIX. It was shown that although the MOSIX system provide a number of good services related to parallelism management, none of the system forms a complete solution. The problems identified with these systems include: instantiation services that are not suited to parallel processing; duplication of services between the parallelism management environment and the operating system; and poor levels of transparency. A high performance and transparent system capable of managing the execution of SPMD parallel applications was synthesised and the specific services of process instantiation, process mapping and process interaction detailed. The process instantiation service designed here provides the capability to instantiate parallel processes using either creation or duplication methods and also supports multiple and group based instantiation which is specifically design for SPMD parallel processing. The process mapping service provides the combination of process allocation and dynamic load balancing to ensure the load of a COW remains balanced not only at the time a parallel program is initialised but also during the execution of the program. The process interaction service guarantees to maintain transparently process relationships, communications and coordination services between parallel processes regardless of their location within the COW. The combination of these services provides an original architecture and organisation of a system that is capable of fully managing the execution of SPMD parallel applications on a COW. A logical design of a parallelism management system was developed derived from the synthesised system and was shown that it should ideally be based on a distributed operating system employing the client server model. The client/server based distributed operating system provides the level of transparency, modularity and flexibility necessary for a complete parallelism management system. The services identified in the synthesised system have been mapped to a set of server processes including: Process Instantiation Server providing advanced multiple and group based process creation and duplication; Process Mapping Server combining load collection, process allocation and dynamic load balancing services; and Process Interaction Server providing transparent interprocess communication and coordination. A Process Migration Server was also identified as vital to support both the instantiation and mapping servers. The RHODOS client/server and microkernel based distributed operating system was selected to carry out research into the detailed design and to be used for the implementation this parallelism management system. RHODOS was enhanced to provide the required servers and resulted in the development of the REX Manager, Global Scheduler and Process Migration Manager to provide the services of process instantiation, mapping and migration, respectively. The process interaction services were already provided within RHODOS and only required some extensions to the existing Process Manager and IPC Managers. Through a variety of experiments it was shown that when this system was used to support the execution of SPMD parallel applications the overall execution times were improved, especially when multiple and group based instantiation services are employed. The RHODOS PMS was also shown to greatly reduce the programming burden experienced by users when writing SPMD parallel applications by providing a small set of powerful primitives specially designed to support parallel processing. The system was also shown to be applicable and has been used in a variety of other research areas such as Distributed Shared Memory, Parallelising Compilers and assisting the port of PVM to the RHODOS system. The RHODOS Parallelism Management System (PMS) provides a unique and creative solution to the problem of transparently and efficiently controlling the execution of SPMD parallel applications on COWs. Combining advanced services such as multiple and group based process creation and duplication; combined process allocation and dynamic load balancing; and complete COW wide transparency produces a totally new system that addresses many of the problems not addressed in other systems

    A debugging engine for parallel and distributed programs

    Get PDF
    Dissertação apresentada para a obtenção do Grau de Doutor em InformĂĄtica pela Universidade Nova de Lisboa, Faculdade de CiĂȘncias e Tecnologia.In the last decade a considerable amount of research work has focused on distributed debugging, one of the crucial fields in the parallel software development cycle. The productivity of the software development process strongly depends on the adequate definition of what debugging tools should be provided, and what debugging methodologies and functionalities should these tools support. The work described in this dissertation was initiated in 1995, in the context of two research projects, the SEPP (Software Engineering for Parallel Processing) and HPCTI (High-Performance Computing Tools for Industry), both sponsored by the European Union in the Copernicus programme, which aimed at the design and implementation of an integrated parallel software development environment. In the context of these projects, two independent toolsets have been developed, the GRADE and EDPEPPS parallel software development environments. Our contribution to these projects was in the debugging support. We have designed a debugging engine and developed a prototype, which was integrated the both toolsets (it was the only tool developed in the context of the SEPP and HPCTI projects which achieved such a result). Even after the closing of those research projects, further research work on distributed debugger has been carried on, which conducted to the re-design and re-implementation of the debugging engine. This dissertation describes the debugging engine according to its most up-to-date design and implementation stages. It also reposts some of the experimentalworkmade with both the initial and the current implementations, and how it contributed to validate the design and implementations of the debugging engine

    Automated parallel application creation and execution tool for clusters

    Full text link
    This research investigated an automated approach to re-writing traditional sequential computer programs into parallel programs for networked computers. A tool was designed and developed for generating parallel programs automatically and also executing these parallel programs on a network of computers. Performance is maximized by utilising all idle resources

    Entwicklung integrierter IT-Infrastrukturen fĂŒr die Simulation komplexer geophysikalischer Prozesse

    Get PDF

    Thermo-structural analysis of a reactor pressure vessel lower head during core-melt severe accidents

    Get PDF
    Schwere StörfĂ€lle in Kernkraftwerke haben in Anbetracht der implementierten Sicherheitsmaßnahmen sehr geringe Eintrittswahrscheinlichkeit. Sie sind jedoch möglich, wie im Jahr 2011 am Kernkraftwerk Fukushima Daiichi eingetreten. Die Freilassung radioaktiver Stoffe vom versagten ReaktordruckbehĂ€lter (RDB) hatte dort massiv Konsequenzen auf die Umgebung. Um radioaktives Material im RDB einzuschließen, wird eine RĂŒckhaltung der Kernschmelze im BehĂ€lter (IVR: in-vessel melt retention) durch externe ReaktorbehĂ€lterkĂŒhlung (ERVC: external reactor vessel cooling) betrachtet als eine vielversprechende Sicherheitsmaßnahme um schwere StörfĂ€lle zu begrenzen. GemĂ€ĂŸ der derzeitigen ForschungsprioritĂ€ten fĂŒr schwere StörfĂ€lle werden folgende PhĂ€nomene im unteren Plenum des RDB als wichtig betrachtet, um den Unfallablauf zu erklĂ€ren: (a) Schmelzeverhalten in unteren Plenum, (b) IntegritĂ€t des RDBs durch externe BehĂ€lterkĂŒhlung, und (c) RDB Versagensmodus. Es wird weiterhin ein tieferes VerstĂ€ndnis dieser PhĂ€nomene und des Unfallverlaufs gefordert. Die Kosten großer Experimente sind sehr hoch. Sie sind daher nicht wiederholbar. Daher sollen numerische Analysemodelle weiterentwickelt werden, um schwere UnfĂ€lle zu analysieren und um Gegenmaßnahmen schwerer StörfĂ€lle zu verbessern. Das Ziel dieser Arbeit ist die Bewertung und Verbesserung des Analysemodells fĂŒr das untere Plenum. RELAP/SCDAPSIM ist ein Reaktorberechnungsprogramm, das weiterhin fĂŒr Analysen schwerer UnfĂ€lle verwendet wird. Es beinhaltet das COUPLE-Modul, das den WĂ€rmeĂŒbergang des Schmelzpools im unteren Plenum sowie die KriechschĂ€digung simuliert. Bisher war die wichtigste Anwendung dieses Moduls die Analyse der Aufheizung des DruckbehĂ€lters, so dass Versagens- sowie Schmelzzeit abgeschĂ€tzt werden können. In letzter Zeit gewinnt jedoch die Anwendbarkeit des vorliegenden Reaktorberechnungsprogramms auf die ReaktorbehĂ€lterkĂŒhlung immer grĂ¶ĂŸeres Interesse. Dennoch wurden bis jetzt nur wenige Evaluierungen mit Schmelzpoolexperimenten durchgefĂŒhrt. Die Modifikation des Programms in dieser Arbeit auf die Anwendung auf externe KĂŒhlung ermöglichte die Evaluierung des Codes anhand der LIVE-Experimente des KIT. Das COUPLE-Modul ist dadurch eingeschrĂ€nkt, dass ein homogener Schmelzepool angenommen wird und dass der Einfluss eines geschichteten Pools nicht erfasst werden kann. Ferner wird nur KriechschĂ€digung betrachtet und detaillierte mechanische Analysen sind nicht möglich. Das Phase-Change Effective Convectivity Model (PECM) ist ein Spezialmodel fĂŒr detaillierten WĂ€rmetransport im Schmelzpool, das basierend auf CFD-Untersuchungen entwickelt wurde. Dieses Model verwendet empirische Korrelationen um den konvektiven WĂ€rmetransport in der Energieerhaltungsgleichung abzuschĂ€tzen. Eine Simulation des WĂ€rmetransports in einem geschichteten Pool ist ebenfalls möglich. Das Model wurde in OpenFOAM integriert und um mechanische Analysemodelle erweitert, um WĂ€rmeausdehnung, PlastizitĂ€t, Kriechen sowie MaterialschĂ€digung berĂŒcksichtigen zu können. Der erweiterte Löser (PECM/S) wurde mit LIVE und FOREVER Experimenten validiert. Mit PECM/S ist es jedoch nicht möglich ein ganzes Unfallszenario aufzulösen. Daher wurden RELAP/SCDAPSIM und PECM/S mit OpenMPI gekoppelt, ein Message Passing Interface, um die Vorteile beider Codes zu nutzen. Das gekoppelte System wurde mit LIVE-Experimenten, die je nach Versuch verschiedenen Heiz- und KĂŒhlungsbedingungen hatten, validiert. Die Ergebnisse wurden ferner mit RELAP/SCDAPSIM Einzelanalysen verglichen und zeigte eine detailliertere und bessere Übereinstimmung mit den Experimenten. Die Anwendung des gekoppelten Systems auf die Simulation eines schweren Störfalls zeigte die StĂ€rken der Kopplung und lĂ€sst erwarten, dass die Kopplungsmethode bei Analysen des unteren Plenums des RDBs fĂŒr schwere StörfĂ€llen mit Kernschmelze verwendet werden kann

    Verbesserte Berechnung der Wasserstoffverteilung im SicherheitsbehÀlter bei der Analyse schwerer StörfÀlle in Kernkraftwerken durch Kopplung von MELCOR und GASFLOW (KIT Scientific Reports ; 7658)

    Get PDF
    Der Bericht beschreibt die Entwicklung einer Kopplung zwischen dem integralen Störfall-Code MELCOR und dem CFD-Code GASFLOW, welcher die Wasserstoffverteilung im ReaktorsicherheitsbehÀlter berechnet. Der korrekte Datenaustausch zwischen beiden Codes wird verifiziert und die Kopplung anhand eines Experimentes validiert. Mittels einer Demonstrationsrechnung wird belegt, dass die neue gekoppelte Methode realistischere Ergebnisse erzielt als die bisherige Methodik aufeinanderfolgender Rechnungen

    On High Performance Computing in Geodesy : Applications in Global Gravity Field Determination

    Get PDF
    Autonomously working sensor platforms deliver an increasing amount of precise data sets, which are often usable in geodetic applications. Due to the volume and quality, models determined from the data can be parameterized more complex and in more detail. To derive model parameters from these observations, the solution of a high dimensional inverse data fitting problem is often required. To solve such high dimensional adjustment problems, this thesis proposes a systematical, end-to-end use of a massive parallel implementation of the geodetic data analysis, using standard concepts of massive parallel high performance computing. It is shown how these concepts can be integrated into a typical geodetic problem, which requires the solution of a high dimensional adjustment problem. Due to the proposed parallel use of the computing and memory resources of a compute cluster it is shown, how general Gauss-Markoff models become solvable, which were only solvable by means of computationally motivated simplifications and approximations before. A basic, easy-to-use framework is developed, which is able to perform all relevant operations needed to solve a typical geodetic least squares adjustment problem. It provides the interface to the standard concepts and libraries used. Examples, including different characteristics of the adjustment problem, show how the framework is used and can be adapted for specific applications. In a computational sense rigorous solutions become possible for hundreds of thousands to millions of unknown parameters, which have to be estimated from a huge number of observations. Three special problems with different characteristics, as they arise in global gravity field recovery, are chosen and massive parallel implementations of the solution processes are derived. The first application covers global gravity field determination from real data as collected by the GOCE satellite mission (comprising 440 million highly correlated observations, 80,000 parameters). Within the second application high dimensional global gravity field models are estimated from the combination of complementary data sets via the assembly and solution of full normal equations (scenarios with 520,000 parameters, 2 TB normal equations). The third application solves a comparable problem, but uses an iterative least squares solver, allowing for a parameter space of even higher dimension (now considering scenarios with two million parameters). This thesis forms the basis for a flexible massive parallel software package, which is extendable according to further current and future research topics studied in the department. Within this thesis, the main focus lies on the computational aspects.Autonom arbeitende Sensorplattformen liefern prĂ€zise geodĂ€tisch nutzbare DatensĂ€tze in grĂ¶ĂŸer werdendem Umfang. Deren Menge und QualitĂ€t fĂŒhrt dazu, dass Modelle die aus den Beobachtungen abgeleitet werden, immer komplexer und detailreicher angesetzt werden können. Zur Bestimmung von Modellparametern aus den Beobachtungen gilt es oftmals, ein hochdimensionales inverses Problem im Sinne der Ausgleichungsrechnung zu lösen. Innerhalb dieser Arbeit soll ein Beitrag dazu geleistet werden, Methoden und Konzepte aus dem Hochleistungsrechnen in der geodĂ€tischen Datenanalyse strukturiert, durchgĂ€ngig und konsequent zu verwenden. Diese Arbeit zeigt, wie sich diese nutzen lassen, um geodĂ€tische Fragestellungen, die ein hochdimensionales Ausgleichungsproblem beinhalten, zu lösen. Durch die gemeinsame Nutzung der Rechen- und Speicherressourcen eines massiv parallelen Rechenclusters werden Gauss-Markoff Modelle lösbar, die ohne den Einsatz solcher Techniken vorher höchstens mit massiven Approximationen und Vereinfachungen lösbar waren. Ein entwickeltes GrundgerĂŒst stellt die Schnittstelle zu den massiv parallelen Standards dar, die im Rahmen einer numerischen Lösung von typischen Ausgleichungsaufgaben benötigt werden. Konkrete Anwendungen mit unterschiedlichen Charakteristiken zeigen das detaillierte Vorgehen um das GrundgerĂŒst zu verwenden und zu spezifizieren. Rechentechnisch strenge Lösungen sind so fĂŒr Hunderttausende bis Millionen von unbekannten Parametern möglich, die aus einer Vielzahl von Beobachtungen geschĂ€tzt werden. Drei spezielle Anwendungen aus dem Bereich der globalen Bestimmung des Erdschwerefeldes werden vorgestellt und die Implementierungen fĂŒr einen massiv parallelen Hochleistungsrechner abgeleitet. Die erste Anwendung beinhaltet die Bestimmung von Schwerefeldmodellen aus realen Beobachtungen der Satellitenmission GOCE (welche 440 Millionen korrelierte Beobachtungen umfasst, 80,000 Parameter). In der zweite Anwendung werden globale hochdimensionale Schwerefelder aus komplementĂ€ren Daten ĂŒber das Aufstellen und Lösen von vollen Normalgleichungen geschĂ€tzt (basierend auf Szenarien mit 520,000 Parametern, 2 TB Normalgleichungen). Die dritte Anwendung löst dasselbe Problem, jedoch ĂŒber einen iterativen Löser, wodurch der Parameterraum noch einmal deutlich höher dimensional sein kann (betrachtet werden nun Szenarien mit 2 Millionen Parametern). Die Arbeit bildet die Grundlage fĂŒr ein massiv paralleles Softwarepaket, welches schrittweise um Spezialisierungen, abhĂ€ngig von aktuellen Forschungsprojekten in der Arbeitsgruppe, erweitert werden wird. Innerhalb dieser Arbeit liegt der Fokus rein auf den rechentechnischen Aspekten

    On high performance computing in geodesy : applications in global gravity field determination

    Get PDF
    Autonomously working sensor platforms deliver an increasing amount of precise data sets, which are often usable in geodetic applications. Due to the volume and quality, models determined from the data can be parameterized more complex and in more detail. To derive model parameters from these observations, the solution of a high dimensional inverse data fitting problem is often required. To solve such high dimensional adjustment problems, this thesis proposes a systematical, end-to-end use of a massive parallel implementation of the geodetic data analysis, using standard concepts of massive parallel high performance computing. It is shown how these concepts can be integrated into a typical geodetic problem, which requires the solution of a high dimensional adjustment problem. Due to the proposed parallel use of the computing and memory resources of a compute cluster it is shown, how general Gauss-Markoff models become solvable, which were only solvable by means of computationally motivated simplifications and approximations before. A basic, easy-to-use framework is developed, which is able to perform all relevant operations needed to solve a typical geodetic least squares adjustment problem. It provides the interface to the standard concepts and libraries used. Examples, including different characteristics of the adjustment problem, show how the framework is used and can be adapted for specific applications. In a computational sense rigorous solutions become possible for hundreds of thousands to millions of unknown parameters, which have to be estimated from a huge number of observations. Three special problems with different characteristics, as they arise in global gravity field recovery, are chosen and massive parallel implementations of the solution processes are derived. The first application covers global gravity field determination from real data as collected by the GOCE satellite mission (comprising 440 million highly correlated observations, 80,000 parameters). Within the second application high dimensional global gravity field models are estimated from the combination of complementary data sets via the assembly and solution of full normal equations (scenarios with 520,000 parameters, 2 TB normal equations). The third application solves a comparable problem, but uses an iterative least squares solver, allowing for a parameter space of even higher dimension (now considering scenarios with two million parameters). This thesis forms the basis for a flexible massive parallel software package, which is extendable according to further current and future research topics studied in the department. Within this thesis, the main focus lies on the computational aspects.Autonom arbeitende Sensorplattformen liefern prĂ€zise geodĂ€tisch nutzbare DatensĂ€tze in grĂ¶ĂŸer werdendem Umfang. Deren Menge und QualitĂ€t fĂŒhrt dazu, dass Modelle die aus den Beobachtungen abgeleitet werden, immer komplexer und detailreicher angesetzt werden können. Zur Bestimmung von Modellparametern aus den Beobachtungen gilt es oftmals, ein hochdimensionales inverses Problem im Sinne der Ausgleichungsrechnung zu lösen. Innerhalb dieser Arbeit soll ein Beitrag dazu geleistet werden, Methoden und Konzepte aus dem Hochleistungsrechnen in der geodĂ€tischen Datenanalyse strukturiert, durchgĂ€ngig und konsequent zu verwenden. Diese Arbeit zeigt, wie sich diese nutzen lassen, um geodĂ€tische Fragestellungen, die ein hochdimensionales Ausgleichungsproblem beinhalten, zu lösen. Durch die gemeinsame Nutzung der Rechen- und Speicherressourcen eines massiv parallelen Rechenclusters werden Gauss-Markoff Modelle lösbar, die ohne den Einsatz solcher Techniken vorher höchstens mit massiven Approximationen und Vereinfachungen lösbar waren. Ein entwickeltes GrundgerĂŒst stellt die Schnittstelle zu den massiv parallelen Standards dar, die im Rahmen einer numerischen Lösung von typischen Ausgleichungsaufgaben benötigt werden. Konkrete Anwendungen mit unterschiedlichen Charakteristiken zeigen das detaillierte Vorgehen um das GrundgerĂŒst zu verwenden und zu spezifizieren. Rechentechnisch strenge Lösungen sind so fĂŒr Hunderttausende bis Millionen von unbekannten Parametern möglich, die aus einer Vielzahl von Beobachtungen geschĂ€tzt werden. Drei spezielle Anwendungen aus dem Bereich der globalen Bestimmung des Erdschwerefeldes werden vorgestellt und die Implementierungen fĂŒr einen massiv parallelen Hochleistungsrechner abgeleitet. Die erste Anwendung beinhaltet die Bestimmung von Schwerefeldmodellen aus realen Beobachtungen der Satellitenmission GOCE (welche 440 Millionen korrelierte Beobachtungen umfasst, 80,000 Parameter). In der zweite Anwendung werden globale hochdimensionale Schwerefelder aus komplementĂ€ren Daten ĂŒber das Aufstellen und Lösen von vollen Normalgleichungen geschĂ€tzt (basierend auf Szenarien mit 520,000 Parametern, 2 TB Normalgleichungen). Die dritte Anwendung löst dasselbe Problem, jedoch ĂŒber einen iterativen Löser, wodurch der Parameterraum noch einmal deutlich höher dimensional sein kann (betrachtet werden nun Szenarien mit 2 Millionen Parametern). Die Arbeit bildet die Grundlage fĂŒr ein massiv paralleles Softwarepaket, welches schrittweise um Spezialisierungen, abhĂ€ngig von aktuellen Forschungsprojekten in der Arbeitsgruppe, erweitert werden wird. Innerhalb dieser Arbeit liegt der Fokus rein auf den rechentechnischen Aspekten
    • 

    corecore