18 research outputs found

    Outlier detection in performance data of parallel applications

    Full text link
    Abstract — When an adaptive software component is employed to select the best-performing implementation for a communica-tion operation at runtime, the correctness of the decision taken strongly depends on detecting and removing outliers in the data used for the comparison. This automatic decision is greatly complicated by the fact that the types and quantities of outliers depend on the network interconnect and the nodes assigned to the job by the batch scheduler. This paper evaluates four different statistical methods used for handling outliers, namely a standard interquartile range method, a heuristic derived from the trimmed mean value, cluster analysis and a method using robust statistics. Using performance data from the Abstract Data and Communication Library (ADCL) we evaluate the correctness of the decisions made with each statistical approach over three fundamentally different network interconnects, namely a highly reliable InfiniBand network, a Gigabit Ethernet network having a larger variance in the performance, and a hierarchical Gigabit Ethernet network

    Accurate classification of secondary progression in multiple sclerosis using a decision tree

    Get PDF
    BACKGROUND: The absence of reliable imaging or biological markers of phenotype transition in multiple sclerosis (MS) makes assignment of current phenotype status difficult. OBJECTIVE: The authors sought to determine whether clinical information can be used to accurately assign current disease phenotypes. METHODS: Data from the clinical visits of 14,387 MS patients in Sweden were collected. Classifying algorithms based on several demographic and clinical factors were examined. Results obtained from the best classifier when predicting neurologist recorded disease classification were replicated in an independent cohort from British Columbia and were compared to a previously published algorithm and clinical judgment of three neurologists. RESULTS: A decision tree (the classifier) containing only most recently available expanded disability scale status score and age obtained 89.3% (95% confidence intervals (CIs): 88.8-89.8) classification accuracy, defined as concordance with the latest reported status. Validation in the independent cohort resulted in 82.0% (95% CI: 81.0-83.1) accuracy. A previously published classification algorithm with slight modifications achieved 77.8% (95% CI: 77.1-78.4) accuracy. With complete patient history of 100 patients, three neurologists obtained 84.3% accuracy compared with 85% for the classifier using the same data. CONCLUSION: The classifier can be used to standardize definitions of disease phenotype across different cohorts. Clinically, this model could assist neurologists by providing additional information

    Experimental multi-level seismic performance assessment of 3D RC frame designed for damage avoidance

    Get PDF
    This paper experimentally investigates the application of damage avoidance design (DAD) philosophy to moment-resisting frames with particular emphasis on detailing of rocking interfaces. An 80% scale three-dimensional rocking beam-column joint sub-assembly designed and detailed based on damage avoidance principles is constructed and tested. Incremental dynamic analysis is used for selecting ground motion records to be applied to the sub-assembly for conducting a multi-level seismic performance assessment (MSPA). Analyses are conducted to obtain displacement demands due to the selected near- and medium-field ground motions that represent different levels of seismic hazard. Thus, predicted displacement time histories are applied to the sub-assembly for conducting quasi-earthquake displacement tests. The sub-assembly performed well reaching drifts up to 4.7% with only minor spalling occurring at rocking beam interfaces and minor flexural cracks in beams. Yielding of post-tensioning threaded bars occurred, but the sub-assembly did not collapse. The externally attached energy dissipators provided large hysteretic dissipation during large drift cycles. The sub-assembly satisfied all three seismic performance requirements, thereby verifying the superior performance of the DAD philosoph

    Adaptive parallele Kommunikation für groß-skalige Berechnungen in der Strömungsmechanik

    No full text
    Nowadays, simulation methods in engineering are recognized as equally important as the traditional fields of theory and experiment. They reduce or replace expensive experiments and allow simulations of physical processes which are impossible to investigate otherwise. Because of their complexity, parallel computations are necessary, commonly using the Message Passing Interface (MPI) in distributed memory environments. One of the main obstacles end-users are facing when performing large-scale computations is the choice between performance and portability. The performance of MPI communications depends on various factors such as network interconnect, MPI implementation, process placement and message sizes. The complexity of the MPI standard exceeds the average end-user's knowledge. A possible solution are empirical optimization libraries which offer a rich set of codelets, i.e. implementations, for a particular problem as well as methods to detect the best-performing one. This allows for tuning applications at install- or runtime without special knowledge or intervention of the end-user. In this work, two large-scale Computational Fluid Dynamics (CFD) applications are optimized using the empirical auto-tuning library ADCL, the finite-volume code Euler3D and a Fast Fourier Transforms benchmark as kernel of spectral CFD methods. For this, ADCL is extended beyond neighborhood communication patterns to allow tuning of collective communications. It is shown that ADCL can shorten runtimes more than 30\% for the chosen test cases. As empirical optimization libraries base their choice of the best-performing codelet on empirical data, this work also investigates two fundamental problems that are associated with collecting this data and its evaluation. Firstly, the empirical data is obtained by measuring the execution times of various codelets where the measurement method greatly influences its informational value. Secondly, the evaluation of the data is encumbered by unpredictable variations in execution time which frequently occur in a parallel setting resulting in data points which differ greatly from the observed average, so-called outliers. In this thesis, recommendations are given on how runtime tuning in a parallel environment needs to be carried out to get optimal results. Based on the results presented in this work, the library ADCL now possesses the means to tune MPI communications in most application scenarios and uses a sound empirical framework to choose the best-performing codelet in MPI parallel simulations. Optimization of collectives as well as code which overlaps communication and computation is now possible. This makes the performance of MPI communications portable, i.e. the communications perform well on different machines without spending anew time on optimizations, and together with the easy use of the library, reduces the complexity for the user.In den Ingenieurwissenschaften wird heutzutage Simulationsmethoden die gleiche Bedeutung zugemessen wie den herkömmlichen Bereichen Theorie und Experiment. Sie reduzieren oder ersetzen teuere Experimente und erlauben Computersimulationen physikalischer Prozesse, die sonst nicht untersuchbar wären. Wegen ihrer Komplexität sind parallele Berechnungen notwendig, die normalerweise auf Systemen mit verteiltem Speicher unter Verwendung von Message Passing Interface (MPI) ausgeführt werden. Eines der Hauptprobleme, dem die Benutzer begegnen, wenn sie großskalige Berechnungen durchführen, ist die Wahl zwischen schneller Ausführung und Portabilität. Die Eigenschaften der MPI Kommunikationen hängen von verschiedenen Faktoren ab, beispielsweise vom Netzwerktyp, der MPI Implementierung, auf welchen Knoten die Berechnung ausgeführt wird oder den Nachrichtenlängen. Die Komplexität des MPI Standards ist größer als das Wissen eines durchschnittlichen Benutzers. Eine mögliche Lösung sind empirische Optimierungsbibliotheken, die eine große Anzahl an möglichen Implementierungen, sogenannten Codelets, für ein spezielles Problem zur Verfügung stellen sowie Methoden um das Beste darunter auszuwählen. Dies erlaubt es, Anwendungen zur Installations- oder Laufzeit zu optimieren ohne dass besondere Kenntnisse oder ein Eingreifen des Benutzers notwendig sind. In dieser Arbeit wird die empirische Optimierungsbibliothek ADCL verwendet, um zwei großskalige Strömungssimulationen zu optimieren, den Finite-Volumen-Code Euler3D und eine Schnelle Fourier-Transformation (FFT), die den Kernel spektraler Strömungssimulationsmethoden bildet. Dafür wird ADCL erweitert, so dass nicht mehr nur Nachbarschaftskommunikationen sondern auch kollektive Kommunikationen optimiert werden können. Es wird gezeigt, dass ADCL die Laufzeit der Simulationen für die gewählten Beispiele um bis zu 30% verkürzt. Da empirische Optimierungsbibiliotheken die Wahl des schnellsten Codelets basierend auf den empirischen Daten treffen, untersucht diese Arbeit auch zwei grundsätzliche Probleme, die mit der Erzeugung und dem Auswerten der Daten in Verbindung stehen. Erstens werden die empirischen Daten gewonnen, indem die Ausführungszeiten der verschiedenen Codelets bestimmt werden. Dabei beeinflusst die Methode, wie gemessen wird, zu einem großen Maß den Informationsgehalt der Daten. Zweitens wird die Auswertung der Daten durch unvorhersehbare Einflüsse auf die Ausführungszeit erschwert. Diese Phänomene treten oft in parallelen Anwendungen auf und bewirken, dass Datenpunkte, sogenannte Ausreisser, sehr von dem beobachteten Durchschnitt abweichen. In dieser Dissertation werden Empfehlungen gegeben wie Optimierungen zur Laufzeit in einer parallelen Umgebung ausgeführt werden sollten um optimale Resultate zu erzielen. Basierend auf den Ergebnissen dieser Arbeit verfügt die Bibliothek ADCL jetzt über die Mittel, MPI Kommunikationen in den meisten Anwendungsszenarien zu optimieren und besitzt ein solides empirisches Rahmenwerk, um das schnellste Codelet in MPI parallelen Simulationen auszuwählen. Die Optimierung von kollektiven MPI Operationen sowie Programmcode, bei dem sich Kommunikation und Berechnung überlappen, ist jetzt möglich. Dies macht die Performance von MPI Kommunikationen portabel, d.h. die Kommunikationen sind auf unterschiedlichen Maschinen schnell ohne dass man erneut Zeit für Optimierungen aufwenden müsste. Dies reduziert zusammen mit der einfachen Benutzung der Bibliothek die Komplexität für den Benutzer erheblich

    Effiziente FE-Approximation bei komplizierten Geometrien durch Materialfunktionen

    Get PDF
    Kurbelwellen verfügen über konstruktive Besonderheiten - wie Versteifungen an den Hauptlagern zur Verbesserung der Steifigkeit oder Auskerbungen an den Kurbelwangen zur Reduzierung der rotierenden Massen -, deren Dimensionen, verglichen mit der Kurbelwelle selbst, sehr klein sind. Um Steifigkeitsberechnungen mit der Finite-Elemente-Methode durchführen zu können, muss die Geometrie adäquat vernetzt werden, was bei komplizierten Geometrien nur durch ein feines Startnetz erreicht werden kann. Da dessen Konstruktion aufwendig und die Verwendung nachteilig ist, werden Ersatz-Deformationsprobleme über geometrisch einfacheren Gebieten mit ortsabhängigen Materialparametern definiert, die mit Hilfe von Materialfunktionen modelliert werden. Nach einer theoretischen Darstellung werden verschiedene Materialfunktionen definiert und ihre Eigenschaften anhand von numerischen Experimenten miteinander verglichen

    High performance computing on vector systems

    No full text
    Presents the developments in high-performance computing and simulation on modern supercomputer architectures. This book covers trends in hardware and software development in general and specifically the vector-based systems and heterogeneous architectures. It presents innovative fields like coupled multi-physics or multi-scale simulations

    Atomistic Simulations on Scalar and Vector Computers

    No full text
    Large scale atomistic simulations are feasible only with classical effective potentials. Nevertheless, even for classical simulations some ab-initio computations are often necessary, e.g. for the development of potentials or the validation of the results. Ab-initio and classical simulations use rather different algorithms and make different requirements on the computer hardware. We present performance comparisons for the DFT code VASP and our classical molecular dynamics code IMD on different computer architectures, including both clusters of microprocessors and vector computers. VASP performs excellently on vector machines, whereas IMD is better suited for large clusters of microprocessors. We also report on our efforts to make IMD perform well even on vector machines

    Reducing Turn-around Times for Supernova Simulations

    No full text

    High Performance Computing Center Stuttgart

    No full text
    corecore