199 research outputs found

    Computational Methods in Science and Engineering : Proceedings of the Workshop SimLabs@KIT, November 29 - 30, 2010, Karlsruhe, Germany

    Get PDF
    In this proceedings volume we provide a compilation of article contributions equally covering applications from different research fields and ranging from capacity up to capability computing. Besides classical computing aspects such as parallelization, the focus of these proceedings is on multi-scale approaches and methods for tackling algorithm and data complexity. Also practical aspects regarding the usage of the HPC infrastructure and available tools and software at the SCC are presented

    Cray X1 Evaluation Status Report

    Full text link

    Austrian High-Performance-Computing meeting (AHPC2020)

    Get PDF
    This booklet is a collection of abstracts presented at the AHPC conference

    Software for Exascale Computing - SPPEXA 2016-2019

    Get PDF
    This open access book summarizes the research done and results obtained in the second funding phase of the Priority Program 1648 "Software for Exascale Computing" (SPPEXA) of the German Research Foundation (DFG) presented at the SPPEXA Symposium in Dresden during October 21-23, 2019. In that respect, it both represents a continuation of Vol. 113 in Springer’s series Lecture Notes in Computational Science and Engineering, the corresponding report of SPPEXA’s first funding phase, and provides an overview of SPPEXA’s contributions towards exascale computing in today's sumpercomputer technology. The individual chapters address one or more of the research directions (1) computational algorithms, (2) system software, (3) application software, (4) data management and exploration, (5) programming, and (6) software tools. The book has an interdisciplinary appeal: scholars from computational sub-fields in computer science, mathematics, physics, or engineering will find it of particular interest

    Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

    Get PDF
    The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG.Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\'uckstr\'ome im leitf\'ahigen Gewebe des Kopfes, die sog. {\em Sekund\'arstr\'ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\'osung erfordert die wiederholte Berechnung des {\em Vorw\'arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\'ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\'olkerung betroffen sind und f\'ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\'ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\'aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\'angender Zentren im Gehirn, z.B.~des prim\'ar-mo\-to\-ri\-schen, des prim\'ar-au\-di\-to\-rischen oder prim\'ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\'onnten L\'ahmungen, H\'or- und Sensibilit\'atsst\'orungen vermieden werden. Dazu werden \'uber akustische oder sensorische Reize charakteristische Signale evoziert und \'uber Summationstechniken sichtbar gemacht. Durch das L\'osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\'uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\'ange im Gehirn und die Aufdeckung der aktivierten Areale w\'ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\'osung des Vorw\'artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\'adel, die Zerebrospinalfl\'ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\'ahigkeiten besitzen. Der menschliche Sch\'adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\'ahige spongi\'ose Schicht wird von zwei stark isolierenden Schichten, den \'au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\'adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\'adel demnach eine richtungsabh\'angige oder {\em anisotrope} Leitf\'ahigkeit mit einem gemessenen Verh\'altnis von bis zu 1 zu 10. F\'ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \'ahnlichen Verh\'altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\'ahigkeit der WM nicht-invasiv in gen\'ugender Aufl\'osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\'ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \'uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\'urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\'ankte Mobilit\'at \'uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\'atze f\'ur die L\'osung des Vor\-w\'arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\'oht sich die Komplexit\'at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\'aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \'ublicherweise drei Schichten, die die Kopfhaut, den Sch\'adel und das Gehirn repr\'asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\'achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\'ur isotrop leitf\'ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\'aten eingehen zu k\'onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\'ahigkeits-Anisotropien n\'otig und in welchen F\'allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\'onnen komplexe FE-Vorw\'artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\'ur inverse Quellrekonstruktionen in den Anwendungen zu gen\'ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \'Offnungen im Sch\'adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\'aten wie L\'asionen im Gehirn oder die Sutura des Sch\'adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\'assigbaren Einfluss auf das EEG/MEG-Vorw\'arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\'at zweier ausgew\'ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\'adel-Anisotropie nach. Insbesondere f\'ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\'at auf Sch\'adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\'assigbaren Einfluss auf die EEG/MEG-Vorw\'artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\'osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\'onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\'atz\-liche Annahmen \'uber die Quellen sind dementsprechend unerl\'asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\'arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\'oglichst genau erkl\'art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\'osung nimmt und die Algorithmen stabil in Bezug auf eine \'Ubersch\'atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\'onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\'o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\'a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \'uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\'a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\'ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\'adelkante \'uber ein Gl\'atten und Aufblasen der segmentierten Hirnoberfl\'ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\'atzte. \'Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\'ucksichtigung der MR-Inhomogenit\'aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\'adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\'attete Spongiosaoberfl\'ache darstellt und somit ein Abgreifen der Leitf\'ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\'oglicht. Die Eigenvektoren der WM-Tensoren wurden \'uber Ganzkopf-DT-MRT gemessen. Sch\'adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\'a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\'oste FE-Modellierung} des EEG/ MEG-Vorw\'artsproblems. Zun\'achst wurde ein \'Uberblick \'uber die Theorie gegeben und die praktische Realisierung der sp\'ater eingesetzten hochaufgel\'osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\'utzpunkte zur Gl\'attung an Gewebekanten nutzen, vorteilhaft sind zu herk\'ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\'ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\'osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\'osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\'oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\'ur das Verfahren der konjugierten Gradienten konnte f\'ur hochaufgel\'oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \'Uber\-blick \'uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\'asentiert. Es wurde zun\'achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\'uhrt. F\'ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\'arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\'ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\'urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\'uber einem sog. {\em Kal\-man-Gl\'atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\'at} durchgef\'uhrt. Der erste Teil bezog sich dabei auf das Vorw\'arts\-problem, wo die Resultate im Einklang mit der verf\'ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\'adelanisotropie einen nicht-vernachl\'assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\'o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\'ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\'ahigkeits\'anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\'usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\'achlich tangential orientierten oberfl\'achennahen Quelle besonders sensitiv gegen\'uber einer 1 zu 10 Sch\'adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\'adel re\-la\-tiv d\'unn) zu tief und im parietalen und okzipitalen Bereich (Sch\'adel relativ dick) zu oberfl\'achennah lokalisiert wurden, scheint eine Approximation der Sch\'adelanisotropie in BE-Modellen \'uber eine Anpassung des skalaren Sch\'adelleitf\'ahigkeitswertes nicht m\'oglich zu sein. Obwohl bei Vernachl\'assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\'ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24^{\circ} und einer mehr als zweifach untersch\'atzten Quellst\'arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\'ur die Rekonstruktion der vier tangentialen oberfl\'achennahen Dipole, welche als Aktivit\'atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\'adel\-anisotropie als vernachl\'assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\'ur alle getesteten inversen Verfahren stark verf\'alscht. Anisotropie verschob das Aktivit\'ats\-zentrum von L1L_1 und L2L_2 Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung

    Concrete resource analysis of the quantum linear system algorithm used to compute the electromagnetic scattering cross section of a 2D target

    Get PDF
    We provide a detailed estimate for the logical resource requirements of the quantum linear system algorithm (QLSA) [Phys. Rev. Lett. 103, 150502 (2009)] including the recently described elaborations [Phys. Rev. Lett. 110, 250504 (2013)]. Our resource estimates are based on the standard quantum-circuit model of quantum computation; they comprise circuit width, circuit depth, the number of qubits and ancilla qubits employed, and the overall number of elementary quantum gate operations as well as more specific gate counts for each elementary fault-tolerant gate from the standard set {X, Y, Z, H, S, T, CNOT}. To perform these estimates, we used an approach that combines manual analysis with automated estimates generated via the Quipper quantum programming language and compiler. Our estimates pertain to the example problem size N=332,020,680 beyond which, according to a crude big-O complexity comparison, QLSA is expected to run faster than the best known classical linear-system solving algorithm. For this problem size, a desired calculation accuracy 0.01 requires an approximate circuit width 340 and circuit depth of order 102510^{25} if oracle costs are excluded, and a circuit width and depth of order 10810^8 and 102910^{29}, respectively, if oracle costs are included, indicating that the commonly ignored oracle resources are considerable. In addition to providing detailed logical resource estimates, it is also the purpose of this paper to demonstrate explicitly how these impressively large numbers arise with an actual circuit implementation of a quantum algorithm. While our estimates may prove to be conservative as more efficient advanced quantum-computation techniques are developed, they nevertheless provide a valid baseline for research targeting a reduction of the resource requirements, implying that a reduction by many orders of magnitude is necessary for the algorithm to become practical.Comment: 37 pages, 40 figure

    Density-Aware Linear Algebra in a Column-Oriented In-Memory Database System

    Get PDF
    Linear algebra operations appear in nearly every application in advanced analytics, machine learning, and of various science domains. Until today, many data analysts and scientists tend to use statistics software packages or hand-crafted solutions for their analysis. In the era of data deluge, however, the external statistics packages and custom analysis programs that often run on single-workstations are incapable to keep up with the vast increase in data volume and size. In particular, there is an increasing demand of scientists for large scale data manipulation, orchestration, and advanced data management capabilities. These are among the key features of a mature relational database management system (DBMS). With the rise of main memory database systems, it now has become feasible to also consider applications that built up on linear algebra. This thesis presents a deep integration of linear algebra functionality into an in-memory column-oriented database system. In particular, this work shows that it has become feasible to execute linear algebra queries on large data sets directly in a DBMS-integrated engine (LAPEG), without the need of transferring data and being restricted by hard disc latencies. From various application examples that are cited in this work, we deduce a number of requirements that are relevant for a database system that includes linear algebra functionality. Beside the deep integration of matrices and numerical algorithms, these include optimization of expressions, transparent matrix handling, scalability and data-parallelism, and data manipulation capabilities. These requirements are addressed by our linear algebra engine. In particular, the core contributions of this thesis are: firstly, we show that the columnar storage layer of an in-memory DBMS yields an easy adoption of efficient sparse matrix data types and algorithms. Furthermore, we show that the execution of linear algebra expressions significantly benefits from different techniques that are inspired from database technology. In a novel way, we implemented several of these optimization strategies in LAPEG’s optimizer (SpMachO), which uses an advanced density estimation method (SpProdest) to predict the matrix density of intermediate results. Moreover, we present an adaptive matrix data type AT Matrix to obviate the need of scientists for selecting appropriate matrix representations. The tiled substructure of AT Matrix is exploited by our matrix multiplication to saturate the different sockets of a multicore main-memory platform, reaching up to a speed-up of 6x compared to alternative approaches. Finally, a major part of this thesis is devoted to the topic of data manipulation; where we propose a matrix manipulation API and present different mutable matrix types to enable fast insertions and deletes. We finally conclude that our linear algebra engine is well-suited to process dynamic, large matrix workloads in an optimized way. In particular, the DBMS-integrated LAPEG is filling the linear algebra gap, and makes columnar in-memory DBMS attractive as efficient, scalable ad-hoc analysis platform for scientists

    Simulation of patch and slot antennas using FEM with prismatic elements and investigations of artificial absorber mesh termination schemes

    Get PDF
    Year 1 progress can be characterized with four major achievements which are crucial toward the development of robust, easy to use antenna analysis code on doubly conformal platforms. (1) A new FEM code was developed using prismatic meshes. This code is based on a new edge based distorted prism and is particularly attractive for growing meshes associated with printed slot and patch antennas on doubly conformal platforms. It is anticipated that this technology will lead to interactive, simple to use codes for a large class of antenna geometries. Moreover, the codes can be expanded to include modeling of the circuit characteristics. An attached report describes the theory and validation of the new prismatic code using reference calculations and measured data collected at the NASA Langley facilities. The agreement between the measured and calculated data is impressive even for the coated patch configuration. (2) A scheme was developed for improved feed modeling in the context of FEM. A new approach based on the voltage continuity condition was devised and successfully tested in modeling coax cables and aperture fed antennas. An important aspect of this new feed modeling approach is the ability to completely separate the feed and antenna mesh regions. In this manner, different elements can be used in each of the regions leading to substantially improved accuracy and meshing simplicity. (3) A most important development this year has been the introduction of the perfectly matched interface (PMI) layer for truncating finite element meshes. So far the robust boundary integral method has been used for truncating the finite element meshes. However, this approach is not suitable for antennas on nonplanar platforms. The PMI layer is a lossy anisotropic absorber with zero reflection at its interface. (4) We were able to interface our antenna code FEMA_CYL (for antennas on cylindrical platforms) with a standard high frequency code. This interface was achieved by first generating equivalent magnetic currents across the antenna aperture using the FEM code. These currents were employed as the sources in the high frequency code

    Massively parallel solvers for elliptic partial differential equations in numerical weather and climate prediction:scalability of elliptic solvers in NWP

    Get PDF
    The demand for substantial increases in the spatial resolution of global weather- and climate- prediction models makes it necessary to use numerically efficient and highly scalable algorithms to solve the equations of large scale atmospheric fluid dynamics. For stability and efficiency reasons several of the operational forecasting centres, in particular the Met Office and the ECMWF in the UK, use semi-implicit semi-Lagrangian time stepping in the dynamical core of the model. The additional burden with this approach is that a three dimensional elliptic partial differential equation (PDE) for the pressure correction has to be solved at every model time step and this often constitutes a significant proportion of the time spent in the dynamical core. To run within tight operational time scales the solver has to be parallelised and there seems to be a (perceived) misconception that elliptic solvers do not scale to large processor counts and hence implicit time stepping can not be used in very high resolution global models. After reviewing several methods for solving the elliptic PDE for the pressure correction and their application in atmospheric models we demonstrate the performance and very good scalability of Krylov subspace solvers and multigrid algorithms for a representative model equation with more than 101010^{10} unknowns on 65536 cores on HECToR, the UK's national supercomputer. For this we tested and optimised solvers from two existing numerical libraries (DUNE and hypre) and implemented both a Conjugate Gradient solver and a geometric multigrid algorithm based on a tensor-product approach which exploits the strong vertical anisotropy of the discretised equation. We study both weak and strong scalability and compare the absolute solution times for all methods; in contrast to one-level methods the multigrid solver is robust with respect to parameter variations.Comment: 24 pages, 7 figures, 7 table

    Practical recipes for the model order reduction, dynamical simulation, and compressive sampling of large-scale open quantum systems

    Full text link
    This article presents numerical recipes for simulating high-temperature and non-equilibrium quantum spin systems that are continuously measured and controlled. The notion of a spin system is broadly conceived, in order to encompass macroscopic test masses as the limiting case of large-j spins. The simulation technique has three stages: first the deliberate introduction of noise into the simulation, then the conversion of that noise into an equivalent continuous measurement and control process, and finally, projection of the trajectory onto a state-space manifold having reduced dimensionality and possessing a Kahler potential of multi-linear form. The resulting simulation formalism is used to construct a positive P-representation for the thermal density matrix. Single-spin detection by magnetic resonance force microscopy (MRFM) is simulated, and the data statistics are shown to be those of a random telegraph signal with additive white noise. Larger-scale spin-dust models are simulated, having no spatial symmetry and no spatial ordering; the high-fidelity projection of numerically computed quantum trajectories onto low-dimensionality Kahler state-space manifolds is demonstrated. The reconstruction of quantum trajectories from sparse random projections is demonstrated, the onset of Donoho-Stodden breakdown at the Candes-Tao sparsity limit is observed, a deterministic construction for sampling matrices is given, and methods for quantum state optimization by Dantzig selection are given.Comment: 104 pages, 13 figures, 2 table
    corecore