26 research outputs found
On the Super-computational Background of the Research Centre Jülich
KFA Jülich is one of the largest big-science research centres in Europe; its scientific and engineering activities are ranging from fundamental research to applied science and technology. KFA's Central Institute for Applied Mathematics (ZAM) is running the large-scale computing facilities and network systems at KFA and is providing communication services, general-purpose and supercomputer capacity also for the HLRZ ("Höchstleistungsrechenzentrum") established in 1987 in order to further enhance and promote computational science in Germany. Thus, at KFA - and in particular enforced by ZAM - supercomputing has received high priority since more than ten years. What particle accelerators mean to experimental physics, supercomputers mean to Computational Science and Engineering: Supercomputers are the accelerators of theory
On the Value of Diversity: An Insider's View of High-Performance Computing
KFA is one of the largest big-science research centers in Europe. Its scientific and engineering activities are ranging from fundamental research to applied science technology. KFA's Central Institute for Applied Mathematics (ZAM) is running the large-scale computing facilities, central servers, and network systems at KFA. ZAM is also providing supercomputer capacity to the scientific community all over Germany; this broad service has been a novelty in 1987 when a new user meta-structure named HLRZ (Höchstleistungsrechenzentrum) has been established in order to further promote computational science and engineering in Germany. In 1996, ZAM's facilities are upgraded, in addition to a 16-node IBM SP2 and a 140-node Intel Paragon, by a heterogeneous new supercomputer complex consisting of CRAY J90 (20 CPUs) T90 (12 CPUs), and T3E (512 processors). Based on the recent recommendations of the German Science Council, also several large university computing centers are preparing the necessary steps to reenforce the apex of the structural pyramid of modern scientific computing.While the successes of the past two decades in scientific supercomputing have been achieved essentially by the technical breakthrough of the vector-supercomputers, the future of supercomputing is focussed on massively parallel computers. Besides system architecture, node performance, and interconnection topology, important issues are genuine parallel algorithms, programming tools, and programming models. Message Passing on parallel computers with distributed memory is the only efficient programming paradigm available today; from a user's point of view, however, rather the concept of shared virtual memory will be capable to serve as the effective basis in order to bring computing on massively parallel systems from just a computer science toy to the technological breakthough.Since large applications, in general, are algorithmically heterogeneous, they will probably benefit best from the diversity of computer structures if these are cooperating and combined via high speed links to heterogeneous supercomputing ensembles
On "Retarded Potentials" in High-Performance Scientific Computing
What particle accelerators mean to experimental physics, supercomputers mean to Computational Science and Engeneering: Supercomputers are the accelerators of theory! Due to the high investments involved and challenged by the beneficial development of powerful workstation technology, the rationale of dinosaur vector-supercomputers is questioned while promises of near-by teraflops-sustaining massively parallel computers break in these days. Hence, and due to the inherent complexity of parallel computing, Computational Science and Engineering is suffering from severe retardations of efficient computer solutions; this is particularly painful because the analytical mathematical methods suffer from huge barriers to progress as well. Real-world supercomputing testifies, however, that the inherent variability of complex problems requires a non-uniform arsenal of powerful computing instruments suggesting to integrate complementary architectures into heterogenous (meta)computers
Wissenschaftliches Rechnen - Motor der Rechnerentwicklung
Physik, Chemie, Biologie, Ökologie und Umweltforschung, Technik und Wirtschaftswissenschaften wie auch andere Bereiche außerhalb der exakten Naturwissenschaften werden mit Phänomenen der Dynamik komplexer nichtlinearer Systeme konfrontiert, deren Problembarrieren mit den heute verfügbaren theoretisch-analytischen Methoden und dem Wissen über das Verhalten und die Behandlung linearer Systeme nicht überwunden werden können. Die Untersuchung und Bewertung komplexer nichtlinearer Systeme ist deshalb darauf angewiesen, durch Ausschöpfen der Möglichkeiten der mathematischen Modellierung und der Computersimulation und den Ausbau ihrer Methoden erst das Gerüst an Wissen und Kenntnissen zu schaffen.Diese Wechselbeziehung hat in der jüngsten Zeit zur Entwicklung einer dritten Kategorie wissenschaftlichen und technischen Forschens geführt: "Computational Science", die Theorie und Experiment qualitativ und methodisch - einer experimentellen Disziplin vergleichbar - ergänzt. Computational Science ist synonym mit der Untersuchung komplexer Systeme, ihr Instrument ist der (Super)Computer, ihre Methode die Simulation.Computational Science läßt sich nur schwer mit dem deutschen Begriff des wissenschaftlichen Rechnens einfangen; sie zielt vielmehr auf die großen ungelösten wissenschaftlichen und auch technischen Probleme, die in ihrer Wichtigkeit und Tiefe nicht nur die betreffende wissenschaftliche Disziplin herausfordern, sondern von außerordentlicher Bedeutung und Auswirkung für die Gesellschaft sind
Supercomputer - Instrument und Gegenstand der Forschung
Der Artikel gibt einen Überblick über die Supercomputer-orientierten Forschungs- und Entwicklungsarbeiten des Zentralinstituts für Angewandte Mathematik. Dabei werden neben den gegenwärtigen Aktivitäten auch die Ergebnisse der vergangenen Jahre dargestellt. Im einzelnen wird über die Arbeiten in den Bereichen Parallele Algorithmen auf CRAY-Supercomputern, Algorithmen für Parallelrechner mit verteiltem Speicher, Werkzeugentwicklung für Vektor- und Parallelrechner sowie Performance-Analyse und Anwendungsoptimierung berichtet
Der systematische Fehler von Intensitaetsmessungen infolge kontinuierlicher Registrierung
The systematic error in measurements of intensity distributions due to continuous recording by electronic integrating units is quantitatively described by an integral equation. lt is shown that for an experimentally stated exponential form of the kernel function there is an analytical solution of the integral equation, which is used to derive the true intensity distributions from deformed X-ray lineprofiles of a quartz powder. The effect of the systematic error on the moments of intensity distributions and on the deconvolutionprocess of X-ray line profiles broadened by crystallite size or lattice deformation effect is studied
Computer, Komplexität und Berechenbarkeit
Computer sind erstaunliche Maschinen: Sie liefern mathematische Lösungen, schalten weltweite Kommunikation, steuern Kraftwerke, leiten Flugzeuge, fliegen Raumschiffe; sie schlagen Schachgroßmeister, bauen virtuelle Welten und schaffen musikalische Räume gleichwohl. Die Ubiquität suggeriert Omnipotenz!In der Tat steigern Technologie, Informatik und Mathematik die Computerleistung in exponentielle Höhen - die TeraFlops (Billion Gleitkommaoperationen pro Sekunde) werden gerade von Parallelrechnern markiert -, so daß die Computersimulation neben Theorie und Experiment zur dritten Säule wissenschaftlichen Forschens heranwächst. Und eine Grenze dieser technischen Entwicklung ist nicht in Sicht.Doch existieren fundamentale Grenzen: Schon als Entwurf und Wirklichkeit des Computers noch fern waren, lieferten abstrakte Maschinenmodelle und Konzepte der Berechenbarkeit darin tiefe Einsichten. Daraus aber erneuert sich das moderne Rüstzeug der Algorithmen zur Behandlung von Komplexität
“Grand Challenges” - wie weit tragen die Antworten des Supercomputing?
Physik, Chemie, Biologie, Ökologie und Umweltforschung, Technik und Wirtschaftswissenschaften wie auch andere Bereiche außerhalb der exakten Naturwissenschaften werden mit Phänomenen der Dynamik komplexer nichtlinearer Systeme konfrontiert, deren Problembarrieren mit den heute verfügbaren theoretisch-analytischen Methoden und dem Wissen über das Verhalten und die Behandlung linearer Systeme nicht überwunden werden können. Die Untersuchung und Bewertung komplexer nichtlinearer Systeme ist deshalb darauf angewiesen, durch Ausschöpfen der Möglichkeiten der mathematischen Modellierung und der Computersimulation und den Ausbau ihrer Methoden erst das Gerüst an Wissen und Kenntnissen zu schaffen. Die Komplexität vieler Systeme (d.h. die Zahl der Freiheitsgrade, die Dimensionalität, vor allem die topologische un dynamische Struktur) überschreitet bei weitem das Potential konventioneller Verfahren und Rechenanlagen [1]. Diese Situation hat die Entwicklung einer dritten wissenschaftsmethodischen Kategorie erzwungen: die “Computational Science”, die Theorie und Experiment qualitativ und methodisch (einer experimentellen Disziplin vergleichbar) ergänzt