51 research outputs found

    Hochgradiger Parallelismus

    Get PDF

    Sprachen für parallele objektorientierte Programmierung

    Get PDF
    In letzter Zeit wurden eine ganze Reihe von objektorientierten Sprachen zur parallelen Programmierung entworfen und implementiert. Einige dieser Sprachen werden hier einander gegenübergestellt. Das Hauptaugenmerk der Arbeit liegt einerseits auf den bereitgestellten Konzepten zur Bewältigung der Komplexität, die sich durch die Parallelisierung ergibt, und andererseits auf der Flexibilisierung von Synchronisation und Kommunikation zur Optimierung der Parallelisierbarkeit von Programmausführungen

    Performance-Analyse paralleler Programme: Die PARvis-Visualisierungsumgebung

    Get PDF
    PARvis ist eine Visualisierungsumgebung, die eine gegebene Trace-Datei in eine Reihe verschiedener graphischer Darstellungen, z.B. Momentaufnahmen, Statistiken oder auch Zeitachsendarstellungen, transferiert. Dies erleichtert die Programmoptimierung, wodurch der Entwicklungszyklus auf massiv-parallelen Rechnersystemen deutlich verkürzt wird. PARvis unterstützt die gängigen Programmiermodelle (physikalisch/virtuell gemeinsamer Speicher, Message-Passing) und ist auf einer breiten Palette von Workstations ablauffähig

    Datenparallele algorithmische Skelette:Erweiterungen und Anwendungen der Münster Skelettbibliothek Muesli

    Full text link
    Die Arbeit thematisiert den datenparallelen Bestandteil der Münster Skelettbibliothek Muesli und beschreibt neben einer Reihe implementierter Erweiterungen auch mit Muesli parallelisierte Anwendungen. Eine der wichtigsten Neuerungen ist die Unterstützung von Mehrkernprozessoren durch die Verwendung von OpenMP, infolgedessen mit Muesli entwickelte Programme auch auf Parallelrechnern mit hybrider Speicherarchitektur skalieren. Eine zusätzliche Erweiterung stellt die Neuentwicklung einer verteilten Datenstruktur für dünnbesetzte Matrizen dar. Letztere implementiert ein flexibles Designkonzept, was die Verwendung benutzerdefinierter Kompressions- sowie Lastverteilungsmechanismen ermöglicht. Darüber hinaus werden mit dem LM OSEM-Algorithmus und den ART 2-Netzen zwei Anwendungen vorgestellt, die mit Muesli parallelisiert wurden. Neben einer Beschreibung der Funktionsweise sowie der Eigenschaften und Konzepte von MPI und OpenMP wird darüber hinaus der aktuelle Forschungsstand skizziert. <br/

    Parallele Algorithmen für H-Matrizen

    Get PDF
    Hierarchische Matrizen, oder kurz H-Matrizen genannt, ermöglichen die effiziente Darstellung von diskreten Operatoren wie sie bei partiellen Differential- und Integralgleichungen auftreten. Desweiteren gestatten sie die Verwendung der gesamten Matrixalgebra, etwa Matrix-Multiplikation und -Inversion, mit linear-logarithmischem Aufwand, wodurch sich z.B. sehr schnelle Lösungsverfahren für die erwähnten Gleichungen ergeben. In dieser Arbeit werden parallele Algorithmen für die H-Matrix-Algebra vorgestellt. Um effiziente Verfahren für ein breites Spektrum an Parallelrechnern zu erhalten, werden dabei sowohl Architekturen mit gemeinsamem, als auch geteiltem Speicher betrachtet. In diesem Zusammenhang ist die Wahl einer geeigneten Lastbalancierungsmethode wesentlich für die parallele Skalierbarkeit des Algorithmus, weshalb verschiedenste Verteilungsstrategien untersucht und entsprechend modifiziert werden. Daneben wird eine angepasste Speicherverwaltung vorgestellt, die essentiell für die parallele Geschwindigkeit der Verfahren ist

    Architektur vernetzter Systeme. Seminar SS 1996 & WS 1996/97

    Get PDF
    Der vorliegende Interne Bericht enthält die Beiträge von Studenten zum Seminar "Architektur vernetzter Systeme", das im Sommersemester 1996 und im Wintersemester 1996/97 am Institut für Telematik der Universität Karlsruhe stattgefunden hat. Themen waren dabei Replikationsverfahren im Mobilumfeld sowie Dienste und Konzepte in verteilten Systemen als auch alternative Ansätze wie Memory-Consictency-Modelle
    corecore