51 research outputs found
Sprachen für parallele objektorientierte Programmierung
In letzter Zeit wurden eine ganze Reihe von objektorientierten Sprachen zur
parallelen Programmierung entworfen und implementiert. Einige dieser Sprachen
werden hier einander gegenübergestellt. Das Hauptaugenmerk der Arbeit liegt
einerseits auf den bereitgestellten Konzepten zur Bewältigung der Komplexität,
die sich durch die Parallelisierung ergibt, und andererseits auf der
Flexibilisierung von Synchronisation und Kommunikation zur Optimierung der
Parallelisierbarkeit von Programmausführungen
Performance-Analyse paralleler Programme: Die PARvis-Visualisierungsumgebung
PARvis ist eine Visualisierungsumgebung, die eine gegebene Trace-Datei in eine Reihe verschiedener graphischer Darstellungen, z.B. Momentaufnahmen, Statistiken oder auch Zeitachsendarstellungen, transferiert. Dies erleichtert die Programmoptimierung, wodurch der Entwicklungszyklus auf massiv-parallelen Rechnersystemen deutlich verkürzt wird. PARvis unterstützt die gängigen Programmiermodelle (physikalisch/virtuell gemeinsamer Speicher, Message-Passing) und ist auf einer breiten Palette von Workstations ablauffähig
Datenparallele algorithmische Skelette:Erweiterungen und Anwendungen der Münster Skelettbibliothek Muesli
Die Arbeit thematisiert den datenparallelen Bestandteil der Münster Skelettbibliothek Muesli und beschreibt neben einer Reihe implementierter Erweiterungen auch mit Muesli parallelisierte Anwendungen. Eine der wichtigsten Neuerungen ist die Unterstützung von Mehrkernprozessoren durch die Verwendung von OpenMP, infolgedessen mit Muesli entwickelte Programme auch auf Parallelrechnern mit hybrider Speicherarchitektur skalieren. Eine zusätzliche Erweiterung stellt die Neuentwicklung einer verteilten Datenstruktur für dünnbesetzte Matrizen dar. Letztere implementiert ein flexibles Designkonzept, was die Verwendung benutzerdefinierter Kompressions- sowie Lastverteilungsmechanismen ermöglicht. Darüber hinaus werden mit dem LM OSEM-Algorithmus und den ART 2-Netzen zwei Anwendungen vorgestellt, die mit Muesli parallelisiert wurden. Neben einer Beschreibung der Funktionsweise sowie der Eigenschaften und Konzepte von MPI und OpenMP wird darüber hinaus der aktuelle Forschungsstand skizziert. <br/
Parallele Algorithmen für H-Matrizen
Hierarchische Matrizen, oder kurz H-Matrizen genannt, ermöglichen die effiziente Darstellung von diskreten Operatoren wie sie bei partiellen Differential- und Integralgleichungen auftreten. Desweiteren gestatten sie die Verwendung der gesamten Matrixalgebra, etwa Matrix-Multiplikation und -Inversion, mit linear-logarithmischem Aufwand, wodurch sich z.B. sehr schnelle Lösungsverfahren für die erwähnten Gleichungen ergeben. In dieser Arbeit werden parallele Algorithmen für die H-Matrix-Algebra vorgestellt. Um effiziente Verfahren für ein breites Spektrum an Parallelrechnern zu erhalten, werden dabei sowohl Architekturen mit gemeinsamem, als auch geteiltem Speicher betrachtet. In diesem Zusammenhang ist die Wahl einer geeigneten Lastbalancierungsmethode wesentlich für die parallele Skalierbarkeit des Algorithmus, weshalb verschiedenste Verteilungsstrategien untersucht und entsprechend modifiziert werden. Daneben wird eine angepasste Speicherverwaltung vorgestellt, die essentiell für die parallele Geschwindigkeit der Verfahren ist
Architektur vernetzter Systeme. Seminar SS 1996 & WS 1996/97
Der vorliegende Interne Bericht enthält die Beiträge von Studenten zum
Seminar "Architektur vernetzter Systeme", das im Sommersemester 1996 und im
Wintersemester 1996/97 am Institut für Telematik der Universität Karlsruhe
stattgefunden hat. Themen waren dabei Replikationsverfahren im Mobilumfeld
sowie Dienste und Konzepte in verteilten Systemen als auch alternative
Ansätze wie Memory-Consictency-Modelle
- …