44 research outputs found
Verfahren und Werkzeuge zur Leistungsmessung, -analyse und -bewertung der Ein-/Ausgabeeinheiten von Rechensystemen
Untersuchungen zeigen, dass die Rechenleistung von Prozessoren stĂ€rker steigt als die Ein-/Ausgabeleistung von SekundĂ€rspeichern. Dies fĂŒhrt dazu, dass CPUs ihr Rechenpotential oft nicht ausschöpfen, da sie auf SekundĂ€rspeicherdaten warten. Zur Vermeidung dieser Wartezeiten ist die Leistungsanalyse und -optimierung der Speicher notwendig. I/O-Benchmarks sind Softwarewerkzeuge zur Leistungsanalyse, deren Probleme in dieser Arbeit aufgezeigt und gelöst werden. Es wird ein Ansatz entwickelt, der realitĂ€tsnahes, vergleichbares und einfaches I/O-Benchmarking mit der MPI-IO-Schnittstelle ermöglicht
Algorithmen, Architekturen und Technologie der optoelektronischen Rechentechnik
Der Einsatz optischer Verbindungen in der Rechentechnik verspricht viele der heute bei der Kommunikation zwischen Leiterplatten und zwischen integrierten Schaltkreisen auftretende EngpĂ€sse zu lösen. Optische Verbindungen moderaler ParallelitĂ€t (10-20 KanĂ€le) zwischen Baugruppen sind, wie die Ergebnisse dieser Arbeit zeigen, mittlerweile technisch machbar. Die effiziente Nutzung optischer Verbindungen im Bereich chip-to-chip zum Aufbau eines 3-dimensionalen optoelektronischen VLSI (3-D O E-VLSI) erfordert dagegen wesentlich stĂ€rkere Eingriffe in die Architektur derzeitiger VLSI-Systeme. Aufgabe der Informatik ist einerseits die Entwicklung geeigneter Architekturen und zugehöriger Algorithmen und andererseits der Nachweis der hardwaretechnischen Machbarkeit der entwickelten Architekturkonzepte. In der Arbeit werden eine Reihe von ArchitekturvorschlĂ€gen unterbreitet, die weitgehend bis auf die Hardwareebene spezifiziert sind und teilweise in ersten Demonstrator- und Testschaltkreisen realisiert wurden. Dies betrifft ein superskalares aus Superpipelinestufen aufgebautes optoelektronisches 3-D Rechenwerk fĂŒr Ganzzahlarithmetik, einen binĂ€ren neuronalen Assoziativspeicher, figurierbare Hardwarestrukturen, eine 3-D Architektur fĂŒr alle Prozessoren, systolische Addierer und ein Architekturkonzept fĂŒr einen digitalen optoelektronischen Bildverarbeitungsprozessor. Durch theoretische Vergleiche wird der Nachweis erbracht, daĂ fĂŒr die genannten Architekturen durch den Einsatz eines hochdichten optischen Verbindungssystems Steigerungen der Durchsatzrate von 1-3 GröĂenordnungen gegenĂŒber rein-elektronischen Systemen möglich sind. FĂŒr den Assoziativspeicher, die rekonfigurierbare Hardware und das 3-D Rechenwerk fĂŒr Ganzzahlarithmetik wurden erste einfache OE-VLSI-Schaltkreise auf der Basis optischer Modulatoren und PN-Detektoren realisiert. Da der Entwurf solcher Systeme neue rechnergestĂŒtzte Entwurfssysteme erfordert, werden ferner die im Rahmen der Arbeit durchgefĂŒhrten Entwicklungen fĂŒr ein Simulations- und Synthesewerkzeug fĂŒr 3-D OE-VLSI-Systeme dargestellt
Perspektiven der parallelen ereignisgesteuerten Simulation am Beispiel von Warteschlangen
Simulation ist ein wirkungsvolles Hilfsmittel zur Analyse komplexer, nicht vollstĂ€ndig mathematisch analysierbarer ZusammenhĂ€nge, das mittlerweile in weiten Bereichen von Wissenschaft und Technik Anwendung gefunden hat. Leider erwiesen sich dabei die in der Praxis auftretenden Simulationen als Ă€uĂerst zeitaufwendig. Daher liegt es nahe zu untersuchen, in wieweit sich Simulationen durch "Supercomputer" beschleunigen lassen. Diese Arbeit beschĂ€ftigt sich speziell mit der Parallelisierung ereignisgesteuerter Simulationen. Die ersten AnsĂ€tze zur Parallelisierung dieser Klasse von Simulationen liegen bereits mehr als zehn Jahre zurĂŒck. In dieser Zeit entstanden zwar zahlreiche konzeptionelle Arbeiten und kleinere Prototypen, jedoch wurde der Frage "Lohnt sich die Parallelisierung ereignisgesteuerter Simulationen?" bisher kaum systematisch nachgegangen. Die vorliegende Arbeit untersucht dies am Beispiel der Simulation von Warteschlangennetzen. Ausgehend von einem mathematisch definierten Begriff des Simulationsmodells werden dabei zunĂ€chst die besonderen Anforderungen an ein "parallelisierbares" Modell exakt definiert, die bisher entwickelten ParallelisierungsansĂ€tze systematisch dargestellt sowie die Modellwelt und die Komponenten des eigens fĂŒr diese Arbeit entwickelten Testbetts DISQUE vorgestellt. Mit diesem Testbett werden anschlieĂend mit Hilfe von umfangreichen Messungen die Probleme bei der Realisierung eines effizienten parallelen Simulators aufgezeigt und bezĂŒglich ihrer Bedeutung gewichtet. Hierzu wird eine Folge von teils real durchgefĂŒhrten, teils aus MeĂdaten berechneten, hypothetischen SimulationslĂ€ufen entwickelt, die immer realistischer werdende Sichten auf einen parallelen Simulationslauf darstellen. Die Differenz der Laufzeiten zweier SimulationslĂ€ufe der Folge ergibt dann ein MaĂ fĂŒr die Bedeutung des zusĂ€tzlich berĂŒcksichtigten Aspekts. Weiterhin werden verschiedene parallele Synchronisationsstrategien bei der parallelen, ereignisgesteuerten Simulation bezĂŒglich ihrer Effizienz miteinander verglichen. Den AbschluĂ dieser Arbeit bildet eine Zusammenfassung aller Einzelresultate im Hinblick auf den Beitrag, den die Ergebnisse dieser Arbeit zu der eingangs gestellten Frage liefern. Es zeigt sich dabei, daĂ zwar in EinzelfĂ€llen eine effektive Parallelisierung ereignisgesteuerter Simulationen durchaus möglich ist, sich jedoch bedingt durch die feine GranularitĂ€t der meisten Anwendungen parallele, ereignisgesteuerte Simulation wohl nicht auf breiter Front durchsetzen wird.Liegt nicht vor
Perspektiven der parallelen ereignisgesteuerten Simulation am Beispiel von Warteschlangen
Simulation ist ein wirkungsvolles Hilfsmittel zur Analyse komplexer, nicht vollstĂ€ndig mathematisch analysierbarer ZusammenhĂ€nge, das mittlerweile in weiten Bereichen von Wissenschaft und Technik Anwendung gefunden hat. Leider erwiesen sich dabei die in der Praxis auftretenden Simulationen als Ă€uĂerst zeitaufwendig. Daher liegt es nahe zu untersuchen, in wieweit sich Simulationen durch "Supercomputer" beschleunigen lassen. Diese Arbeit beschĂ€ftigt sich speziell mit der Parallelisierung ereignisgesteuerter Simulationen. Die ersten AnsĂ€tze zur Parallelisierung dieser Klasse von Simulationen liegen bereits mehr als zehn Jahre zurĂŒck. In dieser Zeit entstanden zwar zahlreiche konzeptionelle Arbeiten und kleinere Prototypen, jedoch wurde der Frage "Lohnt sich die Parallelisierung ereignisgesteuerter Simulationen?" bisher kaum systematisch nachgegangen. Die vorliegende Arbeit untersucht dies am Beispiel der Simulation von Warteschlangennetzen. Ausgehend von einem mathematisch definierten Begriff des Simulationsmodells werden dabei zunĂ€chst die besonderen Anforderungen an ein "parallelisierbares" Modell exakt definiert, die bisher entwickelten ParallelisierungsansĂ€tze systematisch dargestellt sowie die Modellwelt und die Komponenten des eigens fĂŒr diese Arbeit entwickelten Testbetts DISQUE vorgestellt. Mit diesem Testbett werden anschlieĂend mit Hilfe von umfangreichen Messungen die Probleme bei der Realisierung eines effizienten parallelen Simulators aufgezeigt und bezĂŒglich ihrer Bedeutung gewichtet. Hierzu wird eine Folge von teils real durchgefĂŒhrten, teils aus MeĂdaten berechneten, hypothetischen SimulationslĂ€ufen entwickelt, die immer realistischer werdende Sichten auf einen parallelen Simulationslauf darstellen. Die Differenz der Laufzeiten zweier SimulationslĂ€ufe der Folge ergibt dann ein MaĂ fĂŒr die Bedeutung des zusĂ€tzlich berĂŒcksichtigten Aspekts. Weiterhin werden verschiedene parallele Synchronisationsstrategien bei der parallelen, ereignisgesteuerten Simulation bezĂŒglich ihrer Effizienz miteinander verglichen. Den AbschluĂ dieser Arbeit bildet eine Zusammenfassung aller Einzelresultate im Hinblick auf den Beitrag, den die Ergebnisse dieser Arbeit zu der eingangs gestellten Frage liefern. Es zeigt sich dabei, daĂ zwar in EinzelfĂ€llen eine effektive Parallelisierung ereignisgesteuerter Simulationen durchaus möglich ist, sich jedoch bedingt durch die feine GranularitĂ€t der meisten Anwendungen parallele, ereignisgesteuerte Simulation wohl nicht auf breiter Front durchsetzen wird.Liegt nicht vor
Untersuchung von Einflussfaktoren auf SPEC CINT95- und CFP95-Benchmarks
Die Arbeit untersucht Einflussfaktoren auf die SPEC-CPU-
Benchmarks CINT95 und CFP95. Es werden die Messbedingungen
bei Messungen von Rechnerherstellern fuer SPEC-Veroeffentlichungen
und bei Messungen im Universitaetsrechenzentrum verglichen.
Aus den unterschiedlichen Bedingungen werden moegliche
Einflussfaktoren abgeleitet, die fuer die Abweichung der
Benchmarkergebnisse unter Lastbedingungen ursaechlich sein
koennten. Fuer diese Einflusskomponenten eines Rechnersystems
werden charakteristische Lastmasse erarbeitet.
Im experimentellen Teil der Arbeit werden 4 Rechner des
Universitaetsrechenzentrums mit 4 gezielt ausgewaehlten SPEC-
CPU-Benchmarks untersucht. Ueber mehrere Wochen hinweg werden
dabei Messungen unter verschiedensten Lastverhaeltnissen
durchgefuehrt, wobei jeweils die Benchmarklaufzeit und die
mittleren Werte fuer die definierten Lastmasse erfasst werden.
Auf Basis dieser 16 Messreihen von jeweils 20 bis 60
Messungen werden schliesslich Aussagen zu Einflugroessen auf
einzelne Benchmarks, zum generellen Einfluss einzelner
Teilsysteme, sowie zum differenzierten Lastverhalten der
einzelnen betrachteten UNIX-Rechnersysteme gewonnen