44 research outputs found

    Nicht nur Karlsruhe ist ein Fall fĂŒr SIMULAND

    Get PDF

    Verfahren und Werkzeuge zur Leistungsmessung, -analyse und -bewertung der Ein-/Ausgabeeinheiten von Rechensystemen

    Get PDF
    Untersuchungen zeigen, dass die Rechenleistung von Prozessoren stĂ€rker steigt als die Ein-/Ausgabeleistung von SekundĂ€rspeichern. Dies fĂŒhrt dazu, dass CPUs ihr Rechenpotential oft nicht ausschöpfen, da sie auf SekundĂ€rspeicherdaten warten. Zur Vermeidung dieser Wartezeiten ist die Leistungsanalyse und -optimierung der Speicher notwendig. I/O-Benchmarks sind Softwarewerkzeuge zur Leistungsanalyse, deren Probleme in dieser Arbeit aufgezeigt und gelöst werden. Es wird ein Ansatz entwickelt, der realitĂ€tsnahes, vergleichbares und einfaches I/O-Benchmarking mit der MPI-IO-Schnittstelle ermöglicht

    Algorithmen, Architekturen und Technologie der optoelektronischen Rechentechnik

    Get PDF
    Der Einsatz optischer Verbindungen in der Rechentechnik verspricht viele der heute bei der Kommunikation zwischen Leiterplatten und zwischen integrierten Schaltkreisen auftretende EngpĂ€sse zu lösen. Optische Verbindungen moderaler ParallelitĂ€t (10-20 KanĂ€le) zwischen Baugruppen sind, wie die Ergebnisse dieser Arbeit zeigen, mittlerweile technisch machbar. Die effiziente Nutzung optischer Verbindungen im Bereich chip-to-chip zum Aufbau eines 3-dimensionalen optoelektronischen VLSI (3-D O E-VLSI) erfordert dagegen wesentlich stĂ€rkere Eingriffe in die Architektur derzeitiger VLSI-Systeme. Aufgabe der Informatik ist einerseits die Entwicklung geeigneter Architekturen und zugehöriger Algorithmen und andererseits der Nachweis der hardwaretechnischen Machbarkeit der entwickelten Architekturkonzepte. In der Arbeit werden eine Reihe von ArchitekturvorschlĂ€gen unterbreitet, die weitgehend bis auf die Hardwareebene spezifiziert sind und teilweise in ersten Demonstrator- und Testschaltkreisen realisiert wurden. Dies betrifft ein superskalares aus Superpipelinestufen aufgebautes optoelektronisches 3-D Rechenwerk fĂŒr Ganzzahlarithmetik, einen binĂ€ren neuronalen Assoziativspeicher, figurierbare Hardwarestrukturen, eine 3-D Architektur fĂŒr alle Prozessoren, systolische Addierer und ein Architekturkonzept fĂŒr einen digitalen optoelektronischen Bildverarbeitungsprozessor. Durch theoretische Vergleiche wird der Nachweis erbracht, daß fĂŒr die genannten Architekturen durch den Einsatz eines hochdichten optischen Verbindungssystems Steigerungen der Durchsatzrate von 1-3 GrĂ¶ĂŸenordnungen gegenĂŒber rein-elektronischen Systemen möglich sind. FĂŒr den Assoziativspeicher, die rekonfigurierbare Hardware und das 3-D Rechenwerk fĂŒr Ganzzahlarithmetik wurden erste einfache OE-VLSI-Schaltkreise auf der Basis optischer Modulatoren und PN-Detektoren realisiert. Da der Entwurf solcher Systeme neue rechnergestĂŒtzte Entwurfssysteme erfordert, werden ferner die im Rahmen der Arbeit durchgefĂŒhrten Entwicklungen fĂŒr ein Simulations- und Synthesewerkzeug fĂŒr 3-D OE-VLSI-Systeme dargestellt

    Perspektiven der parallelen ereignisgesteuerten Simulation am Beispiel von Warteschlangen

    Get PDF
    Simulation ist ein wirkungsvolles Hilfsmittel zur Analyse komplexer, nicht vollstĂ€ndig mathematisch analysierbarer ZusammenhĂ€nge, das mittlerweile in weiten Bereichen von Wissenschaft und Technik Anwendung gefunden hat. Leider erwiesen sich dabei die in der Praxis auftretenden Simulationen als Ă€ußerst zeitaufwendig. Daher liegt es nahe zu untersuchen, in wieweit sich Simulationen durch "Supercomputer" beschleunigen lassen. Diese Arbeit beschĂ€ftigt sich speziell mit der Parallelisierung ereignisgesteuerter Simulationen. Die ersten AnsĂ€tze zur Parallelisierung dieser Klasse von Simulationen liegen bereits mehr als zehn Jahre zurĂŒck. In dieser Zeit entstanden zwar zahlreiche konzeptionelle Arbeiten und kleinere Prototypen, jedoch wurde der Frage "Lohnt sich die Parallelisierung ereignisgesteuerter Simulationen?" bisher kaum systematisch nachgegangen. Die vorliegende Arbeit untersucht dies am Beispiel der Simulation von Warteschlangennetzen. Ausgehend von einem mathematisch definierten Begriff des Simulationsmodells werden dabei zunĂ€chst die besonderen Anforderungen an ein "parallelisierbares" Modell exakt definiert, die bisher entwickelten ParallelisierungsansĂ€tze systematisch dargestellt sowie die Modellwelt und die Komponenten des eigens fĂŒr diese Arbeit entwickelten Testbetts DISQUE vorgestellt. Mit diesem Testbett werden anschließend mit Hilfe von umfangreichen Messungen die Probleme bei der Realisierung eines effizienten parallelen Simulators aufgezeigt und bezĂŒglich ihrer Bedeutung gewichtet. Hierzu wird eine Folge von teils real durchgefĂŒhrten, teils aus Meßdaten berechneten, hypothetischen SimulationslĂ€ufen entwickelt, die immer realistischer werdende Sichten auf einen parallelen Simulationslauf darstellen. Die Differenz der Laufzeiten zweier SimulationslĂ€ufe der Folge ergibt dann ein Maß fĂŒr die Bedeutung des zusĂ€tzlich berĂŒcksichtigten Aspekts. Weiterhin werden verschiedene parallele Synchronisationsstrategien bei der parallelen, ereignisgesteuerten Simulation bezĂŒglich ihrer Effizienz miteinander verglichen. Den Abschluß dieser Arbeit bildet eine Zusammenfassung aller Einzelresultate im Hinblick auf den Beitrag, den die Ergebnisse dieser Arbeit zu der eingangs gestellten Frage liefern. Es zeigt sich dabei, daß zwar in EinzelfĂ€llen eine effektive Parallelisierung ereignisgesteuerter Simulationen durchaus möglich ist, sich jedoch bedingt durch die feine GranularitĂ€t der meisten Anwendungen parallele, ereignisgesteuerte Simulation wohl nicht auf breiter Front durchsetzen wird.Liegt nicht vor

    Perspektiven der parallelen ereignisgesteuerten Simulation am Beispiel von Warteschlangen

    Get PDF
    Simulation ist ein wirkungsvolles Hilfsmittel zur Analyse komplexer, nicht vollstĂ€ndig mathematisch analysierbarer ZusammenhĂ€nge, das mittlerweile in weiten Bereichen von Wissenschaft und Technik Anwendung gefunden hat. Leider erwiesen sich dabei die in der Praxis auftretenden Simulationen als Ă€ußerst zeitaufwendig. Daher liegt es nahe zu untersuchen, in wieweit sich Simulationen durch "Supercomputer" beschleunigen lassen. Diese Arbeit beschĂ€ftigt sich speziell mit der Parallelisierung ereignisgesteuerter Simulationen. Die ersten AnsĂ€tze zur Parallelisierung dieser Klasse von Simulationen liegen bereits mehr als zehn Jahre zurĂŒck. In dieser Zeit entstanden zwar zahlreiche konzeptionelle Arbeiten und kleinere Prototypen, jedoch wurde der Frage "Lohnt sich die Parallelisierung ereignisgesteuerter Simulationen?" bisher kaum systematisch nachgegangen. Die vorliegende Arbeit untersucht dies am Beispiel der Simulation von Warteschlangennetzen. Ausgehend von einem mathematisch definierten Begriff des Simulationsmodells werden dabei zunĂ€chst die besonderen Anforderungen an ein "parallelisierbares" Modell exakt definiert, die bisher entwickelten ParallelisierungsansĂ€tze systematisch dargestellt sowie die Modellwelt und die Komponenten des eigens fĂŒr diese Arbeit entwickelten Testbetts DISQUE vorgestellt. Mit diesem Testbett werden anschließend mit Hilfe von umfangreichen Messungen die Probleme bei der Realisierung eines effizienten parallelen Simulators aufgezeigt und bezĂŒglich ihrer Bedeutung gewichtet. Hierzu wird eine Folge von teils real durchgefĂŒhrten, teils aus Meßdaten berechneten, hypothetischen SimulationslĂ€ufen entwickelt, die immer realistischer werdende Sichten auf einen parallelen Simulationslauf darstellen. Die Differenz der Laufzeiten zweier SimulationslĂ€ufe der Folge ergibt dann ein Maß fĂŒr die Bedeutung des zusĂ€tzlich berĂŒcksichtigten Aspekts. Weiterhin werden verschiedene parallele Synchronisationsstrategien bei der parallelen, ereignisgesteuerten Simulation bezĂŒglich ihrer Effizienz miteinander verglichen. Den Abschluß dieser Arbeit bildet eine Zusammenfassung aller Einzelresultate im Hinblick auf den Beitrag, den die Ergebnisse dieser Arbeit zu der eingangs gestellten Frage liefern. Es zeigt sich dabei, daß zwar in EinzelfĂ€llen eine effektive Parallelisierung ereignisgesteuerter Simulationen durchaus möglich ist, sich jedoch bedingt durch die feine GranularitĂ€t der meisten Anwendungen parallele, ereignisgesteuerte Simulation wohl nicht auf breiter Front durchsetzen wird.Liegt nicht vor

    Untersuchung von Einflussfaktoren auf SPEC CINT95- und CFP95-Benchmarks

    Get PDF
    Die Arbeit untersucht Einflussfaktoren auf die SPEC-CPU- Benchmarks CINT95 und CFP95. Es werden die Messbedingungen bei Messungen von Rechnerherstellern fuer SPEC-Veroeffentlichungen und bei Messungen im Universitaetsrechenzentrum verglichen. Aus den unterschiedlichen Bedingungen werden moegliche Einflussfaktoren abgeleitet, die fuer die Abweichung der Benchmarkergebnisse unter Lastbedingungen ursaechlich sein koennten. Fuer diese Einflusskomponenten eines Rechnersystems werden charakteristische Lastmasse erarbeitet. Im experimentellen Teil der Arbeit werden 4 Rechner des Universitaetsrechenzentrums mit 4 gezielt ausgewaehlten SPEC- CPU-Benchmarks untersucht. Ueber mehrere Wochen hinweg werden dabei Messungen unter verschiedensten Lastverhaeltnissen durchgefuehrt, wobei jeweils die Benchmarklaufzeit und die mittleren Werte fuer die definierten Lastmasse erfasst werden. Auf Basis dieser 16 Messreihen von jeweils 20 bis 60 Messungen werden schliesslich Aussagen zu Einflugroessen auf einzelne Benchmarks, zum generellen Einfluss einzelner Teilsysteme, sowie zum differenzierten Lastverhalten der einzelnen betrachteten UNIX-Rechnersysteme gewonnen

    Adaptive Verfahren zur Lastkontrolle im Internet [online]

    Get PDF

    SCC-News. 2020,2

    Get PDF
    corecore