6 research outputs found
Optimierung des Wirkungsgrades virtueller Infrastrukturen
Virtualisierungstechniken erfreuen sich immer größerer Beliebtheit in vielen Bereichen der Informatik. Ursprünglich wiederentdeckt mit dem Ziel Ressourcen und Dienste zu konsolidieren, dienen Virtualisierungsansätze heute als Grundlage für moderne Grid- und Cloud-Computing-Infastrukturen und werden damit auch im Bereich des Hochleistungsrechnens eingesetzt. Derzeit existieren keine objektiven und systematischen Analysen bezüglich des Wirkungsgrades von Virtualisierungsansätzen, Techniken und Implementierungen, obwohl sie von vielen großen Rechenzentren weltweit eingesetzt und produktiv betrieben werden. Alle existierenden, modernen Hostvirtualisierungsansätze setzen derzeit auf eine Softwareschicht, die sich je nach Virtualisierungstyp zwischen Hardware und Gast-Betriebssystem bzw. zwischen Host- und Gast-Betriebssystem befindet. Eine Anwendung in einer virtuellen Maschine ist somit nicht mehr nur von der Leistung des physischen Systems abhängig, sondern ebenfalls von der Technologie des eingesetzten Virtualisierungsproduktes und nebenläufigen virtuellen Maschinen. Je nach Anwendungstyp kann es daher sinnvoll sein, einen anderen Virtualisierungsansatz zu wählen und auf den Typ der nebenläufigen virtuellen Maschinen zu achten, um den Wirkungsgrad eines lokalen Systems sowie den der globalen Infrastruktur zu optimieren.
Um dieses Ziel zu erreichen, werden in einem zweistufigen Ansatz zunächst theoretisch Virtualisierungsansätze analysiert und Parameter identifiziert, deren Einfluss auf den Wirkungsgrad in einem zweiten Schritt empirisch quantifiziert wird. Für die Durchführung dieser quantitativen Analyse ist eine Anpassung verbreiteter Leistungsmaße, wie z.B. Durchsatz und Antwortzeit, für den Kontext der Virtualisierung erforderlich, da sie sich klassisch gesehen auf das Betriebssystem einer Maschine beziehen, eine virtuelle Maschine jedoch von der Architektur her eher einer klassischen Anwendung entspricht. Die Messung dieses Leistungsmaßes in virtuellen Umgebungen stellt eine weitere Herausforderung dar, da Zeitmessung in virtuellen Maschinen aufgrund von Scheduling durch den Hypervisor generell fehlerbehaftet ist und somit alternative Messmethoden konzipiert werden müssen. Basierend auf den durchgeführten Analysen und Messungen wird anschließend ein Leitfaden entwickelt, der dabei hilft, die zur Virtualisierung einer Infrastruktur benötigten Ressourcen qualitativ sowie quantitativ abzuschätzen und eine Verteilung der virtuellen Maschinen anhand ihres charakteristischen Ressourcenbedarfes auf physische Systeme vorzunehmen, so dass vorhandene physische Ressourcen optimal ausgenutzt werden können. Die Automatisierung des erstellten Leitfadens durch die Entwicklung und prototypische Implementierung eines globalen Ressourcen-Schedulers auf der Basis eines gewichteten Constraint Solvers rundet die Arbeit ab. Der verwendete Ansatz besitzt zwar eine theoretisch exponentielle Laufzeitkomplexität, liefert in der Praxis aufgrund einer entwickelten Greedy-Heuristik jedoch bereits nach extrem kurzer Laufzeit herausragende Ergebnisse. Die optimierten Verteilungen lassen sich anschließend mittels weniger Live Migration realisieren, da bereits bei der Berechnung einer Verteilung auf deren räumliche Nähe zur bestehenden Verteilung geachtet wird
Netzwerk-Management und Hochgeschwindigkeits- Kommunikation. Teil XIII
Der Interne Bericht enthaelt die Beitraege zum Seminar
"Netzwerk-Management und Hochgeschwindigkeits-Kommunikation",
das im Wintersemester 1995/96 zum 13. Mal stattgefunden hat.
Die Themenauswahl kann grob in folgende fuenf Bloecke
gegliedert werden:
1 - Der erste Block befasst sich mit der Problematik,
unterschiedliche Dienste und damit auch verschiedene
Anforderungen an die zu erbringende Dienstqualitaet in ein
Kommunikationssubsystem zu integrieren.
2 - Im zweiten Block wird das Management von FDDI-Netzen naeher
untersucht, wobei besonderes Augenmerk auf der Unterstuetzung
von isochronem Datenverkehr liegt.
3 - Der dritte Block befasst sich mit aktuellen Problemen aus
dem Bereich der Mobilkommunikation, insbesondere der Wegewahl
in Mobil-Netzen.
4 - Im Zentrum des vierten Blocks steht das Internet und dessen
Migration hin zu ATM. Dabei spielen vor allem
Gruppenkommunikation und Dienstelokalisierung eine grosse
Rolle.
5 - Der letzte Block schliesslich stellt die Verwaltung von
ATM-Netzen in den Mittelpunkt, indem verschiedene
Normungsvorschlaege zu diesem Thema ausgefuehrt werden
Hochleistungs-Transaktionssysteme: Konzepte und Entwicklungen moderner Datenbankarchitekturen
Das Buch richtet sich an Informatiker in Studium, Lehre, Forschung und Entwicklung,
die an neueren Entwicklungen im Bereich von Transaktions- und Datenbanksystemen
interessiert sind. Es entspricht einer überarbeiteten Version meiner
im Februar 1993 vom Fachbereich Informatik der Universität Kaiserslautern
angenommenen Habilitationsschrift. Neben der Präsentation neuer Forschungsergebnisse
erfolgen eine breite Einführung in die Thematik sowie überblicksartige
Behandlung verschiedener Realisierungsansätze, wobei auf eine möglichst allgemeinverständliche
Darstellung Wert gelegt wurde. Der Text wurde durchgehend
mit Marginalien versehen, welche den Aufbau der Kapitel zusätzlich verdeutlichen
und eine schnelle Lokalisierung bestimmter Inhalte unterstützen sollen
Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning
In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind.
Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten.
Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert.
Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können