5 research outputs found
Jahresbericht 2009 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 10
TEIL I
ZUR ARBEIT DER DV KOMMISSION 15
MITGLIEDER DER DV KOMMISSION 15
ZUR ARBEIT DES IT LENKUNGSAUSSCHUSSES 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN IP Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 27
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck Kopierer Netz 32
2.2.5 WLAN 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 33
2.2.7 Vertrag âKommunikationsverbindung der SĂ€chsischen Hochschulenâ 37
2.2.8 Datennetz zu den Wohnheimstandorten 39
2.2.9 Datennetz der FakultÀt Informatik 39
2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 40
2.3.1 Electronic Mail 40
2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 41
2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41
2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 42
2.3.1.4 Web-Mail 42
2.3.1.5 Neuer Mailinglisten-Server 43
2.3.2 Authentifizierungs und Autorisierungs Infrastruktur (AAI) 43
2.3.2.1 Shibboleth 43
2.3.2.2 DFN PKI 43
2.3.3 WÀhlzugÀnge 44
2.3.4 Time Service 44
2.3.5 Voice over Internet Protocol (VoIP) 44
3 ZENTRALE DIENSTANGEBOTE UND SERVER 47
3.1 BENUTZERBERATUNG (BB) 47
3.2 TROUBLE TICKET SYSTEM (OTRS) 48
3.3 NUTZERMANAGEMENT 49
3.4 LOGIN SERVICE 50
3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51
3.6 STORAGE MANAGEMENT 51
3.6.1 Backup Service 52
3.6.2 File Service und Speichersysteme 55
3.7 LIZENZ SERVICE 56
3.8 PERIPHERIE SERVICE 57
3.9 PC POOLS 57
3.10 SECURITY 58
3.10.1 Informationssicherheit 58
3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 58
3.10.3 VPN 59
3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 59
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV SYSTEME 61
4.1 ALLGEMEINES 61
4.2 PC SUPPORT 61
4.2.1 Investberatung 61
4.2.2 Implementierung 61
4.2.3 Instandhaltung 62
4.3 MICROSOFT WINDOWS SUPPORT 62
4.4 ZENTRALE SOFTWARE BESCHAFFUNG FĂR DIE TU DRESDEN 67
4.4.1 Arbeitsgruppe Software im ZKI 67
4.4.2 Strategie des Software Einsatzes an der TU Dresden 67
4.4.3 Software Beschaffung 68
5 HOCHLEISTUNGSRECHNEN 69
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 69
5.1.1 HRSK Core Router 70
5.1.2 HRSK SGI Altix 4700 70
5.1.3 HRSK PetaByte Bandarchiv 72
5.1.4 HRSK Linux Networx PC Farm 73
5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 75
5.2 NUTZUNGSĂBERSICHT DER HPC SERVER 76
5.3 SPEZIALRESSOURCEN 77
5.3.1 SGI Origin 3800 77
5.3.2 NEC SX 6 77
5.3.3 Mikrosoft HPC System 78
5.3.4 Anwendercluster 78
5.4 GRID RESSOURCEN 79
5.5 ANWENDUNGSSOFTWARE 81
5.6 VISUALISIERUNG 82
5.7 PARALLELE PROGRAMMIERWERKZEUGE 83
6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 85
6.1 âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ (VCCIV) 85
6.1.1 Ăberblick 85
6.1.2 VideokonferenzrÀume 85
6.1.3 Aufgaben und Entwicklungsarbeiten 85
6.1.4 Weitere AktivitÀten 88
6.1.5 Der Dienst âDFNVideoConferenceâ Mehrpunktkonferenzen im G WiN 88
6.1.6 Ausblick 89
6.2 D GRID 89
6.2.1 Hochenergiephysik Community Grid (HEP CG) â Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e Science Umgebung 89
6.2.2 D Grid Integrationsprojekt 2 90
6.2.3 Chemomentum 90
6.2.4 D Grid Scheduler InteroperalitÀt (DGSI) 91
6.2.5 MoSGrid â Molecular Simulation Grid 91
6.2.6 WisNetGrid âWissensnetzwerke im Grid 92
6.3 BIOLOGIE 92
6.3.1 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 92
6.3.2 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 93
6.3.3 EndoSys â Modellierung der Rolle von Rab DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 93
6.3.4 SpaceSys â RĂ€umlich zeitliche Dynamik in der Systembiologie 94
6.3.5 Biologistik â Von bio inspirierter Logistik zum logistik inspirierten Bio Nano Engineering 94
6.3.6 ZebraSim â Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95
6.4 PERFORMANCE EVALUIERUNG 95
6.4.1 SFB 609 â Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie âTeilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 95
6.4.2 BenchIT â Performance Measurement for Scientific Applications 96
6.4.3 PARMA â Parallel Programming for Multi core Architectures -ParMA 97
6.4.4 VI HPS â Virtuelles Institut -HPS 97
6.4.5 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 98
6.4.6 VEKTRA â Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maĂgeschneiderten Transporteigenschaften 98
6.4.7 Cool Computing âTechnologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99
6.4.8 eeClust Energieeffizientes Cluster Computing 99
6.4.9 HI/CFD â Hocheffiziente Implementierung von CFD Codes fĂŒr HPC Many Core Architekturen 99
6.4.10 SILC â Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 100
6.4.11 TIMaCS â Tools for Intelligent System Mangement of Very Large Computing Systems 100
6.5 KOOPERATIONEN 101
7 DOIT INTEGRIERTES INFORMATIONSMANAGEMENT 111
7.1 VISION DER TU DRESDEN 111
7.2 ZIELE DES PROJEKTES DOIT 111
7.2.1 Analyse der bestehenden IT UnterstĂŒtzung der Organisation und ihrer Prozesse 111
7.2.2 Erarbeitung von VerbesserungsvorschlÀgen 111
7.2.3 HerbeifĂŒhrung strategischer Entscheidungen 112
7.2.4 Planung und DurchfĂŒhrung von Teilprojekten 112
7.2.5 Markt und Anbieteranalyse 112
7.2.6 Austausch mit anderen Hochschulen 112
7.3 ORGANISATION DES DOIT PROJEKTES 112
7.4 IDENTITĂTSMANAGEMENT 113
7.5 ELEKTRONISCHER KOSTENSTELLENZUGANG (ELKO) 114
8 AUSBILDUNGSBETRIEB UND PRAKTIKA 117
8.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG
ANWENDUNGSENTWICKLUNG 117
8.2 PRAKTIKA 118
9 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 119
10 VERANSTALTUNGEN 121
11 PUBLIKATIONEN 123
TEIL III
BERICHTE DER FAKULTĂTEN
FAKULTĂT MATHEMATIK UND NATURWISSENSCHAFTEN
Fachrichtung Mathematik 129
Fachrichtung Physik 133
Fachrichtung Chemie und Lebensmittelchemie 137
Fachrichtung Psychologie 143
Fachrichtung Biologie 147
PHILOSOHISCHE FAKULTĂT 153
FAKULTĂT SPRACH , LITERATUR UND KULTURWISSENSCHAFTEN 157
FAKULTĂT ERZIEHUNGSWISSENSCHAFTEN 159
JURISTISCHE FAKULTĂT 163
FAKULTĂT WIRTSCHAFTSWISSENSCHAFTEN 167
FAKULTĂT INFORMATIK 175
FAKULTĂT ELEKTRO UND INFORMATIONSTECHNIK 183
FAKULTĂT MASCHINENWESEN 193
FAKULTĂT BAUINGENIEURWESEN 203
FAKULTĂT ARCHITEKTUR 211
FAKULTĂT VERKEHRSWISSENSCHAFTEN âFRIEDRICH LISTâ 215
FAKULTĂT FORST , GEO UND HYDROWISSENSCHAFTEN
Fachrichtung Forstwissenschaften 231
Fachrichtung Geowissenschaften 235
Fachrichtung Wasserwesen 241
MEDIZINISCHE FAKULTĂT CARL GUSTAV CARUS 24
Jahresbericht 2012 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 10
TEIL I
ZUR ARBEIT DER DV-KOMMISSION 15
MITGLIEDER DER DV-KOMMISSION 15
ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN-IP-Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 28
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck-Kopierer-Netz 32
2.2.5 Wireless Local Area Network (WLAN) 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 34
2.2.7 Vertrag âKommunikationsverbindungen der SĂ€chsischen Hochschulenâ 34
2.2.8 Datennetz zu den Wohnheimstandorten 36
2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 39
2.3.1 Electronic-Mail 39
2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 40
2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41
2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 41
2.3.1.4 Web-Mail 41
2.3.1.5 Mailinglisten-Server 42
2.3.2 Groupware 42
2.3.3 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 43
2.3.3.1 AAI fĂŒr das Bildungsportal Sachsen 43
2.3.3.2 DFN PKI 43
2.3.4 WÀhlzugÀnge 43
2.3.5 Sprachdienste ISDN und VoIP 43
2.3.6 Kommunikationstrassen und Uhrennetz 46
2.3.7 Time-Service 46
3 ZENTRALE DIENSTANGEBOTE UND SERVER 47
3.1 BENUTZERBERATUNG (BB) 47
3.2 TROUBLE TICKET SYSTEM (OTRS) 48
3.3 NUTZERMANAGEMENT 48
3.4 LOGIN-SERVICE 50
3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 50
3.6 STORAGE-MANAGEMENT 51
3.6.1 Backup-Service 51
3.6.2 File-Service und Speichersysteme 55
3.7 LIZENZ-SERVICE 57
3.8 PERIPHERIE-SERVICE 57
3.9 PC-POOLS 57
3.10 SECURITY 58
3.10.1 Informationssicherheit 58
3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 59
3.10.3 VPN 59
3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 60
3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 60
3.11 DRESDEN SCIENCE CALENDAR 60
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV SYSTEME 63
4.1 ALLGEMEINES 63
4.2 PC-SUPPORT 63
4.2.1 Investberatung 63
4.2.2 Implementierung 63
4.2.3 Instandhaltung 63
4.3 MICROSOFT WINDOWS-SUPPORT 64
4.3.1 Zentrale Windows-DomÀne 64
4.3.2 Sophos-Antivirus 70
4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FĂR DIE TU DRESDEN 70
4.4.1 Strategie der Software-Beschaffung 70
4.4.2 ArbeitsgruppentÀtigkeit 71
4.4.3 Software-Beschaffung 71
4.4.4 Nutzerberatungen 72
4.4.5 Software-PrÀsentationen 72
5 HOCHLEISTUNGSRECHNEN 73
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 73
5.1.1 HRSK Core-Router 74
5.1.2 HRSK SGI Altix 4700 74
5.1.3 HRSK PetaByte-Bandarchiv 76
5.1.4 HRSK Linux Networx PC-Farm 77
5.1.5 Datenauswertekomponente Atlas 77
5.1.6 Globale Home-File-Systeme fĂŒr HRSK 78
5.2 NUTZUNGSĂBERSICHT DER HPC-SERVER 79
5.3 SPEZIALRESSOURCEN 79
5.3.1 Microsoft HPC-System 79
5.3.1 Anwendercluster Triton 80
5.3.3 GPU-Cluster 81
5.4 GRID-RESSOURCEN 81
5.5 ANWENDUNGSSOFTWARE 83
5.6 VISUALISIERUNG 84
5.7 PARALLELE PROGRAMMIERWERKZEUGE 85
6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 87
6.1 âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ (VCCIV) 87
6.1.1 Ăberblick 87
6.1.2 VideokonferenzrÀume 87
6.1.3 Aufgaben und Entwicklungsarbeiten 87
6.1.4 Weitere AktivitÀten 89
6.1.5 Der Dienst âDFNVideoConferenceâ â Mehrpunktkonferenzen im X-WiN 90
6.1.6 Tendenzen und Ausblicke 91
6.2 D-GRID 91
6.2.1 D-Grid Scheduler InteroperabilitÀt (DGSI) 91
6.2.2 EMI â European Middleware Initiative 92
6.2.3 MoSGrid â Molecular Simulation Grid 92
6.2.4 WisNetGrid âWissensnetzwerke im Grid 93
6.2.5 GeneCloud â Cloud Computing in der Medikamentenentwicklung
fĂŒr kleinere und mittlere Unternehmen 93
6.2.6 FutureGrid â An Experimental High-Performance Grid Testbed 94
6.3 BIOLOGIE 94
6.3.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 94
6.3.2 SpaceSys â RĂ€umlichzeitliche Dynamik in der Systembiologie 95
6.3.3 ZebraSim â Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95
6.3.4 SFB Transregio 79âWerkstoffentwicklungen fĂŒr die Hartgewebe regeneration im gesunden und systemisch erkrankten Knochen 96
6.3.5 Virtuelle Leber â Raumzeitlich mathematische Modelle zur Untersuchung
der Hepatozyten PolaritÀt und ihre Rolle in der Lebergewebeentwicklung 96
6.3.6 GrowReg âWachstumsregulation und Strukturbildung in der Regeneration 96
6.3.7 GlioMath Dresden 97
6.4 PERFORMANCE EVALUIERUNG 97
6.4.1 SFB 609 â Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie âTeilprojekt A1: Numerische
Modellierung turbulenter MFD Strömungen 97
6.4.2 SFB 912 â Highly Adaptive Energy Efficient Computing (HAEC), Teilprojekt A04: Anwendungsanalyse auf Niedrig Energie HPC Systemence Low Energy Computer 98
6.4.3 BenchIT â Performance Measurement for Scientific Applications 99
6.4.4 Cool Computing âTechnologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99
6.4.5 Cool Computing 2 âTechnologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 100
6.4.6 ECCOUS â Effiziente und offene Compiler Umgebung fĂŒr semantisch annotierte parallele Simulationen 100
6.4.7 eeClust â Energieeffizientes Cluster Computing 101
6.4.8 GASPI â Global Adress Space Programming 101
6.4.9 LMAC â Leistungsdynamik massiv paralleler Codes 102
6.4.10 H4H â Optimise HPC Applications on Heterogeneous Architectures 102
6.4.11 HOPSA â HOlistic Performance System Analysis 102
6.4.12 CRESTA â Collaborative Research into Exascale Systemware, Tools and Application 103
6.5 DATENINTENSIVES RECHNEN 104
6.5.1 Langzeitarchivierung digitaler Dokumente der SLUB 104
6.5.2 LSDMA â Large Scale Data Management and Analysis 104
6.5.3 Radieschen â Rahmenbedingungen einer disziplinĂŒbergreifenden Forschungsdaten Infrastruktur 105
6.5.4 SIOX â Scalable I/O for Extreme Performance 105
6.5.5 HPC FLiS â HPC Framework zur Lösung inverser Streuprobleme auf strukturierten Gittern mittels Manycore Systemen und Anwendung fĂŒr 3D bildgebende Verfahren 105
6.5.6 NGSgoesHPC â Skalierbare HPC Lösungen zur effizienten Genomanalyse 106
6.6 KOOPERATIONEN 106
6.6.1 100 Gigabit Testbed Dresden/Freiberg 106
6.6.1.1 Ăberblick 106
6.6.1.2 Motivation und MaĂnahmen 107
6.6.1.3 Technische Umsetzung 107
6.6.1.4 Geplante Arbeitspakete 108
6.6.2 Center of Excellence der TU Dresden und der TU Bergakademie Freiberg 109
7 AUSBILDUNGSBETRIEB UND PRAKTIKA 111
7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 111
7.2 PRAKTIKA 112
8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 113
9 VERANSTALTUNGEN 115
10 PUBLIKATIONEN 117
TEIL III
BERICHTE
BIOTECHNOLOGISCHES ZENTRUM (BIOTEC)
ZENTRUM FĂR REGENERATIVE THERAPIEN (CRTD)
ZENTRUM FĂR INNOVATIONSKOMPETENZ (CUBE) 123
BOTANISCHER GARTEN 129
LEHRZENTRUM SPRACHEN UND KULTURRĂUME (LSK) 131
MEDIENZENTRUM (MZ) 137
UNIVERSITĂTSARCHIV (UA) 147
UNIVERSITĂTSSPORTZENTRUM (USZ) 149
MEDIZINISCHES RECHENZENTRUM DES UNIVERSITĂTSKLINIKUMS CARL GUSTAV CARUS (MRZ) 151
ZENTRALE UNIVERSITĂTSVERWALTUNG (ZUV) 155
SĂCHSISCHE LANDESBIBLIOTHEK â STAATS UND UNIVERSITĂTSBIBLIOTHEK DRESDEN (SLUB) 16
IBM SP2 als interaktiver Unix-Rechner und Batch-Server
Der Rechner IBM RS/6000 SP (SP2) wird sowohl als Parallelrechner als auch als general-purpose Rechner vermarktet. In der KFA wird ein solches System als zentraler Unix-Server fĂŒr interaktive Arbeiten und fĂŒr Batchanwendungen eingesetzt. Insbesondere die interaktive Nutzung verlangt eine hohe VerfĂŒgbarkeit und gutes Antwortverhalten auch unter Last. Dieser Artikel beschreibt die Hard- und Software-Konfiguration der SP2 und die Entwicklungen in der KFA, mit denen die genannten Ziele erreicht werden konnten
Optimierung des Wirkungsgrades virtueller Infrastrukturen
Virtualisierungstechniken erfreuen sich immer gröĂerer Beliebtheit in vielen Bereichen der Informatik. UrsprĂŒnglich wiederentdeckt mit dem Ziel Ressourcen und Dienste zu konsolidieren, dienen VirtualisierungsansĂ€tze heute als Grundlage fĂŒr moderne Grid- und Cloud-Computing-Infastrukturen und werden damit auch im Bereich des Hochleistungsrechnens eingesetzt. Derzeit existieren keine objektiven und systematischen Analysen bezĂŒglich des Wirkungsgrades von VirtualisierungsansĂ€tzen, Techniken und Implementierungen, obwohl sie von vielen groĂen Rechenzentren weltweit eingesetzt und produktiv betrieben werden. Alle existierenden, modernen HostvirtualisierungsansĂ€tze setzen derzeit auf eine Softwareschicht, die sich je nach Virtualisierungstyp zwischen Hardware und Gast-Betriebssystem bzw. zwischen Host- und Gast-Betriebssystem befindet. Eine Anwendung in einer virtuellen Maschine ist somit nicht mehr nur von der Leistung des physischen Systems abhĂ€ngig, sondern ebenfalls von der Technologie des eingesetzten Virtualisierungsproduktes und nebenlĂ€ufigen virtuellen Maschinen. Je nach Anwendungstyp kann es daher sinnvoll sein, einen anderen Virtualisierungsansatz zu wĂ€hlen und auf den Typ der nebenlĂ€ufigen virtuellen Maschinen zu achten, um den Wirkungsgrad eines lokalen Systems sowie den der globalen Infrastruktur zu optimieren.
Um dieses Ziel zu erreichen, werden in einem zweistufigen Ansatz zunĂ€chst theoretisch VirtualisierungsansĂ€tze analysiert und Parameter identifiziert, deren Einfluss auf den Wirkungsgrad in einem zweiten Schritt empirisch quantifiziert wird. FĂŒr die DurchfĂŒhrung dieser quantitativen Analyse ist eine Anpassung verbreiteter LeistungsmaĂe, wie z.B. Durchsatz und Antwortzeit, fĂŒr den Kontext der Virtualisierung erforderlich, da sie sich klassisch gesehen auf das Betriebssystem einer Maschine beziehen, eine virtuelle Maschine jedoch von der Architektur her eher einer klassischen Anwendung entspricht. Die Messung dieses LeistungsmaĂes in virtuellen Umgebungen stellt eine weitere Herausforderung dar, da Zeitmessung in virtuellen Maschinen aufgrund von Scheduling durch den Hypervisor generell fehlerbehaftet ist und somit alternative Messmethoden konzipiert werden mĂŒssen. Basierend auf den durchgefĂŒhrten Analysen und Messungen wird anschlieĂend ein Leitfaden entwickelt, der dabei hilft, die zur Virtualisierung einer Infrastruktur benötigten Ressourcen qualitativ sowie quantitativ abzuschĂ€tzen und eine Verteilung der virtuellen Maschinen anhand ihres charakteristischen Ressourcenbedarfes auf physische Systeme vorzunehmen, so dass vorhandene physische Ressourcen optimal ausgenutzt werden können. Die Automatisierung des erstellten Leitfadens durch die Entwicklung und prototypische Implementierung eines globalen Ressourcen-Schedulers auf der Basis eines gewichteten Constraint Solvers rundet die Arbeit ab. Der verwendete Ansatz besitzt zwar eine theoretisch exponentielle LaufzeitkomplexitĂ€t, liefert in der Praxis aufgrund einer entwickelten Greedy-Heuristik jedoch bereits nach extrem kurzer Laufzeit herausragende Ergebnisse. Die optimierten Verteilungen lassen sich anschlieĂend mittels weniger Live Migration realisieren, da bereits bei der Berechnung einer Verteilung auf deren rĂ€umliche NĂ€he zur bestehenden Verteilung geachtet wird