5 research outputs found

    Jahresbericht 2009 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV KOMMISSION 15 MITGLIEDER DER DV KOMMISSION 15 ZUR ARBEIT DES IT LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN IP Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck Kopierer Netz 32 2.2.5 WLAN 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Vertrag „Kommunikationsverbindung der SĂ€chsischen Hochschulen“ 37 2.2.8 Datennetz zu den Wohnheimstandorten 39 2.2.9 Datennetz der FakultĂ€t Informatik 39 2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 40 2.3.1 Electronic Mail 40 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 41 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 42 2.3.1.4 Web-Mail 42 2.3.1.5 Neuer Mailinglisten-Server 43 2.3.2 Authentifizierungs und Autorisierungs Infrastruktur (AAI) 43 2.3.2.1 Shibboleth 43 2.3.2.2 DFN PKI 43 2.3.3 WĂ€hlzugĂ€nge 44 2.3.4 Time Service 44 2.3.5 Voice over Internet Protocol (VoIP) 44 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 BENUTZERBERATUNG (BB) 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 49 3.4 LOGIN SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51 3.6 STORAGE MANAGEMENT 51 3.6.1 Backup Service 52 3.6.2 File Service und Speichersysteme 55 3.7 LIZENZ SERVICE 56 3.8 PERIPHERIE SERVICE 57 3.9 PC POOLS 57 3.10 SECURITY 58 3.10.1 Informationssicherheit 58 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 58 3.10.3 VPN 59 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 59 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV SYSTEME 61 4.1 ALLGEMEINES 61 4.2 PC SUPPORT 61 4.2.1 Investberatung 61 4.2.2 Implementierung 61 4.2.3 Instandhaltung 62 4.3 MICROSOFT WINDOWS SUPPORT 62 4.4 ZENTRALE SOFTWARE BESCHAFFUNG FÜR DIE TU DRESDEN 67 4.4.1 Arbeitsgruppe Software im ZKI 67 4.4.2 Strategie des Software Einsatzes an der TU Dresden 67 4.4.3 Software Beschaffung 68 5 HOCHLEISTUNGSRECHNEN 69 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 69 5.1.1 HRSK Core Router 70 5.1.2 HRSK SGI Altix 4700 70 5.1.3 HRSK PetaByte Bandarchiv 72 5.1.4 HRSK Linux Networx PC Farm 73 5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 75 5.2 NUTZUNGSÜBERSICHT DER HPC SERVER 76 5.3 SPEZIALRESSOURCEN 77 5.3.1 SGI Origin 3800 77 5.3.2 NEC SX 6 77 5.3.3 Mikrosoft HPC System 78 5.3.4 Anwendercluster 78 5.4 GRID RESSOURCEN 79 5.5 ANWENDUNGSSOFTWARE 81 5.6 VISUALISIERUNG 82 5.7 PARALLELE PROGRAMMIERWERKZEUGE 83 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 85 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 85 6.1.1 Überblick 85 6.1.2 VideokonferenzrĂ€ume 85 6.1.3 Aufgaben und Entwicklungsarbeiten 85 6.1.4 Weitere AktivitĂ€ten 88 6.1.5 Der Dienst „DFNVideoConference“ Mehrpunktkonferenzen im G WiN 88 6.1.6 Ausblick 89 6.2 D GRID 89 6.2.1 Hochenergiephysik Community Grid (HEP CG) − Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e Science Umgebung 89 6.2.2 D Grid Integrationsprojekt 2 90 6.2.3 Chemomentum 90 6.2.4 D Grid Scheduler InteroperalitĂ€t (DGSI) 91 6.2.5 MoSGrid − Molecular Simulation Grid 91 6.2.6 WisNetGrid −Wissensnetzwerke im Grid 92 6.3 BIOLOGIE 92 6.3.1 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 92 6.3.2 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 93 6.3.3 EndoSys − Modellierung der Rolle von Rab DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 93 6.3.4 SpaceSys − RĂ€umlich zeitliche Dynamik in der Systembiologie 94 6.3.5 Biologistik − Von bio inspirierter Logistik zum logistik inspirierten Bio Nano Engineering 94 6.3.6 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95 6.4 PERFORMANCE EVALUIERUNG 95 6.4.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 95 6.4.2 BenchIT − Performance Measurement for Scientific Applications 96 6.4.3 PARMA − Parallel Programming for Multi core Architectures -ParMA 97 6.4.4 VI HPS − Virtuelles Institut -HPS 97 6.4.5 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 98 6.4.6 VEKTRA − Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maßgeschneiderten Transporteigenschaften 98 6.4.7 Cool Computing −Technologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99 6.4.8 eeClust Energieeffizientes Cluster Computing 99 6.4.9 HI/CFD − Hocheffiziente Implementierung von CFD Codes fĂŒr HPC Many Core Architekturen 99 6.4.10 SILC − Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 100 6.4.11 TIMaCS − Tools for Intelligent System Mangement of Very Large Computing Systems 100 6.5 KOOPERATIONEN 101 7 DOIT INTEGRIERTES INFORMATIONSMANAGEMENT 111 7.1 VISION DER TU DRESDEN 111 7.2 ZIELE DES PROJEKTES DOIT 111 7.2.1 Analyse der bestehenden IT UnterstĂŒtzung der Organisation und ihrer Prozesse 111 7.2.2 Erarbeitung von VerbesserungsvorschlĂ€gen 111 7.2.3 HerbeifĂŒhrung strategischer Entscheidungen 112 7.2.4 Planung und DurchfĂŒhrung von Teilprojekten 112 7.2.5 Markt und Anbieteranalyse 112 7.2.6 Austausch mit anderen Hochschulen 112 7.3 ORGANISATION DES DOIT PROJEKTES 112 7.4 IDENTITÄTSMANAGEMENT 113 7.5 ELEKTRONISCHER KOSTENSTELLENZUGANG (ELKO) 114 8 AUSBILDUNGSBETRIEB UND PRAKTIKA 117 8.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 117 8.2 PRAKTIKA 118 9 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 119 10 VERANSTALTUNGEN 121 11 PUBLIKATIONEN 123 TEIL III BERICHTE DER FAKULTÄTEN FAKULTÄT MATHEMATIK UND NATURWISSENSCHAFTEN Fachrichtung Mathematik 129 Fachrichtung Physik 133 Fachrichtung Chemie und Lebensmittelchemie 137 Fachrichtung Psychologie 143 Fachrichtung Biologie 147 PHILOSOHISCHE FAKULTÄT 153 FAKULTÄT SPRACH , LITERATUR UND KULTURWISSENSCHAFTEN 157 FAKULTÄT ERZIEHUNGSWISSENSCHAFTEN 159 JURISTISCHE FAKULTÄT 163 FAKULTÄT WIRTSCHAFTSWISSENSCHAFTEN 167 FAKULTÄT INFORMATIK 175 FAKULTÄT ELEKTRO UND INFORMATIONSTECHNIK 183 FAKULTÄT MASCHINENWESEN 193 FAKULTÄT BAUINGENIEURWESEN 203 FAKULTÄT ARCHITEKTUR 211 FAKULTÄT VERKEHRSWISSENSCHAFTEN „FRIEDRICH LIST“ 215 FAKULTÄT FORST , GEO UND HYDROWISSENSCHAFTEN Fachrichtung Forstwissenschaften 231 Fachrichtung Geowissenschaften 235 Fachrichtung Wasserwesen 241 MEDIZINISCHE FAKULTÄT CARL GUSTAV CARUS 24

    Jahresbericht 2012 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV-KOMMISSION 15 MITGLIEDER DER DV-KOMMISSION 15 ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN-IP-Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 28 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck-Kopierer-Netz 32 2.2.5 Wireless Local Area Network (WLAN) 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 34 2.2.7 Vertrag „Kommunikationsverbindungen der SĂ€chsischen Hochschulen“ 34 2.2.8 Datennetz zu den Wohnheimstandorten 36 2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 39 2.3.1 Electronic-Mail 39 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 40 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 41 2.3.1.4 Web-Mail 41 2.3.1.5 Mailinglisten-Server 42 2.3.2 Groupware 42 2.3.3 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 43 2.3.3.1 AAI fĂŒr das Bildungsportal Sachsen 43 2.3.3.2 DFN PKI 43 2.3.4 WĂ€hlzugĂ€nge 43 2.3.5 Sprachdienste ISDN und VoIP 43 2.3.6 Kommunikationstrassen und Uhrennetz 46 2.3.7 Time-Service 46 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 BENUTZERBERATUNG (BB) 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 48 3.4 LOGIN-SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 50 3.6 STORAGE-MANAGEMENT 51 3.6.1 Backup-Service 51 3.6.2 File-Service und Speichersysteme 55 3.7 LIZENZ-SERVICE 57 3.8 PERIPHERIE-SERVICE 57 3.9 PC-POOLS 57 3.10 SECURITY 58 3.10.1 Informationssicherheit 58 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 59 3.10.3 VPN 59 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 60 3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 60 3.11 DRESDEN SCIENCE CALENDAR 60 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV SYSTEME 63 4.1 ALLGEMEINES 63 4.2 PC-SUPPORT 63 4.2.1 Investberatung 63 4.2.2 Implementierung 63 4.2.3 Instandhaltung 63 4.3 MICROSOFT WINDOWS-SUPPORT 64 4.3.1 Zentrale Windows-DomĂ€ne 64 4.3.2 Sophos-Antivirus 70 4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FÜR DIE TU DRESDEN 70 4.4.1 Strategie der Software-Beschaffung 70 4.4.2 ArbeitsgruppentĂ€tigkeit 71 4.4.3 Software-Beschaffung 71 4.4.4 Nutzerberatungen 72 4.4.5 Software-PrĂ€sentationen 72 5 HOCHLEISTUNGSRECHNEN 73 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 73 5.1.1 HRSK Core-Router 74 5.1.2 HRSK SGI Altix 4700 74 5.1.3 HRSK PetaByte-Bandarchiv 76 5.1.4 HRSK Linux Networx PC-Farm 77 5.1.5 Datenauswertekomponente Atlas 77 5.1.6 Globale Home-File-Systeme fĂŒr HRSK 78 5.2 NUTZUNGSÜBERSICHT DER HPC-SERVER 79 5.3 SPEZIALRESSOURCEN 79 5.3.1 Microsoft HPC-System 79 5.3.1 Anwendercluster Triton 80 5.3.3 GPU-Cluster 81 5.4 GRID-RESSOURCEN 81 5.5 ANWENDUNGSSOFTWARE 83 5.6 VISUALISIERUNG 84 5.7 PARALLELE PROGRAMMIERWERKZEUGE 85 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 87 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 87 6.1.1 Überblick 87 6.1.2 VideokonferenzrĂ€ume 87 6.1.3 Aufgaben und Entwicklungsarbeiten 87 6.1.4 Weitere AktivitĂ€ten 89 6.1.5 Der Dienst „DFNVideoConference“ − Mehrpunktkonferenzen im X-WiN 90 6.1.6 Tendenzen und Ausblicke 91 6.2 D-GRID 91 6.2.1 D-Grid Scheduler InteroperabilitĂ€t (DGSI) 91 6.2.2 EMI − European Middleware Initiative 92 6.2.3 MoSGrid − Molecular Simulation Grid 92 6.2.4 WisNetGrid −Wissensnetzwerke im Grid 93 6.2.5 GeneCloud − Cloud Computing in der Medikamentenentwicklung fĂŒr kleinere und mittlere Unternehmen 93 6.2.6 FutureGrid − An Experimental High-Performance Grid Testbed 94 6.3 BIOLOGIE 94 6.3.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 94 6.3.2 SpaceSys − RĂ€umlichzeitliche Dynamik in der Systembiologie 95 6.3.3 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95 6.3.4 SFB Transregio 79−Werkstoffentwicklungen fĂŒr die Hartgewebe regeneration im gesunden und systemisch erkrankten Knochen 96 6.3.5 Virtuelle Leber − Raumzeitlich mathematische Modelle zur Untersuchung der Hepatozyten PolaritĂ€t und ihre Rolle in der Lebergewebeentwicklung 96 6.3.6 GrowReg −Wachstumsregulation und Strukturbildung in der Regeneration 96 6.3.7 GlioMath Dresden 97 6.4 PERFORMANCE EVALUIERUNG 97 6.4.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 97 6.4.2 SFB 912 − Highly Adaptive Energy Efficient Computing (HAEC), Teilprojekt A04: Anwendungsanalyse auf Niedrig Energie HPC Systemence Low Energy Computer 98 6.4.3 BenchIT − Performance Measurement for Scientific Applications 99 6.4.4 Cool Computing −Technologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99 6.4.5 Cool Computing 2 −Technologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 100 6.4.6 ECCOUS − Effiziente und offene Compiler Umgebung fĂŒr semantisch annotierte parallele Simulationen 100 6.4.7 eeClust − Energieeffizientes Cluster Computing 101 6.4.8 GASPI − Global Adress Space Programming 101 6.4.9 LMAC − Leistungsdynamik massiv paralleler Codes 102 6.4.10 H4H – Optimise HPC Applications on Heterogeneous Architectures 102 6.4.11 HOPSA − HOlistic Performance System Analysis 102 6.4.12 CRESTA − Collaborative Research into Exascale Systemware, Tools and Application 103 6.5 DATENINTENSIVES RECHNEN 104 6.5.1 Langzeitarchivierung digitaler Dokumente der SLUB 104 6.5.2 LSDMA − Large Scale Data Management and Analysis 104 6.5.3 Radieschen − Rahmenbedingungen einer disziplinĂŒbergreifenden Forschungsdaten Infrastruktur 105 6.5.4 SIOX − Scalable I/O for Extreme Performance 105 6.5.5 HPC FLiS − HPC Framework zur Lösung inverser Streuprobleme auf strukturierten Gittern mittels Manycore Systemen und Anwendung fĂŒr 3D bildgebende Verfahren 105 6.5.6 NGSgoesHPC − Skalierbare HPC Lösungen zur effizienten Genomanalyse 106 6.6 KOOPERATIONEN 106 6.6.1 100 Gigabit Testbed Dresden/Freiberg 106 6.6.1.1 Überblick 106 6.6.1.2 Motivation und Maßnahmen 107 6.6.1.3 Technische Umsetzung 107 6.6.1.4 Geplante Arbeitspakete 108 6.6.2 Center of Excellence der TU Dresden und der TU Bergakademie Freiberg 109 7 AUSBILDUNGSBETRIEB UND PRAKTIKA 111 7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 111 7.2 PRAKTIKA 112 8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 113 9 VERANSTALTUNGEN 115 10 PUBLIKATIONEN 117 TEIL III BERICHTE BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) ZENTRUM FÜR REGENERATIVE THERAPIEN (CRTD) ZENTRUM FÜR INNOVATIONSKOMPETENZ (CUBE) 123 BOTANISCHER GARTEN 129 LEHRZENTRUM SPRACHEN UND KULTURRÄUME (LSK) 131 MEDIENZENTRUM (MZ) 137 UNIVERSITÄTSARCHIV (UA) 147 UNIVERSITÄTSSPORTZENTRUM (USZ) 149 MEDIZINISCHES RECHENZENTRUM DES UNIVERSITÄTSKLINIKUMS CARL GUSTAV CARUS (MRZ) 151 ZENTRALE UNIVERSITÄTSVERWALTUNG (ZUV) 155 SÄCHSISCHE LANDESBIBLIOTHEK – STAATS UND UNIVERSITÄTSBIBLIOTHEK DRESDEN (SLUB) 16

    IBM SP2 als interaktiver Unix-Rechner und Batch-Server

    No full text
    Der Rechner IBM RS/6000 SP (SP2) wird sowohl als Parallelrechner als auch als general-purpose Rechner vermarktet. In der KFA wird ein solches System als zentraler Unix-Server fĂŒr interaktive Arbeiten und fĂŒr Batchanwendungen eingesetzt. Insbesondere die interaktive Nutzung verlangt eine hohe VerfĂŒgbarkeit und gutes Antwortverhalten auch unter Last. Dieser Artikel beschreibt die Hard- und Software-Konfiguration der SP2 und die Entwicklungen in der KFA, mit denen die genannten Ziele erreicht werden konnten

    Optimierung des Wirkungsgrades virtueller Infrastrukturen

    Get PDF
    Virtualisierungstechniken erfreuen sich immer grĂ¶ĂŸerer Beliebtheit in vielen Bereichen der Informatik. UrsprĂŒnglich wiederentdeckt mit dem Ziel Ressourcen und Dienste zu konsolidieren, dienen VirtualisierungsansĂ€tze heute als Grundlage fĂŒr moderne Grid- und Cloud-Computing-Infastrukturen und werden damit auch im Bereich des Hochleistungsrechnens eingesetzt. Derzeit existieren keine objektiven und systematischen Analysen bezĂŒglich des Wirkungsgrades von VirtualisierungsansĂ€tzen, Techniken und Implementierungen, obwohl sie von vielen großen Rechenzentren weltweit eingesetzt und produktiv betrieben werden. Alle existierenden, modernen HostvirtualisierungsansĂ€tze setzen derzeit auf eine Softwareschicht, die sich je nach Virtualisierungstyp zwischen Hardware und Gast-Betriebssystem bzw. zwischen Host- und Gast-Betriebssystem befindet. Eine Anwendung in einer virtuellen Maschine ist somit nicht mehr nur von der Leistung des physischen Systems abhĂ€ngig, sondern ebenfalls von der Technologie des eingesetzten Virtualisierungsproduktes und nebenlĂ€ufigen virtuellen Maschinen. Je nach Anwendungstyp kann es daher sinnvoll sein, einen anderen Virtualisierungsansatz zu wĂ€hlen und auf den Typ der nebenlĂ€ufigen virtuellen Maschinen zu achten, um den Wirkungsgrad eines lokalen Systems sowie den der globalen Infrastruktur zu optimieren. Um dieses Ziel zu erreichen, werden in einem zweistufigen Ansatz zunĂ€chst theoretisch VirtualisierungsansĂ€tze analysiert und Parameter identifiziert, deren Einfluss auf den Wirkungsgrad in einem zweiten Schritt empirisch quantifiziert wird. FĂŒr die DurchfĂŒhrung dieser quantitativen Analyse ist eine Anpassung verbreiteter Leistungsmaße, wie z.B. Durchsatz und Antwortzeit, fĂŒr den Kontext der Virtualisierung erforderlich, da sie sich klassisch gesehen auf das Betriebssystem einer Maschine beziehen, eine virtuelle Maschine jedoch von der Architektur her eher einer klassischen Anwendung entspricht. Die Messung dieses Leistungsmaßes in virtuellen Umgebungen stellt eine weitere Herausforderung dar, da Zeitmessung in virtuellen Maschinen aufgrund von Scheduling durch den Hypervisor generell fehlerbehaftet ist und somit alternative Messmethoden konzipiert werden mĂŒssen. Basierend auf den durchgefĂŒhrten Analysen und Messungen wird anschließend ein Leitfaden entwickelt, der dabei hilft, die zur Virtualisierung einer Infrastruktur benötigten Ressourcen qualitativ sowie quantitativ abzuschĂ€tzen und eine Verteilung der virtuellen Maschinen anhand ihres charakteristischen Ressourcenbedarfes auf physische Systeme vorzunehmen, so dass vorhandene physische Ressourcen optimal ausgenutzt werden können. Die Automatisierung des erstellten Leitfadens durch die Entwicklung und prototypische Implementierung eines globalen Ressourcen-Schedulers auf der Basis eines gewichteten Constraint Solvers rundet die Arbeit ab. Der verwendete Ansatz besitzt zwar eine theoretisch exponentielle LaufzeitkomplexitĂ€t, liefert in der Praxis aufgrund einer entwickelten Greedy-Heuristik jedoch bereits nach extrem kurzer Laufzeit herausragende Ergebnisse. Die optimierten Verteilungen lassen sich anschließend mittels weniger Live Migration realisieren, da bereits bei der Berechnung einer Verteilung auf deren rĂ€umliche NĂ€he zur bestehenden Verteilung geachtet wird
    corecore