3 research outputs found

    Jahresbericht 2010 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV-KOMMISSION 15 MITGLIEDER DER DV-KOMMISSION 15 ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN-IP-Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck-Kopierer-Netz 33 2.2.5 WLAN 33 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Vertrag „Kommunikationsverbindungen der SĂ€chsischen Hochschulen“ 37 2.2.8 Datennetz zu den Wohnheimstandorten 39 2.2.9 Datennetz der FakultĂ€t Informatik 40 2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 40 2.3.1 Electronic-Mail 40 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 41 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 42 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 42 2.3.1.4 Web-Mail 42 2.3.1.5 Mailinglisten-Server 43 2.3.2 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 43 2.3.2.1 AAI fĂŒr das Bildungsportal Sachsen 44 2.3.2.2 DFN PKI 44 2.3.3 WĂ€hlzugĂ€nge 44 2.3.4 Time-Service 44 2.3.5 Voice over Internet Protocol (VoIP) 44 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 BENUTZERBERATUNG (BB) 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 49 3.4 LOGIN-SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51 3.6 STORAGE-MANAGEMENT 51 3.6.1 Backup-Service 51 3.6.2 File-Service und Speichersysteme 53 3.7 LIZENZ-SERVICE 55 3.8 PERIPHERIE-SERVICE 55 3.9 PC-POOLS 55 3.10 SECURITY 56 3.10.1 Informationssicherheit 56 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 57 3.10.3 VPN 57 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 57 3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 58 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV-SYSTEME 59 4.1 ALLGEMEINES 59 4.2 PC-SUPPORT 59 4.2.1 Investberatung 59 4.2.2 Implementierung 59 4.2.3 Instandhaltung 59 4.3 MICROSOFT WINDOWS-SUPPORT 60 4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FÜR DIE TU DRESDEN 64 4.4.1 Arbeitsgruppe Software im ZKI 64 4.4.2 Strategie des Software-Einsatzes an der TU Dresden 64 4.4.3 Software-Beschaffung 64 4.4.4 Nutzerberatungen 65 4.4.5 Software-PrĂ€sentationen 66 5 HOCHLEISTUNGSRECHNEN 67 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 67 5.1.1 HRSK Core-Router 68 5.1.2 HRSK SGI Altix 4700 68 5.1.3 HRSK PetaByte-Bandarchiv 70 5.1.4 HRSK Linux Networx PC-Farm 71 5.1.5 Globale Home-File-Systeme fĂŒr HRSK 73 5.1.5 Linux Networx PC-Cluster (Phobos) 73 5.2 NUTZUNGSÜBERSICHT DER HPC-SERVER 74 5.3 SPEZIALRESSOURCEN 75 5.3.1 NEC SX-6 75 5.3.2 Microsoft HPC-System 75 5.3.3 Anwendercluster 76 5.4 GRID-RESSOURCEN 77 5.5 ANWENDUNGSSOFTWARE 79 5.6 VISUALISIERUNG 80 5.7 PARALLELE PROGRAMMIERWERKZEUGE 81 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 83 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 83 6.1.1 Überblick 83 6.1.2 VideokonferenzrĂ€ume 83 6.1.3 Aufgaben und Entwicklungsarbeiten 83 6.1.4 Weitere AktivitĂ€ten 85 6.1.5 Der Dienst „DFNVideoConference“ - Mehrpunktkonferenzen im G-WiN 86 6.1.6 Ausblick 87 6.2 100-GIGABIT-TESTBED DRESDEN/FREIBERG 87 6.2.1 Überblick 87 6.2.2 Motivation 88 6.2.3 Setup und technische Umsetzung 88 6.2.4 Teilprojekte des ZIH 89 6.2.5 Fazit und Ausblick 90 6.3 D-GRID 90 6.3.1 D-Grid Integrationsprojekt 2 90 6.3.2 D-Grid Scheduler InteroperalitĂ€t (DGSI) 91 6.3.3 MoSGrid − Molecular Simulation Grid 91 6.3.4 WisNetGrid −Wissensnetzwerke im Grid 92 6.4 BIOLOGIE 93 6.4.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 93 6.4.2 EndoSys − Modellierung der Rolle von Rab-DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 93 6.4.3 SpaceSys − RĂ€umlich-zeitliche Dynamik in der Systembiologie 94 6.4.4 Biologistik − Von bio-inspirierter Logistik zum logistik-inspirierten Bio-Nano-Engineering 94 6.4.5 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 94 6.4.6 SFB Transregio 79 - Werkstoffentwicklungen fĂŒr die Hartgeweberegeneration im gesunden und systemisch erkrankten Knochen 95 6.4.7 Virtuelle Leber - Raumzeitlich mathematische Modelle zur Untersuchung der Hepatozyten-PolaritĂ€t und ihre Rolle in der Lebergewebeentwicklung 95 6.4.8 GrowReg - Wachstumsregulation und Strukturbildung in der Regeneration 96 6.5 PERFORMANCE EVALUIERUNG 96 6.5.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD-Strömungen 96 6.5.2 BenchIT − Performance Measurement for Scientific Applications 97 6.5.3 PARMA − Parallel Programming for Multi-core Architectures - ParMA 98 6.5.4 VI-HPS − Virtuelles Institut - HPS 98 6.5.5 Paralleles Kopplungs-Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 99 6.5.6 VEKTRA − Virtuelle Entwicklung von Keramik- und Kompositwerkstoffen mit maßgeschneiderten Transporteigenschaften 99 6.5.7 Cool Computing −Technologien fĂŒr Energieeffiziente Computing-Plattformen (BMBF-Spitzencluster Cool Silicon) 100 6.5.8 eeClust - Energieeffizientes Cluster-Computing 100 6.5.9 HI-CFD − Hocheffiziente Implementierung von CFD-Codes fĂŒr HPC-Many-Core-Architekturen 100 6.5.10 SILC − Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 101 6.5.11 TIMaCS − Tools for Intelligent System Mangement of Very Large Computing Systems 101 6.5.12 Verbundprojekt: EMI - European Middleware Initiative 102 6.5.13 H4H – Optimise HPC Applications on Heterogeneous Architectures 102 6.6 KOOPERATIONEN 102 7 DOIT - INTEGRIERTES INFORMATIONSMANAGEMENT 105 7.1 VISION DER TU DRESDEN 105 7.2 ZIELE DER PROJEKTGRUPPE 105 7.2.1 Analyse der bestehenden IT-UnterstĂŒtzung der Organisation und ihrer Prozesse 105 7.2.2 Erarbeitung von VerbesserungsvorschlĂ€gen 105 7.2.3 HerbeifĂŒhrung strategischer Entscheidungen 106 7.2.4 Planung und DurchfĂŒhrung von Teilprojekten 106 7.2.5 Markt- und Anbieteranalyse 106 7.2.6 Austausch mit anderen Hochschulen 106 7.3 ORGANISATORISCHE EINBINDUNG DER DOIT-GRUPPE 106 7.4 IDENTITÄTSMANAGEMENT 107 7.5 KONTAKT 108 8 AUSBILDUNGSBETRIEB UND PRAKTIKA 109 8.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 109 8.2 PRAKTIKA 110 9 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 111 10 VERANSTALTUNGEN 113 11 PUBLIKATIONEN 115 TEIL III BERICHTE BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) 121 BOTANISCHER GARTEN 125 LEHRZENTRUM SPRACHEN UND KULTUREN (LSK) 127 MEDIENZENTRUM (MZ) 133 UNIVERSITÄTSARCHIV (UA) 139 UNIVERSITÄTSSPORTZENTRUM (USZ) 141 ZENTRALE UNIVERSITÄTSVERWALTUNG 143 MEDIZINISCHES RECHENZENTRUM DES UNIVERSITÄTSKLINIKUMS CARL GUSTAV CARUS 145 SÄCHSISCHE LANDESBIBLIOTHEK – STAATS- UND UNIVERSITÄTSBIBLIOTHEK 14

    Scalable Applications on Heterogeneous System Architectures: A Systematic Performance Analysis Framework

    Get PDF
    The efficient parallel execution of scientific applications is a key challenge in high-performance computing (HPC). With growing parallelism and heterogeneity of compute resources as well as increasingly complex software, performance analysis has become an indispensable tool in the development and optimization of parallel programs. This thesis presents a framework for systematic performance analysis of scalable, heterogeneous applications. Based on event traces, it automatically detects the critical path and inefficiencies that result in waiting or idle time, e.g. due to load imbalances between parallel execution streams. As a prerequisite for the analysis of heterogeneous programs, this thesis specifies inefficiency patterns for computation offloading. Furthermore, an essential contribution was made to the development of tool interfaces for OpenACC and OpenMP, which enable a portable data acquisition and a subsequent analysis for programs with offload directives. At present, these interfaces are already part of the latest OpenACC and OpenMP API specification. The aforementioned work, existing preliminary work, and established analysis methods are combined into a generic analysis process, which can be applied across programming models. Based on the detection of wait or idle states, which can propagate over several levels of parallelism, the analysis identifies wasted computing resources and their root cause as well as the critical-path share for each program region. Thus, it determines the influence of program regions on the load balancing between execution streams and the program runtime. The analysis results include a summary of the detected inefficiency patterns and a program trace, enhanced with information about wait states, their cause, and the critical path. In addition, a ranking, based on the amount of waiting time a program region caused on the critical path, highlights program regions that are relevant for program optimization. The scalability of the proposed performance analysis and its implementation is demonstrated using High-Performance Linpack (HPL), while the analysis results are validated with synthetic programs. A scientific application that uses MPI, OpenMP, and CUDA simultaneously is investigated in order to show the applicability of the analysis

    Runtime MPI Correctness Checking with a Scalable Tools Infrastructure

    Get PDF
    Increasing computational demand of simulations motivates the use of parallel computing systems. At the same time, this parallelism poses challenges to application developers. The Message Passing Interface (MPI) is a de-facto standard for distributed memory programming in high performance computing. However, its use also enables complex parallel programing errors such as races, communication errors, and deadlocks. Automatic tools can assist application developers in the detection and removal of such errors. This thesis considers tools that detect such errors during an application run and advances them towards a combination of both precise checks (neither false positives nor false negatives) and scalability. This includes novel hierarchical checks that provide scalability, as well as a formal basis for a distributed deadlock detection approach. At the same time, the development of parallel runtime tools is challenging and time consuming, especially if scalability and portability are key design goals. Current tool development projects often create similar tool components, while component reuse remains low. To provide a perspective towards more efficient tool development, which simplifies scalable implementations, component reuse, and tool integration, this thesis proposes an abstraction for a parallel tools infrastructure along with a prototype implementation. This abstraction overcomes the use of multiple interfaces for different types of tool functionality, which limit flexible component reuse. Thus, this thesis advances runtime error detection tools and uses their redesign and their increased scalability requirements to apply and evaluate a novel tool infrastructure abstraction. The new abstraction ultimately allows developers to focus on their tool functionality, rather than on developing or integrating common tool components. The use of such an abstraction in wide ranges of parallel runtime tool development projects could greatly increase component reuse. Thus, decreasing tool development time and cost. An application study with up to 16,384 application processes demonstrates the applicability of both the proposed runtime correctness concepts and of the proposed tools infrastructure
    corecore