18 research outputs found

    LIKWID Monitoring Stack: A flexible framework enabling job specific performance monitoring for the masses

    Full text link
    System monitoring is an established tool to measure the utilization and health of HPC systems. Usually system monitoring infrastructures make no connection to job information and do not utilize hardware performance monitoring (HPM) data. To increase the efficient use of HPC systems automatic and continuous performance monitoring of jobs is an essential component. It can help to identify pathological cases, provides instant performance feedback to the users, offers initial data to judge on the optimization potential of applications and helps to build a statistical foundation about application specific system usage. The LIKWID monitoring stack is a modular framework build on top of the LIKWID tools library. It aims on enabling job specific performance monitoring using HPM data, system metrics and application-level data for small to medium sized commodity clusters. Moreover, it is designed to integrate in existing monitoring infrastructures to speed up the change from pure system monitoring to job-aware monitoring.Comment: 4 pages, 4 figures. Accepted for HPCMASPA 2017, the Workshop on Monitoring and Analysis for High Performance Computing Systems Plus Applications, held in conjunction with IEEE Cluster 2017, Honolulu, HI, September 5, 201

    Ditto: Towards Decentralised Similarity Search for Web3 Services

    Get PDF
    The Web has become an integral part of life, and over the past decade, it has become increasingly centralised, leading to a number of challenges such as censorship and control, particularly in search engines. Recently, the paradigm of the decentralised Web (DWeb), or Web3, has emerged, which aims to provide decentralised alternatives to current systems with decentralised control, transparency, and openness. In this paper we introduce Ditto, a decentralised search mechanism for DWeb content, based on similarity search. Ditto uses locality sensitive hashing (LSH) to extract similarity signatures and records from content, which are stored on a decentralised index on top of a distributed hash table (DHT). Ditto uniquely supports numerous underlying content networks and types, and supports various use-cases, including keyword-search. Our evaluation shows that our system is feasible and that our search quality, delay, and overhead are comparable to those currently accepted by users of DWeb and search systems

    Online Analysis of Dynamic Streaming Data

    Get PDF
    Die Arbeit zum Thema "Online Analysis of Dynamic Streaming Data" beschĂ€ftigt sich mit der Distanzmessung dynamischer, semistrukturierter Daten in kontinuierlichen Datenströmen um Analysen auf diesen Datenstrukturen bereits zur Laufzeit zu ermöglichen. Hierzu wird eine Formalisierung zur Distanzberechnung fĂŒr statische und dynamische BĂ€ume eingefĂŒhrt und durch eine explizite Betrachtung der Dynamik von Attributen einzelner Knoten der BĂ€ume ergĂ€nzt. Die Echtzeitanalyse basierend auf der Distanzmessung wird durch ein dichte-basiertes Clustering ergĂ€nzt, um eine Anwendung des Clustering, einer Klassifikation, aber auch einer Anomalieerkennung zu demonstrieren. Die Ergebnisse dieser Arbeit basieren auf einer theoretischen Analyse der eingefĂŒhrten Formalisierung von Distanzmessungen fĂŒr dynamische BĂ€ume. Diese Analysen werden unterlegt mit empirischen Messungen auf Basis von Monitoring-Daten von Batchjobs aus dem Batchsystem des GridKa Daten- und Rechenzentrums. Die Evaluation der vorgeschlagenen Formalisierung sowie der darauf aufbauenden Echtzeitanalysemethoden zeigen die Effizienz und Skalierbarkeit des Verfahrens. Zudem wird gezeigt, dass die Betrachtung von Attributen und Attribut-Statistiken von besonderer Bedeutung fĂŒr die QualitĂ€t der Ergebnisse von Analysen dynamischer, semistrukturierter Daten ist. Außerdem zeigt die Evaluation, dass die QualitĂ€t der Ergebnisse durch eine unabhĂ€ngige Kombination mehrerer Distanzen weiter verbessert werden kann. Insbesondere wird durch die Ergebnisse dieser Arbeit die Analyse sich ĂŒber die Zeit verĂ€ndernder Daten ermöglicht

    Jahresbericht 2013 zur kooperativen DV-Versorgung

    Get PDF
    :Vorwort ÜBERSICHT DER INSERENTEN 12 TEIL I ZUR ARBEIT DER DV-KOMMISSION 15 ZUR ARBEIT DES ERWEITERTEN IT-LENKUNGSAUSSCHUSSES 16 ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.2 NETZWERKINFRASTRUKTUR 27 2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 37 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 SERVICE DESK 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 49 3.4 LOGIN-SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51 3.6 STORAGE-MANAGEMENT 51 3.7 LIZENZ-SERVICE 57 3.8 PERIPHERIE-SERVICE 58 3.9 PC-POOLS 58 3.10 SECURITY 59 3.11 DRESDEN SCIENCE CALENDAR 60 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV-SYSTEME 63 4.1 ALLGEMEINES 63 4.2 INVESTBERATUNG 63 4.3 PC SUPPORT 63 4.4 MICROSOFT WINDOWS-SUPPORT 64 4.5 ZENTRALE SOFTWARE-BESCHAFFUNG FÜR DIE TU DRESDEN 70 5 HOCHLEISTUNGSRECHNEN 73 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK-II) 73 5.2 NUTZUNGSÜBERSICHT DER HPC-SERVER 80 5.3 SPEZIALRESSOURCEN 81 5.4 GRID-RESSOURCEN 82 5.5 ANWENDUNGSSOFTWARE 84 5.6 VISUALISIERUNG 85 5.7 PARALLELE PROGRAMMIERWERKZEUGE 86 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 89 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 89 6.2 SKALIERBARE SOFTWARE-WERKZEUGE ZUR UNTERSTÜTZUNG DER ANWENDUNGSOPTIMIERUNG AUF HPC-SYSTEMEN 94 6.3 LEISTUNGS- UND ENERGIEEFFIZIENZ-ANALYSE FÜR INNOVATIVE RECHNERARCHITEKTUREN 96 6.4 DATENINTENSIVES RECHNEN, VERTEILTES RECHNEN UND CLOUD COMPUTING 100 6.5 DATENANALYSE, METHODEN UND MODELLIERUNG IN DEN LIFE SCIENCES 103 6.6 PARALLELE PROGRAMMIERUNG, ALGORITHMEN UND METHODEN 106 6.7 KOOPERATIONEN 111 7 AUSBILDUNGSBETRIEB UND PRAKTIKA 113 7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 113 7.2 PRAKTIKA 114 8 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 115 9 VERANSTALTUNGEN 117 10 PUBLIKATIONEN 118 TEIL III BEREICH MATHEMATIK UND NATURWISSENSCHAFTEN 125 BEREICH GEISTES UND SOZIALWISSENSCHAFTEN 151 BEREICH INGENIEURWISSENSCHAFTEN 177 BEREICH BAU UND UMWELT 189 BEREICH MEDIZIN 223 ZENTRALE UNIVERSITÄTSVERWALTUNG 23

    Jahresbericht 2012 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV-KOMMISSION 15 MITGLIEDER DER DV-KOMMISSION 15 ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN-IP-Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 28 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck-Kopierer-Netz 32 2.2.5 Wireless Local Area Network (WLAN) 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 34 2.2.7 Vertrag „Kommunikationsverbindungen der SĂ€chsischen Hochschulen“ 34 2.2.8 Datennetz zu den Wohnheimstandorten 36 2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 39 2.3.1 Electronic-Mail 39 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 40 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 41 2.3.1.4 Web-Mail 41 2.3.1.5 Mailinglisten-Server 42 2.3.2 Groupware 42 2.3.3 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 43 2.3.3.1 AAI fĂŒr das Bildungsportal Sachsen 43 2.3.3.2 DFN PKI 43 2.3.4 WĂ€hlzugĂ€nge 43 2.3.5 Sprachdienste ISDN und VoIP 43 2.3.6 Kommunikationstrassen und Uhrennetz 46 2.3.7 Time-Service 46 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 BENUTZERBERATUNG (BB) 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 48 3.4 LOGIN-SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 50 3.6 STORAGE-MANAGEMENT 51 3.6.1 Backup-Service 51 3.6.2 File-Service und Speichersysteme 55 3.7 LIZENZ-SERVICE 57 3.8 PERIPHERIE-SERVICE 57 3.9 PC-POOLS 57 3.10 SECURITY 58 3.10.1 Informationssicherheit 58 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 59 3.10.3 VPN 59 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 60 3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 60 3.11 DRESDEN SCIENCE CALENDAR 60 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV SYSTEME 63 4.1 ALLGEMEINES 63 4.2 PC-SUPPORT 63 4.2.1 Investberatung 63 4.2.2 Implementierung 63 4.2.3 Instandhaltung 63 4.3 MICROSOFT WINDOWS-SUPPORT 64 4.3.1 Zentrale Windows-DomĂ€ne 64 4.3.2 Sophos-Antivirus 70 4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FÜR DIE TU DRESDEN 70 4.4.1 Strategie der Software-Beschaffung 70 4.4.2 ArbeitsgruppentĂ€tigkeit 71 4.4.3 Software-Beschaffung 71 4.4.4 Nutzerberatungen 72 4.4.5 Software-PrĂ€sentationen 72 5 HOCHLEISTUNGSRECHNEN 73 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 73 5.1.1 HRSK Core-Router 74 5.1.2 HRSK SGI Altix 4700 74 5.1.3 HRSK PetaByte-Bandarchiv 76 5.1.4 HRSK Linux Networx PC-Farm 77 5.1.5 Datenauswertekomponente Atlas 77 5.1.6 Globale Home-File-Systeme fĂŒr HRSK 78 5.2 NUTZUNGSÜBERSICHT DER HPC-SERVER 79 5.3 SPEZIALRESSOURCEN 79 5.3.1 Microsoft HPC-System 79 5.3.1 Anwendercluster Triton 80 5.3.3 GPU-Cluster 81 5.4 GRID-RESSOURCEN 81 5.5 ANWENDUNGSSOFTWARE 83 5.6 VISUALISIERUNG 84 5.7 PARALLELE PROGRAMMIERWERKZEUGE 85 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 87 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 87 6.1.1 Überblick 87 6.1.2 VideokonferenzrĂ€ume 87 6.1.3 Aufgaben und Entwicklungsarbeiten 87 6.1.4 Weitere AktivitĂ€ten 89 6.1.5 Der Dienst „DFNVideoConference“ − Mehrpunktkonferenzen im X-WiN 90 6.1.6 Tendenzen und Ausblicke 91 6.2 D-GRID 91 6.2.1 D-Grid Scheduler InteroperabilitĂ€t (DGSI) 91 6.2.2 EMI − European Middleware Initiative 92 6.2.3 MoSGrid − Molecular Simulation Grid 92 6.2.4 WisNetGrid −Wissensnetzwerke im Grid 93 6.2.5 GeneCloud − Cloud Computing in der Medikamentenentwicklung fĂŒr kleinere und mittlere Unternehmen 93 6.2.6 FutureGrid − An Experimental High-Performance Grid Testbed 94 6.3 BIOLOGIE 94 6.3.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 94 6.3.2 SpaceSys − RĂ€umlichzeitliche Dynamik in der Systembiologie 95 6.3.3 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95 6.3.4 SFB Transregio 79−Werkstoffentwicklungen fĂŒr die Hartgewebe regeneration im gesunden und systemisch erkrankten Knochen 96 6.3.5 Virtuelle Leber − Raumzeitlich mathematische Modelle zur Untersuchung der Hepatozyten PolaritĂ€t und ihre Rolle in der Lebergewebeentwicklung 96 6.3.6 GrowReg −Wachstumsregulation und Strukturbildung in der Regeneration 96 6.3.7 GlioMath Dresden 97 6.4 PERFORMANCE EVALUIERUNG 97 6.4.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 97 6.4.2 SFB 912 − Highly Adaptive Energy Efficient Computing (HAEC), Teilprojekt A04: Anwendungsanalyse auf Niedrig Energie HPC Systemence Low Energy Computer 98 6.4.3 BenchIT − Performance Measurement for Scientific Applications 99 6.4.4 Cool Computing −Technologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99 6.4.5 Cool Computing 2 −Technologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 100 6.4.6 ECCOUS − Effiziente und offene Compiler Umgebung fĂŒr semantisch annotierte parallele Simulationen 100 6.4.7 eeClust − Energieeffizientes Cluster Computing 101 6.4.8 GASPI − Global Adress Space Programming 101 6.4.9 LMAC − Leistungsdynamik massiv paralleler Codes 102 6.4.10 H4H – Optimise HPC Applications on Heterogeneous Architectures 102 6.4.11 HOPSA − HOlistic Performance System Analysis 102 6.4.12 CRESTA − Collaborative Research into Exascale Systemware, Tools and Application 103 6.5 DATENINTENSIVES RECHNEN 104 6.5.1 Langzeitarchivierung digitaler Dokumente der SLUB 104 6.5.2 LSDMA − Large Scale Data Management and Analysis 104 6.5.3 Radieschen − Rahmenbedingungen einer disziplinĂŒbergreifenden Forschungsdaten Infrastruktur 105 6.5.4 SIOX − Scalable I/O for Extreme Performance 105 6.5.5 HPC FLiS − HPC Framework zur Lösung inverser Streuprobleme auf strukturierten Gittern mittels Manycore Systemen und Anwendung fĂŒr 3D bildgebende Verfahren 105 6.5.6 NGSgoesHPC − Skalierbare HPC Lösungen zur effizienten Genomanalyse 106 6.6 KOOPERATIONEN 106 6.6.1 100 Gigabit Testbed Dresden/Freiberg 106 6.6.1.1 Überblick 106 6.6.1.2 Motivation und Maßnahmen 107 6.6.1.3 Technische Umsetzung 107 6.6.1.4 Geplante Arbeitspakete 108 6.6.2 Center of Excellence der TU Dresden und der TU Bergakademie Freiberg 109 7 AUSBILDUNGSBETRIEB UND PRAKTIKA 111 7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 111 7.2 PRAKTIKA 112 8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 113 9 VERANSTALTUNGEN 115 10 PUBLIKATIONEN 117 TEIL III BERICHTE BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) ZENTRUM FÜR REGENERATIVE THERAPIEN (CRTD) ZENTRUM FÜR INNOVATIONSKOMPETENZ (CUBE) 123 BOTANISCHER GARTEN 129 LEHRZENTRUM SPRACHEN UND KULTURRÄUME (LSK) 131 MEDIENZENTRUM (MZ) 137 UNIVERSITÄTSARCHIV (UA) 147 UNIVERSITÄTSSPORTZENTRUM (USZ) 149 MEDIZINISCHES RECHENZENTRUM DES UNIVERSITÄTSKLINIKUMS CARL GUSTAV CARUS (MRZ) 151 ZENTRALE UNIVERSITÄTSVERWALTUNG (ZUV) 155 SÄCHSISCHE LANDESBIBLIOTHEK – STAATS UND UNIVERSITÄTSBIBLIOTHEK DRESDEN (SLUB) 16

    Runtime Verification of Real-Time Applications Using Trace Data and Model Requirements

    Get PDF
    RÉSUMÉ Surveiller les systĂšmes multi-cƓurs est difficile en raison des processus s'exĂ©cutant en parallĂšle, et pouvant interfĂ©rer les uns avec les autres lorsqu'il s'agit d'accĂ©der aux ressources du systĂšme, ou simplement d'avoir du temps processeur. Un tel systĂšme peut avoir Ă  suivre des principes temps rĂ©el, ajoutant des contraintes de temps qui invalident les rĂ©sultats dĂšs qu'une date limite est manquĂ©e. Sur ce genre de systĂšme, des donnĂ©es prĂ©cises n'auront ainsi de valeur que si elles peuvent ĂȘtre produites en respectant un dĂ©lai donnĂ©. Le traçage peut fournir une grande quantitĂ© d'informations d'exĂ©cution de haute prĂ©cision, Ă  la fois sur le systĂšme et les applications. Il est ainsi souvent l'outil le plus prĂ©cis et fiable pour Ă©tudier et analyser des systĂšmes ainsi contraints. Cependant, les utilisateurs doivent disposer d'une grande expertise du systĂšme afin de comprendre les Ă©vĂšnements du noyau du systĂšme et leur signification. De plus, il peut ĂȘtre trĂšs long d'analyser et Ă©tudier manuellement de volumineuses traces d'exĂ©cution de haute prĂ©cision. Dans cette thĂšse, nous proposons les mĂ©thodes et algorithmes permettant d'automatiquement dĂ©tecter et identifier l'origine de comportements inattendus dans des applications, et ce Ă  l'aide de traces de leurs exĂ©cutions et de modĂšles des exigences. Nous dĂ©crivons la structure interne des modĂšles, la mĂ©thodologie pour suivre l'exĂ©cution d'une application Ă  travers ses Ă©vĂšnements de l'espace utilisateur, et les structures de donnĂ©es nĂ©cessaires pour vĂ©rifier les contraintes. Nous dĂ©taillons ensuite le processus utilisĂ© pour dĂ©tecter et finalement comprendre la source du comportement non dĂ©sirĂ©. Nous proposons aussi une approche pour construire automatiquement les modĂšles pour des applications temps rĂ©el courantes. L'hypothĂšse servant de point de dĂ©part pour ce travail est que les traces d'exĂ©cution du systĂšme et de l'application Ă  analyser peuvent ĂȘtre utilisĂ©es pour automatiquement suivre l'exĂ©cution de cette application, y dĂ©tecter les anomalies et trouver leurs sources. Les rĂ©sultats de ce travail sont les concepts, mĂ©thodologies et structures de donnĂ©es utilisĂ©s pour suivre et contraindre des applications, ainsi que les mĂ©thodes et algorithmes qui permettent de dĂ©tecter et identifier les comportements inattendus dans ces applications. Ces derniers ont Ă©tĂ© testĂ©s sur de rĂ©elles applications temps rĂ©el, et ont permis avec succĂšs de dĂ©tecter et identifier l'origine des irrĂ©gularitĂ©s Ă  leur exĂ©cution. De plus, nous avons pu automatiquement, et de façon prĂ©cise, construire des modĂšles pour ces applications. Cette derniĂšre Ă©tape rend l'utilisation des mĂ©thodes de traçage beaucoup plus accessible aux utilisateurs non-experts. Le rĂ©sultat final est que la dĂ©tection automatique et la localisation automatique de la source des comportements inattendus dans une application est une option viable et fonctionnelle, qui accĂ©lĂšre et simplifie le travail des utilisateurs pour analyser les exĂ©cutions de leurs applications.----------ABSTRACT Monitoring multi-core systems is hard because of the concurrently running processes that can contend with each other to access resources of the system or CPU time. Such a system may have to follow real-time principles, adding time constraints that invalidate results as soon as a deadline is missed. This means that accurate data will only be valuable if it can be produced in a timely fashion. Tracing is often the most accurate and reliable tool to study and analyze those systems, as it can provide a lot of high precision runtime information about both the system and applications. Nevertheless, a deep level of expertise of the system is required in order for the users to understand the kernel events and their meaning. Moreover, it can be time consuming to manually analyze and study voluminous high precision execution traces. In this thesis, we propose methods and algorithms to automatically detect and identify the origin of unwanted behaviors in applications, by using traces of their execution and models of the requirements. We describe the internal structure of the models, the methodology to follow an application runtime through its userspace events, and the data structures needed to verify constraints. We then detail the process followed to detect and finally understand the root cause of the unwanted behavior. We also propose an approach to automatically build the models for common real-time applications. The hypothesis serving as starting point for this work is that execution traces of both the system and the application to analyze can be used to automatically follow this application's execution, detect its anomalies and find their root causes. The results of this work are the concepts, methodologies and data structures used to follow and constrain applications, as well as the methods and algorithms allowing to detect and identify unexpected behaviors in those applications. These have been applied on actual real-time applications and succeeded in detecting and identifying the root causes of the irregularities in their runtime. Moreover, we were able to automatically and accurately build models for those applications, making it even easier for non-expert users to take advantage of tracing methods. The final result is that automatically detecting and pinpointing the origin of unwanted behaviors, in an application, is a valid and interesting option, making it faster and easier for users to analyze executions of their applications

    Jahresbericht 2011 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV-KOMMISSION 15 MITGLIEDER DER DV-KOMMISSION 15 ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN-IP-Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck-Kopierer-Netz 32 2.2.5 Wireless Local Area Network (WLAN) 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 32 2.2.7 Vertrag „Kommunikationsverbindungen der SĂ€chsischen Hochschulen“ 33 2.2.8 Datennetz zu den Wohnheimstandorten 38 2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 39 2.3.1 Electronic-Mail 39 2.3.2 Groupware 42 2.3.3 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 42 2.3.4 WĂ€hlzugĂ€nge 43 2.3.5 Sprachdienste ISDN und VoIP 43 2.3.6 Kommunikationstrassen und Uhrennetz 46 2.3.7 Time-Service 46 3 ZENTRALE DIENSTANGEBOTE UND SERVER 49 3.1 BENUTZERBERATUNG (BB) 49 3.2 TROUBLE TICKET SYSTEM (OTRS) 49 3.3 NUTZERMANAGEMENT 50 3.4 LOGIN-SERVICE 52 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 52 3.6 STORAGE-MANAGEMENT 53 3.6.1 Backup-Service 53 3.6.2 File-Service und Speichersysteme 56 3.7 LIZENZ-SERVICE 57 3.8 PERIPHERIE-SERVICE 57 3.9 PC-POOLS 57 3.10 SECURITY 58 3.10.1 Informationssicherheit 58 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 59 3.10.3 VPN 59 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 60 3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 60 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV-SYSTEME 61 4.1 ALLGEMEINES 61 4.2 PC-SUPPORT 61 4.2.1 Investberatung 61 4.2.2 Implementierung 61 4.2.3 Instandhaltung 61 4.3 MICROSOFT WINDOWS-SUPPORT 62 4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FÜR DIE TU DRESDEN 6 4.4.1 Strategie der Software-Beschaffung 67 4.4.2 ArbeitsgruppentĂ€tigkeit 67 4.4.3 Software-Beschaffung 68 4.4.4 Nutzerberatungen 69 4.4.5 Software-PrĂ€sentationen 69 5 HOCHLEISTUNGSRECHNEN 71 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 71 5.1.1 HRSK Core-Router 72 5.1.2 HRSK SGI Altix 4700 72 5.1.3 HRSK PetaByte-Bandarchiv 74 5.1.4 HRSK Linux Networx PC-Farm 75 5.1.5 Globale Home-File-Systeme fĂŒr HRSK 77 5.2 NUTZUNGSÜBERSICHT DER HPC-SERVER 77 5.3 SPEZIALRESSOURCEN 77 5.3.1 NEC SX-6 78 5.3.2 Microsoft HPC-System 78 5.3.3 Anwendercluster Triton 79 5.3.4 GPU-Cluster 79 5.4 GRID-RESSOURCEN 79 5.5 ANWENDUNGSSOFTWARE 81 5.6 VISUALISIERUNG 82 5.7 PARALLELE PROGRAMMIERWERKZEUGE 83 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 85 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 85 6.1.1 Überblick 85 6.1.2 VideokonferenzrĂ€ume 85 6.1.3 Aufgaben und Entwicklungsarbeiten 85 6.1.4 Weitere AktivitĂ€ten 87 6.1.5 Der Dienst „DFNVideoConference“ − Mehrpunktkonferenzen im G-WiN 88 6.1.6 Tendenzen und Ausblicke 89 6.2 D-GRID 89 6.2.1 D-Grid Scheduler InteroperabilitĂ€t (DGSI) 89 6.2.2 EMI − European Middleware Initiative 90 6.2.3 MoSGrid − Molecular Simulation Grid 90 6.2.4 WisNetGrid −Wissensnetzwerke im Grid 91 6.2.5 GeneCloud − Cloud Computing in der Medikamentenentwicklung fĂŒr kleinere und mittlere Unternehmen 91 6.2.6 FutureGrid − An Experimental High-Performance Grid Testbed 92 6.3 BIOLOGIE 92 6.3.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 92 6.3.2 SpaceSys − RĂ€umlich-zeitliche Dynamik in der Systembiologie 92 6.3.3 Biologistik − Von bio-inspirierter Logistik zum logistik-inspirierten Bio-Nano-Engineering 93 6.3.4 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 93 6.3.5 SFB Transregio 79−Werkstoffentwicklungen fĂŒr die Hartgeweberegeneration im gesunden und systemisch erkrankten Knochen 94 6.3.6 Virtuelle Leber − Raumzeitlich mathematische Modelle zur Untersuchung der Hepatozyten-PolaritĂ€t und ihre Rolle in der Lebergewebeentwicklung 94 6.3.7 GrowReg −Wachstumsregulation und Strukturbildung in der Regeneration 95 6.4 PERFORMANCE EVALUIERUNG 95 6.4.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD-Strömungen 95 6.4.2 SFB 912 − Highly Adaptive Energy-Efficient Computing (HAEC), Teilprojekt A04: Anwendungsanalyse auf Niedrig-Energie HPCSystemence - Low Energy Computer 96 6.4.3 BenchIT − Performance Measurement for Scientific Applications 97 6.4.4 VI-HPS − Virtuelles Institut - HPS 97 6.4.5 Cool Computing −Technologien fĂŒr Energieeffiziente Computing-Plattformen (BMBF-Spitzencluster Cool Silicon) 97 6.4.6 eeClust − Energieeffizientes Cluster-Computing 98 6.4.7 GASPI- Global Adress Space Programming 98 6.4.8 HI-CFD − Hocheffiziente Implementierung von CFD-Codes fĂŒr HPC-Many-Core-Architekturen 99 6.4.9 SILC − Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 99 6.4.10 LMAC − Leistungsdynamik massiv-paralleler Codes 100 6.4.11 TIMaCS − Tools for Intelligent System Mangement of Very Large Computing Systems 100 6.4.12 H4H – Optimise HPC Applications on Heterogeneous Architectures 100 6.4.13 HOPSA − HOlistic Performance System Analysis 101 6.4.14 CRESTA − Collaborative Research into Exascale Systemware, Tools and Application 101 6.5 DATENINTENSIVES RECHNEN 102 6.5.1 Radieschen - Rahmenbedingungen einer disziplinĂŒbergreifenden Forschungsdaten-Infrastruktur 102 6.5.2 SIOX - Scalable I/O for Extreme Performance 102 6.5.3 HPC-FLiS - HPC-Framework zur Lösung inverser Streuprobleme auf strukturierten Gittern mittels Manycore-Systemen und Anwendung fĂŒr 3D-bildgebende Verfahren 103 6.5.4 NGSgoesHPC - Skalierbare HPC-Lösungen zur effizienten Genomanalyse 103 6.6 KOOPERATIONEN 104 6.6.1 100-Gigabit-Testbed Dresden/Freiberg 104 6.6.2 Center of Excellence der TU Dresden und der TU Bergakademie Freiberg 107 7 DOIT - INTEGRIERTES INFORMATIONSMANAGEMENT 109 7.1 IDENTITÄTSMANAGEMENT 109 7.2 KOOPERATION MIT DER UNIVERSITÄT LEIPZIG 110 7.3 BESCHAFFUNGSVERFAHREN 111 7.4 EINFÜHRUNGSPROJEKT 111 7.5 ÜBERGANGSLÖSUNG VERZEICHNISDIENST 111 7.5 KONTAKT 111 8 TUDO - TU DRESDEN OPTIMIEREN 113 8.1 AUFBAU DES PROJEKTES TUDO 113 8.2 ZEITPLAN DES PROJEKTES TUDO 114 8.3 WESENTLICHE ERGEBNISSE DES PROJEKTES TUDO 115 9 AUSBILDUNGSBETRIEB UND PRAKTIKA 117 9.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 117 9.2 PRAKTIKA 118 10 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 119 11 VERANSTALTUNGEN 121 12 PUBLIKATIONEN 123 TEIL III FAKULTÄT MATHEMATIK UND NATURWISSENSCHAFTEN 129 Fachrichtung Mathematik 129 Fachrichtung Physik 133 Fachrichtung Chemie und Lebensmittelchemie 137 Fachrichtung Psychologie 143 Fachrichtung Biologie 147 PHILOSOPHISCHE FAKULTÄT 153 FAKULTÄT SPRACH-, KULTUR- UND LITERATURWISSENSCHAFTEN 155 FAKULTÄT ERZIEHUNGSWISSENSCHAFTEN 157 JURISTISCHE FAKULTÄT 161 FAKULTÄT WIRTSCHAFTSWISSENSCHAFTEN 163 FAKULTÄT INFORMATIK 171 FAKULTÄT BAUINGENIEURWESEN 177 FAKULTÄT ARCHITEKTUR 185 FAKULTÄT VERKEHRSWISSENSCHAFTEN „FRIEDIRCH LIST“ 189 FAKULTÄT FORST-, GEO- HYDROWISSENSCHAFTEN 201 Fachrichtung Forstwissenschaften 201 Fachrichtung Geowissenschaften 205 MEDIZINISCHE FAKULTÄT CARL GUSTAV CARUS 211 BOTANISCHER GARTEN 21

    Constructing Mobile Agents using Transformations

    Get PDF
    Although mobile agents are widely accepted as a useful and elegant way to develop software for distributed systems, they are not widely-used. One of the main reasons for this is the lack of provable and manageable protection of an agent platform. We present a working prototype of a mobile agent programming and execution environment based on term graph transformation and the strongly typed functional programming language Haskell. The well-understood type system of Haskell can be used to guarantee that a mobile agent cannot do arbitrary I/O on an agent platform. Therefore the mobile agent migrates as Haskell source code and is type-checked on each platform. The services a platform offers to a mobile agent are encapsulated in so-called possibly-provided functions (PPFs). A PPF is a function that returns a value of type Maybe a for arbitrary a. A PPF need not be available on all platforms. If it is not available, it will be temporarily replaced with a function returning the value Nothing of type Maybe a by a preprocessor on the agent platform. In order to be able to replace a PPF, the Haskell code is encapsulated in a list of code fragments. A strongly typed mobile agent which consists of one complex function with a complex parameter which has to be encapsulated in a list of code fragments is a very awkward piece of software. The complex parameter is the data part of the mobile agent and is called its suitcase. Conventional programming using a normal text editor is not feasible. Therefore we use the Higher Object Programming System HOPS, a graphically interactive program development and transformation system based on term graphs, for developing a mobile agent. When using HOPS we have the ability to define an easy-to-use domain-specific language for mobile agents and to derive the necessary shape of the mobile agent code using term graph transformation. Not only the encapsulation into the code fragment data type can be automated, but also the complex suitcase can be generated automatically from small manageable pieces. With this thesis we demonstrate that the combination of a strongly typed functional language and a development process which is aided by term graph transformation together with our concept of PPFs is a very well suited approach towards a fully-fledged mobile agent system.Obwohl mobile Agenten weitestgehend akzeptiert wurden als nĂŒtzliche und elegante Art Software fĂŒr verteilte Systeme zu entwicklen, werden sie kaum eingesetzt. Einer der HauptgrĂŒnde dafĂŒr ist das Fehlen eines beweisbaren und beherrschbaren Schutzmechanismus fĂŒr eine Agentenplattform. Wir prĂ€sentieren mit dieser Arbeit einen funktionstĂŒchtigen Prototyp einer Programmier- und AusfĂŒhrungsumgebung fĂŒr mobile Agenten basierend auf Termgraph Transformation und der rein funktionalen Programmiersprache Haskell. Das Typsystem von Haskell kann garantieren, dass ein mobiler Agent keine beliebigen E/A Aktionen auf einer Agentenplattform ausfĂŒhren kann. Um es zu nutzen migriert der mobile Agent asl Haskell Quellcode und der Typ wird auf jeder Agentenplattform ĂŒberprĂŒft. Die Dienste die eine Agentenplattform den mobilen Agenten zur VerfĂŒgung stellt, sind in sogennannte possibly-provided functions (PPFs) gekapselt. Eine PPF ist eine Funktion die einen Wert vom Typ Maybe a fĂŒr ein beliebiges a zurĂŒckliefert. Eine PPF muß nicht auf jeder Plattform vorhanden sein. Wenn die PPF nicht vorhanden ist, wird sie temporĂ€r von einem PrĂ€prozessor durch eine Funktion die den Wert Nothing liefert ersetzt. Um eine solche Ersetzung möglich zu machen, wurde der Haskell code in eine Liste sogenannter Code Fragmente eingebettet. Ein streng typisierter mobiler Agent der aus einer komplexen Funktion mit einem komplexen Parameter besteht, die in eine Liste von Code Fragmenten eingebettet werden muß, ist ein schwierig zu handhabendes StĂŒck Software. Der komplexe Parameter ist der Datenteil des mobilen Agenten und wird Suitcase genannt. Herkömmliche Programmierung mit einem gewöhnlichen Texteditor ist nicht praktikabel. Aus diesem Grunde nutzen wir das Higher Object Programming System HOPS, ein graphisches, interaktives Programmentwicklungs- und -transformationssystem basierend auf Termgraphen, fĂŒr die Entwicklung eines mobilen Agenten. Durch die Verwendung von HOPS ist es möglich eine einfach zu nutzende Domain-Specific Language fĂŒr mobile Agenten zu definieren und mittels Termgraph Transformation die benötigte Form daraus herzuleiten. Neben der Einbettung des mobile Agenten in die Liste der Code Fragmente kann der komplexe Suitcase aus kleinen, ĂŒberschaubaren Teilen generiert werden. Mit dieser Arbeit haben wir gezeigt, dass die Kombination einer streng typisierten, funktionalen Programmiersprache und einem Softwareentwicklungsprozess der durch Termgraph Transformation unterstĂŒtzt wird, zusammen mit unserem Konzept der PPFs, ein sehr gut geeigneter Ansatz in Richtung eines vollwertigen System fĂŒr mobile Agenten ist
    corecore