18 research outputs found
LIKWID Monitoring Stack: A flexible framework enabling job specific performance monitoring for the masses
System monitoring is an established tool to measure the utilization and
health of HPC systems. Usually system monitoring infrastructures make no
connection to job information and do not utilize hardware performance
monitoring (HPM) data. To increase the efficient use of HPC systems automatic
and continuous performance monitoring of jobs is an essential component. It can
help to identify pathological cases, provides instant performance feedback to
the users, offers initial data to judge on the optimization potential of
applications and helps to build a statistical foundation about application
specific system usage. The LIKWID monitoring stack is a modular framework build
on top of the LIKWID tools library. It aims on enabling job specific
performance monitoring using HPM data, system metrics and application-level
data for small to medium sized commodity clusters. Moreover, it is designed to
integrate in existing monitoring infrastructures to speed up the change from
pure system monitoring to job-aware monitoring.Comment: 4 pages, 4 figures. Accepted for HPCMASPA 2017, the Workshop on
Monitoring and Analysis for High Performance Computing Systems Plus
Applications, held in conjunction with IEEE Cluster 2017, Honolulu, HI,
September 5, 201
Ditto: Towards Decentralised Similarity Search for Web3 Services
The Web has become an integral part of life, and over the past decade, it has become increasingly centralised, leading to a number of challenges such as censorship and control, particularly in search engines. Recently, the paradigm of the decentralised Web (DWeb), or Web3, has emerged, which aims to provide decentralised alternatives to current systems with decentralised control, transparency, and openness. In this paper we introduce Ditto, a decentralised search mechanism for DWeb content, based on similarity search. Ditto uses locality sensitive hashing (LSH) to extract similarity signatures and records from content, which are stored on a decentralised index on top of a distributed hash table (DHT). Ditto uniquely supports numerous underlying content networks and types, and supports various use-cases, including keyword-search. Our evaluation shows that our system is feasible and that our search quality, delay, and overhead are comparable to those currently accepted by users of DWeb and search systems
Online Analysis of Dynamic Streaming Data
Die Arbeit zum Thema "Online Analysis of Dynamic Streaming Data" beschĂ€ftigt sich mit der Distanzmessung dynamischer, semistrukturierter Daten in kontinuierlichen Datenströmen um Analysen auf diesen Datenstrukturen bereits zur Laufzeit zu ermöglichen. Hierzu wird eine Formalisierung zur Distanzberechnung fĂŒr statische und dynamische BĂ€ume eingefĂŒhrt und durch eine explizite Betrachtung der Dynamik von Attributen einzelner Knoten der BĂ€ume ergĂ€nzt. Die Echtzeitanalyse basierend auf der Distanzmessung wird durch ein dichte-basiertes Clustering ergĂ€nzt, um eine Anwendung des Clustering, einer Klassifikation, aber auch einer Anomalieerkennung zu demonstrieren.
Die Ergebnisse dieser Arbeit basieren auf einer theoretischen Analyse der eingefĂŒhrten Formalisierung von Distanzmessungen fĂŒr dynamische BĂ€ume. Diese Analysen werden unterlegt mit empirischen Messungen auf Basis von Monitoring-Daten von Batchjobs aus dem Batchsystem des GridKa Daten- und Rechenzentrums. Die Evaluation der vorgeschlagenen Formalisierung sowie der darauf aufbauenden Echtzeitanalysemethoden zeigen die Effizienz und Skalierbarkeit des Verfahrens. Zudem wird gezeigt, dass die Betrachtung von Attributen und Attribut-Statistiken von besonderer Bedeutung fĂŒr die QualitĂ€t der Ergebnisse von Analysen dynamischer, semistrukturierter Daten ist. AuĂerdem zeigt die Evaluation, dass die QualitĂ€t der Ergebnisse durch eine unabhĂ€ngige Kombination mehrerer Distanzen weiter verbessert werden kann. Insbesondere wird durch die Ergebnisse dieser Arbeit die Analyse sich ĂŒber die Zeit verĂ€ndernder Daten ermöglicht
Jahresbericht 2013 zur kooperativen DV-Versorgung
:Vorwort
ĂBERSICHT DER INSERENTEN 12
TEIL I
ZUR ARBEIT DER DV-KOMMISSION 15
ZUR ARBEIT DES ERWEITERTEN IT-LENKUNGSAUSSCHUSSES 16
ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.2 NETZWERKINFRASTRUKTUR 27
2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 37
3 ZENTRALE DIENSTANGEBOTE UND SERVER 47
3.1 SERVICE DESK 47
3.2 TROUBLE TICKET SYSTEM (OTRS) 48
3.3 NUTZERMANAGEMENT 49
3.4 LOGIN-SERVICE 50
3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51
3.6 STORAGE-MANAGEMENT 51
3.7 LIZENZ-SERVICE 57
3.8 PERIPHERIE-SERVICE 58
3.9 PC-POOLS 58
3.10 SECURITY 59
3.11 DRESDEN SCIENCE CALENDAR 60
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV-SYSTEME 63
4.1 ALLGEMEINES 63
4.2 INVESTBERATUNG 63
4.3 PC SUPPORT 63
4.4 MICROSOFT WINDOWS-SUPPORT 64
4.5 ZENTRALE SOFTWARE-BESCHAFFUNG FĂR DIE TU DRESDEN 70
5 HOCHLEISTUNGSRECHNEN 73
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK-II) 73
5.2 NUTZUNGSĂBERSICHT DER HPC-SERVER 80
5.3 SPEZIALRESSOURCEN 81
5.4 GRID-RESSOURCEN 82
5.5 ANWENDUNGSSOFTWARE 84
5.6 VISUALISIERUNG 85
5.7 PARALLELE PROGRAMMIERWERKZEUGE 86
6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 89
6.1 âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ (VCCIV) 89
6.2 SKALIERBARE SOFTWARE-WERKZEUGE ZUR UNTERSTĂTZUNG DER ANWENDUNGSOPTIMIERUNG AUF HPC-SYSTEMEN 94
6.3 LEISTUNGS- UND ENERGIEEFFIZIENZ-ANALYSE FĂR INNOVATIVE RECHNERARCHITEKTUREN 96
6.4 DATENINTENSIVES RECHNEN, VERTEILTES RECHNEN UND CLOUD COMPUTING 100
6.5 DATENANALYSE, METHODEN UND MODELLIERUNG IN DEN LIFE SCIENCES 103
6.6 PARALLELE PROGRAMMIERUNG, ALGORITHMEN UND METHODEN 106
6.7 KOOPERATIONEN 111
7 AUSBILDUNGSBETRIEB UND PRAKTIKA 113
7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 113
7.2 PRAKTIKA 114
8 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 115
9 VERANSTALTUNGEN 117
10 PUBLIKATIONEN 118
TEIL III
BEREICH MATHEMATIK UND NATURWISSENSCHAFTEN 125
BEREICH GEISTES UND SOZIALWISSENSCHAFTEN 151
BEREICH INGENIEURWISSENSCHAFTEN 177
BEREICH BAU UND UMWELT 189
BEREICH MEDIZIN 223
ZENTRALE UNIVERSITĂTSVERWALTUNG 23
Recommended from our members
Ditto: Towards Decentralised Similarity Search for Web3 Services
The Web has become an integral part of life, and over the past decade, it has become increasingly centralised, leading to a number of challenges such as censorship and control, particularly in search engines. Recently, the paradigm of the decentralised Web (DWeb), or Web3, has emerged, which aims to provide decentralised alternatives to current systems with decentralised control, transparency, and openness. In this paper we introduce Ditto, a decentralised search mechanism for DWeb content, based on similarity search. Ditto uses locality sensitive hashing (LSH) to extract similarity signatures and records from content, which are stored on a decentralised index on top of a distributed hash table (DHT). Ditto uniquely supports numerous underlying content networks and types, and supports various use-cases, including keyword-search. Our evaluation shows that our system is feasible and that our search quality, delay, and overhead are comparable to those currently accepted by users of DWeb and search systems
Jahresbericht 2012 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 10
TEIL I
ZUR ARBEIT DER DV-KOMMISSION 15
MITGLIEDER DER DV-KOMMISSION 15
ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN-IP-Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 28
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck-Kopierer-Netz 32
2.2.5 Wireless Local Area Network (WLAN) 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 34
2.2.7 Vertrag âKommunikationsverbindungen der SĂ€chsischen Hochschulenâ 34
2.2.8 Datennetz zu den Wohnheimstandorten 36
2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 39
2.3.1 Electronic-Mail 39
2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 40
2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41
2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 41
2.3.1.4 Web-Mail 41
2.3.1.5 Mailinglisten-Server 42
2.3.2 Groupware 42
2.3.3 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 43
2.3.3.1 AAI fĂŒr das Bildungsportal Sachsen 43
2.3.3.2 DFN PKI 43
2.3.4 WÀhlzugÀnge 43
2.3.5 Sprachdienste ISDN und VoIP 43
2.3.6 Kommunikationstrassen und Uhrennetz 46
2.3.7 Time-Service 46
3 ZENTRALE DIENSTANGEBOTE UND SERVER 47
3.1 BENUTZERBERATUNG (BB) 47
3.2 TROUBLE TICKET SYSTEM (OTRS) 48
3.3 NUTZERMANAGEMENT 48
3.4 LOGIN-SERVICE 50
3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 50
3.6 STORAGE-MANAGEMENT 51
3.6.1 Backup-Service 51
3.6.2 File-Service und Speichersysteme 55
3.7 LIZENZ-SERVICE 57
3.8 PERIPHERIE-SERVICE 57
3.9 PC-POOLS 57
3.10 SECURITY 58
3.10.1 Informationssicherheit 58
3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 59
3.10.3 VPN 59
3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 60
3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 60
3.11 DRESDEN SCIENCE CALENDAR 60
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV SYSTEME 63
4.1 ALLGEMEINES 63
4.2 PC-SUPPORT 63
4.2.1 Investberatung 63
4.2.2 Implementierung 63
4.2.3 Instandhaltung 63
4.3 MICROSOFT WINDOWS-SUPPORT 64
4.3.1 Zentrale Windows-DomÀne 64
4.3.2 Sophos-Antivirus 70
4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FĂR DIE TU DRESDEN 70
4.4.1 Strategie der Software-Beschaffung 70
4.4.2 ArbeitsgruppentÀtigkeit 71
4.4.3 Software-Beschaffung 71
4.4.4 Nutzerberatungen 72
4.4.5 Software-PrÀsentationen 72
5 HOCHLEISTUNGSRECHNEN 73
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 73
5.1.1 HRSK Core-Router 74
5.1.2 HRSK SGI Altix 4700 74
5.1.3 HRSK PetaByte-Bandarchiv 76
5.1.4 HRSK Linux Networx PC-Farm 77
5.1.5 Datenauswertekomponente Atlas 77
5.1.6 Globale Home-File-Systeme fĂŒr HRSK 78
5.2 NUTZUNGSĂBERSICHT DER HPC-SERVER 79
5.3 SPEZIALRESSOURCEN 79
5.3.1 Microsoft HPC-System 79
5.3.1 Anwendercluster Triton 80
5.3.3 GPU-Cluster 81
5.4 GRID-RESSOURCEN 81
5.5 ANWENDUNGSSOFTWARE 83
5.6 VISUALISIERUNG 84
5.7 PARALLELE PROGRAMMIERWERKZEUGE 85
6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 87
6.1 âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ (VCCIV) 87
6.1.1 Ăberblick 87
6.1.2 VideokonferenzrÀume 87
6.1.3 Aufgaben und Entwicklungsarbeiten 87
6.1.4 Weitere AktivitÀten 89
6.1.5 Der Dienst âDFNVideoConferenceâ â Mehrpunktkonferenzen im X-WiN 90
6.1.6 Tendenzen und Ausblicke 91
6.2 D-GRID 91
6.2.1 D-Grid Scheduler InteroperabilitÀt (DGSI) 91
6.2.2 EMI â European Middleware Initiative 92
6.2.3 MoSGrid â Molecular Simulation Grid 92
6.2.4 WisNetGrid âWissensnetzwerke im Grid 93
6.2.5 GeneCloud â Cloud Computing in der Medikamentenentwicklung
fĂŒr kleinere und mittlere Unternehmen 93
6.2.6 FutureGrid â An Experimental High-Performance Grid Testbed 94
6.3 BIOLOGIE 94
6.3.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 94
6.3.2 SpaceSys â RĂ€umlichzeitliche Dynamik in der Systembiologie 95
6.3.3 ZebraSim â Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95
6.3.4 SFB Transregio 79âWerkstoffentwicklungen fĂŒr die Hartgewebe regeneration im gesunden und systemisch erkrankten Knochen 96
6.3.5 Virtuelle Leber â Raumzeitlich mathematische Modelle zur Untersuchung
der Hepatozyten PolaritÀt und ihre Rolle in der Lebergewebeentwicklung 96
6.3.6 GrowReg âWachstumsregulation und Strukturbildung in der Regeneration 96
6.3.7 GlioMath Dresden 97
6.4 PERFORMANCE EVALUIERUNG 97
6.4.1 SFB 609 â Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie âTeilprojekt A1: Numerische
Modellierung turbulenter MFD Strömungen 97
6.4.2 SFB 912 â Highly Adaptive Energy Efficient Computing (HAEC), Teilprojekt A04: Anwendungsanalyse auf Niedrig Energie HPC Systemence Low Energy Computer 98
6.4.3 BenchIT â Performance Measurement for Scientific Applications 99
6.4.4 Cool Computing âTechnologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99
6.4.5 Cool Computing 2 âTechnologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 100
6.4.6 ECCOUS â Effiziente und offene Compiler Umgebung fĂŒr semantisch annotierte parallele Simulationen 100
6.4.7 eeClust â Energieeffizientes Cluster Computing 101
6.4.8 GASPI â Global Adress Space Programming 101
6.4.9 LMAC â Leistungsdynamik massiv paralleler Codes 102
6.4.10 H4H â Optimise HPC Applications on Heterogeneous Architectures 102
6.4.11 HOPSA â HOlistic Performance System Analysis 102
6.4.12 CRESTA â Collaborative Research into Exascale Systemware, Tools and Application 103
6.5 DATENINTENSIVES RECHNEN 104
6.5.1 Langzeitarchivierung digitaler Dokumente der SLUB 104
6.5.2 LSDMA â Large Scale Data Management and Analysis 104
6.5.3 Radieschen â Rahmenbedingungen einer disziplinĂŒbergreifenden Forschungsdaten Infrastruktur 105
6.5.4 SIOX â Scalable I/O for Extreme Performance 105
6.5.5 HPC FLiS â HPC Framework zur Lösung inverser Streuprobleme auf strukturierten Gittern mittels Manycore Systemen und Anwendung fĂŒr 3D bildgebende Verfahren 105
6.5.6 NGSgoesHPC â Skalierbare HPC Lösungen zur effizienten Genomanalyse 106
6.6 KOOPERATIONEN 106
6.6.1 100 Gigabit Testbed Dresden/Freiberg 106
6.6.1.1 Ăberblick 106
6.6.1.2 Motivation und MaĂnahmen 107
6.6.1.3 Technische Umsetzung 107
6.6.1.4 Geplante Arbeitspakete 108
6.6.2 Center of Excellence der TU Dresden und der TU Bergakademie Freiberg 109
7 AUSBILDUNGSBETRIEB UND PRAKTIKA 111
7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 111
7.2 PRAKTIKA 112
8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 113
9 VERANSTALTUNGEN 115
10 PUBLIKATIONEN 117
TEIL III
BERICHTE
BIOTECHNOLOGISCHES ZENTRUM (BIOTEC)
ZENTRUM FĂR REGENERATIVE THERAPIEN (CRTD)
ZENTRUM FĂR INNOVATIONSKOMPETENZ (CUBE) 123
BOTANISCHER GARTEN 129
LEHRZENTRUM SPRACHEN UND KULTURRĂUME (LSK) 131
MEDIENZENTRUM (MZ) 137
UNIVERSITĂTSARCHIV (UA) 147
UNIVERSITĂTSSPORTZENTRUM (USZ) 149
MEDIZINISCHES RECHENZENTRUM DES UNIVERSITĂTSKLINIKUMS CARL GUSTAV CARUS (MRZ) 151
ZENTRALE UNIVERSITĂTSVERWALTUNG (ZUV) 155
SĂCHSISCHE LANDESBIBLIOTHEK â STAATS UND UNIVERSITĂTSBIBLIOTHEK DRESDEN (SLUB) 16
Runtime Verification of Real-Time Applications Using Trace Data and Model Requirements
RĂSUMĂ
Surveiller les systĂšmes multi-cĆurs est difficile en raison des processus s'exĂ©cutant en parallĂšle, et pouvant interfĂ©rer les uns avec les autres lorsqu'il s'agit d'accĂ©der aux ressources du systĂšme, ou simplement d'avoir du temps processeur. Un tel systĂšme peut avoir Ă suivre des principes temps rĂ©el, ajoutant des contraintes de temps qui invalident les rĂ©sultats dĂšs qu'une date limite est manquĂ©e. Sur ce genre de systĂšme, des donnĂ©es prĂ©cises n'auront ainsi de valeur que si elles peuvent ĂȘtre produites en respectant un dĂ©lai donnĂ©. Le traçage peut fournir une grande quantitĂ© d'informations d'exĂ©cution de haute prĂ©cision, Ă la fois sur le systĂšme et les applications. Il est ainsi souvent l'outil le plus prĂ©cis et fiable pour Ă©tudier et analyser des systĂšmes ainsi contraints. Cependant, les utilisateurs doivent disposer d'une grande expertise du systĂšme afin de comprendre les Ă©vĂšnements du noyau du systĂšme et leur signification. De plus, il peut ĂȘtre trĂšs long d'analyser et Ă©tudier manuellement de volumineuses traces d'exĂ©cution de haute prĂ©cision.
Dans cette thÚse, nous proposons les méthodes et algorithmes permettant d'automatiquement détecter et identifier l'origine de comportements inattendus dans des applications, et ce à l'aide de traces de leurs exécutions et de modÚles des exigences. Nous décrivons la structure interne des modÚles, la méthodologie pour suivre l'exécution d'une application à travers ses évÚnements de l'espace utilisateur, et les structures de données nécessaires pour vérifier les contraintes. Nous détaillons ensuite le processus utilisé pour détecter et finalement comprendre la source du comportement non désiré. Nous proposons aussi une approche pour construire automatiquement les modÚles pour des applications temps réel courantes.
L'hypothĂšse servant de point de dĂ©part pour ce travail est que les traces d'exĂ©cution du systĂšme et de l'application Ă analyser peuvent ĂȘtre utilisĂ©es pour automatiquement suivre l'exĂ©cution de cette application, y dĂ©tecter les anomalies et trouver leurs sources.
Les résultats de ce travail sont les concepts, méthodologies et structures de données utilisés pour suivre et contraindre des applications, ainsi que les méthodes et algorithmes qui permettent de détecter et identifier les comportements inattendus dans ces applications. Ces derniers ont été testés sur de réelles applications temps réel, et ont permis avec succÚs de détecter et identifier l'origine des irrégularités à leur exécution. De plus, nous avons pu automatiquement, et de façon précise, construire des modÚles pour ces applications. Cette derniÚre étape rend l'utilisation des méthodes de traçage beaucoup plus accessible aux utilisateurs non-experts.
Le résultat final est que la détection automatique et la localisation automatique de la source des comportements inattendus dans une application est une option viable et fonctionnelle, qui accélÚre et simplifie le travail des utilisateurs pour analyser les exécutions de leurs applications.----------ABSTRACT
Monitoring multi-core systems is hard because of the concurrently running processes that can contend with each other to access resources of the system or CPU time. Such a system may have to follow real-time principles, adding time constraints that invalidate results as soon as a deadline is missed. This means that accurate data will only be valuable if it can be produced in a timely fashion. Tracing is often the most accurate and reliable tool to study and analyze those systems, as it can provide a lot of high precision runtime information about both the system and applications. Nevertheless, a deep level of expertise of the system is required in order for the users to understand the kernel events and their meaning. Moreover, it can be time consuming to manually analyze and study voluminous high precision execution traces.
In this thesis, we propose methods and algorithms to automatically detect and identify the origin of unwanted behaviors in applications, by using traces of their execution and models of the requirements. We describe the internal structure of the models, the methodology to follow an application runtime through its userspace events, and the data structures needed to verify constraints. We then detail the process followed to detect and finally understand the root cause of the unwanted behavior. We also propose an approach to automatically build the models for common real-time applications.
The hypothesis serving as starting point for this work is that execution traces of both the system and the application to analyze can be used to automatically follow this application's execution, detect its anomalies and find their root causes.
The results of this work are the concepts, methodologies and data structures used to follow and constrain applications, as well as the methods and algorithms allowing to detect and identify unexpected behaviors in those applications. These have been applied on actual real-time applications and succeeded in detecting and identifying the root causes of the irregularities in their runtime. Moreover, we were able to automatically and accurately build models for those applications, making it even easier for non-expert users to take advantage of tracing methods.
The final result is that automatically detecting and pinpointing the origin of unwanted behaviors, in an application, is a valid and interesting option, making it faster and easier for users to analyze executions of their applications
Jahresbericht 2011 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 10
TEIL I
ZUR ARBEIT DER DV-KOMMISSION 15
MITGLIEDER DER DV-KOMMISSION 15
ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN-IP-Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 27
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck-Kopierer-Netz 32
2.2.5 Wireless Local Area Network (WLAN) 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 32
2.2.7 Vertrag âKommunikationsverbindungen der SĂ€chsischen Hochschulenâ 33
2.2.8 Datennetz zu den Wohnheimstandorten 38
2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 39
2.3.1 Electronic-Mail 39
2.3.2 Groupware 42
2.3.3 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 42
2.3.4 WÀhlzugÀnge 43
2.3.5 Sprachdienste ISDN und VoIP 43
2.3.6 Kommunikationstrassen und Uhrennetz 46
2.3.7 Time-Service 46
3 ZENTRALE DIENSTANGEBOTE UND SERVER 49
3.1 BENUTZERBERATUNG (BB) 49
3.2 TROUBLE TICKET SYSTEM (OTRS) 49
3.3 NUTZERMANAGEMENT 50
3.4 LOGIN-SERVICE 52
3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 52
3.6 STORAGE-MANAGEMENT 53
3.6.1 Backup-Service 53
3.6.2 File-Service und Speichersysteme 56
3.7 LIZENZ-SERVICE 57
3.8 PERIPHERIE-SERVICE 57
3.9 PC-POOLS 57
3.10 SECURITY 58
3.10.1 Informationssicherheit 58
3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 59
3.10.3 VPN 59
3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 60
3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 60
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV-SYSTEME 61
4.1 ALLGEMEINES 61
4.2 PC-SUPPORT 61
4.2.1 Investberatung 61
4.2.2 Implementierung 61
4.2.3 Instandhaltung 61
4.3 MICROSOFT WINDOWS-SUPPORT 62
4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FĂR DIE TU DRESDEN 6
4.4.1 Strategie der Software-Beschaffung 67
4.4.2 ArbeitsgruppentÀtigkeit 67
4.4.3 Software-Beschaffung 68
4.4.4 Nutzerberatungen 69
4.4.5 Software-PrÀsentationen 69
5 HOCHLEISTUNGSRECHNEN 71
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 71
5.1.1 HRSK Core-Router 72
5.1.2 HRSK SGI Altix 4700 72
5.1.3 HRSK PetaByte-Bandarchiv 74
5.1.4 HRSK Linux Networx PC-Farm 75
5.1.5 Globale Home-File-Systeme fĂŒr HRSK 77
5.2 NUTZUNGSĂBERSICHT DER HPC-SERVER 77
5.3 SPEZIALRESSOURCEN 77
5.3.1 NEC SX-6 78
5.3.2 Microsoft HPC-System 78
5.3.3 Anwendercluster Triton 79
5.3.4 GPU-Cluster 79
5.4 GRID-RESSOURCEN 79
5.5 ANWENDUNGSSOFTWARE 81
5.6 VISUALISIERUNG 82
5.7 PARALLELE PROGRAMMIERWERKZEUGE 83
6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 85
6.1 âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ (VCCIV) 85
6.1.1 Ăberblick 85
6.1.2 VideokonferenzrÀume 85
6.1.3 Aufgaben und Entwicklungsarbeiten 85
6.1.4 Weitere AktivitÀten 87
6.1.5 Der Dienst âDFNVideoConferenceâ â Mehrpunktkonferenzen im G-WiN 88
6.1.6 Tendenzen und Ausblicke 89
6.2 D-GRID 89
6.2.1 D-Grid Scheduler InteroperabilitÀt (DGSI) 89
6.2.2 EMI â European Middleware Initiative 90
6.2.3 MoSGrid â Molecular Simulation Grid 90
6.2.4 WisNetGrid âWissensnetzwerke im Grid 91
6.2.5 GeneCloud â Cloud Computing in der Medikamentenentwicklung fĂŒr kleinere und mittlere Unternehmen 91
6.2.6 FutureGrid â An Experimental High-Performance Grid Testbed 92
6.3 BIOLOGIE 92
6.3.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 92
6.3.2 SpaceSys â RĂ€umlich-zeitliche Dynamik in der Systembiologie 92
6.3.3 Biologistik â Von bio-inspirierter Logistik zum logistik-inspirierten Bio-Nano-Engineering 93
6.3.4 ZebraSim â Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 93
6.3.5 SFB Transregio 79âWerkstoffentwicklungen fĂŒr die Hartgeweberegeneration im gesunden und systemisch erkrankten Knochen 94
6.3.6 Virtuelle Leber â Raumzeitlich mathematische Modelle zur Untersuchung der Hepatozyten-PolaritĂ€t und ihre Rolle in der Lebergewebeentwicklung 94
6.3.7 GrowReg âWachstumsregulation und Strukturbildung in der Regeneration 95
6.4 PERFORMANCE EVALUIERUNG 95
6.4.1 SFB 609 â Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie âTeilprojekt A1: Numerische Modellierung turbulenter MFD-Strömungen 95
6.4.2 SFB 912 â Highly Adaptive Energy-Efficient Computing (HAEC),
Teilprojekt A04: Anwendungsanalyse auf Niedrig-Energie HPCSystemence - Low Energy Computer 96
6.4.3 BenchIT â Performance Measurement for Scientific Applications 97
6.4.4 VI-HPS â Virtuelles Institut - HPS 97
6.4.5 Cool Computing âTechnologien fĂŒr Energieeffiziente Computing-Plattformen (BMBF-Spitzencluster Cool Silicon) 97
6.4.6 eeClust â Energieeffizientes Cluster-Computing 98
6.4.7 GASPI- Global Adress Space Programming 98
6.4.8 HI-CFD â Hocheffiziente Implementierung von CFD-Codes fĂŒr HPC-Many-Core-Architekturen 99
6.4.9 SILC â Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 99
6.4.10 LMAC â Leistungsdynamik massiv-paralleler Codes 100
6.4.11 TIMaCS â Tools for Intelligent System Mangement of Very Large Computing Systems 100
6.4.12 H4H â Optimise HPC Applications on Heterogeneous Architectures 100
6.4.13 HOPSA â HOlistic Performance System Analysis 101
6.4.14 CRESTA â Collaborative Research into Exascale Systemware, Tools and Application 101
6.5 DATENINTENSIVES RECHNEN 102
6.5.1 Radieschen - Rahmenbedingungen einer disziplinĂŒbergreifenden Forschungsdaten-Infrastruktur 102
6.5.2 SIOX - Scalable I/O for Extreme Performance 102
6.5.3 HPC-FLiS - HPC-Framework zur Lösung inverser Streuprobleme auf strukturierten Gittern mittels Manycore-Systemen und Anwendung fĂŒr
3D-bildgebende Verfahren 103
6.5.4 NGSgoesHPC - Skalierbare HPC-Lösungen zur effizienten Genomanalyse 103
6.6 KOOPERATIONEN 104
6.6.1 100-Gigabit-Testbed Dresden/Freiberg 104
6.6.2 Center of Excellence der TU Dresden und der TU Bergakademie Freiberg 107
7 DOIT - INTEGRIERTES INFORMATIONSMANAGEMENT 109
7.1 IDENTITĂTSMANAGEMENT 109
7.2 KOOPERATION MIT DER UNIVERSITĂT LEIPZIG 110
7.3 BESCHAFFUNGSVERFAHREN 111
7.4 EINFĂHRUNGSPROJEKT 111
7.5 ĂBERGANGSLĂSUNG VERZEICHNISDIENST 111
7.5 KONTAKT 111
8 TUDO - TU DRESDEN OPTIMIEREN 113
8.1 AUFBAU DES PROJEKTES TUDO 113
8.2 ZEITPLAN DES PROJEKTES TUDO 114
8.3 WESENTLICHE ERGEBNISSE DES PROJEKTES TUDO 115
9 AUSBILDUNGSBETRIEB UND PRAKTIKA 117
9.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG
ANWENDUNGSENTWICKLUNG 117
9.2 PRAKTIKA 118
10 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 119
11 VERANSTALTUNGEN 121
12 PUBLIKATIONEN 123
TEIL III
FAKULTĂT MATHEMATIK UND NATURWISSENSCHAFTEN 129
Fachrichtung Mathematik 129
Fachrichtung Physik 133
Fachrichtung Chemie und Lebensmittelchemie 137
Fachrichtung Psychologie 143
Fachrichtung Biologie 147
PHILOSOPHISCHE FAKULTĂT 153
FAKULTĂT SPRACH-, KULTUR- UND LITERATURWISSENSCHAFTEN 155
FAKULTĂT ERZIEHUNGSWISSENSCHAFTEN 157
JURISTISCHE FAKULTĂT 161
FAKULTĂT WIRTSCHAFTSWISSENSCHAFTEN 163
FAKULTĂT INFORMATIK 171
FAKULTĂT BAUINGENIEURWESEN 177
FAKULTĂT ARCHITEKTUR 185
FAKULTĂT VERKEHRSWISSENSCHAFTEN âFRIEDIRCH LISTâ 189
FAKULTĂT FORST-, GEO- HYDROWISSENSCHAFTEN 201
Fachrichtung Forstwissenschaften 201
Fachrichtung Geowissenschaften 205
MEDIZINISCHE FAKULTĂT CARL GUSTAV CARUS 211
BOTANISCHER GARTEN 21
Constructing Mobile Agents using Transformations
Although mobile agents are widely accepted as a useful and elegant way to develop software for distributed systems, they are not widely-used. One of the main reasons for this is the lack of provable and manageable protection of an agent platform. We present a working prototype of a mobile agent programming and execution environment based on term graph transformation and the strongly typed functional programming language Haskell. The well-understood type system of Haskell can be used to guarantee that a mobile agent cannot do arbitrary I/O on an agent platform. Therefore the mobile agent migrates as Haskell source code and is type-checked on each platform. The services a platform offers to a mobile agent are encapsulated in so-called possibly-provided functions (PPFs). A PPF is a function that returns a value of type Maybe a for arbitrary a. A PPF need not be available on all platforms. If it is not available, it will be temporarily replaced with a function returning the value Nothing of type Maybe a by a preprocessor on the agent platform. In order to be able to replace a PPF, the Haskell code is encapsulated in a list of code fragments. A strongly typed mobile agent which consists of one complex function with a complex parameter which has to be encapsulated in a list of code fragments is a very awkward piece of software. The complex parameter is the data part of the mobile agent and is called its suitcase. Conventional programming using a normal text editor is not feasible. Therefore we use the Higher Object Programming System HOPS, a graphically interactive program development and transformation system based on term graphs, for developing a mobile agent. When using HOPS we have the ability to define an easy-to-use domain-specific language for mobile agents and to derive the necessary shape of the mobile agent code using term graph transformation. Not only the encapsulation into the code fragment data type can be automated, but also the complex suitcase can be generated automatically from small manageable pieces. With this thesis we demonstrate that the combination of a strongly typed functional language and a development process which is aided by term graph transformation together with our concept of PPFs is a very well suited approach towards a fully-fledged mobile agent system.Obwohl mobile Agenten weitestgehend akzeptiert wurden als nĂŒtzliche und elegante Art Software fĂŒr verteilte Systeme zu entwicklen, werden sie kaum eingesetzt. Einer der HauptgrĂŒnde dafĂŒr ist das Fehlen eines beweisbaren und beherrschbaren Schutzmechanismus fĂŒr eine Agentenplattform. Wir prĂ€sentieren mit dieser Arbeit einen funktionstĂŒchtigen Prototyp einer Programmier- und AusfĂŒhrungsumgebung fĂŒr mobile Agenten basierend auf Termgraph Transformation und der rein funktionalen Programmiersprache Haskell. Das Typsystem von Haskell kann garantieren, dass ein mobiler Agent keine beliebigen E/A Aktionen auf einer Agentenplattform ausfĂŒhren kann. Um es zu nutzen migriert der mobile Agent asl Haskell Quellcode und der Typ wird auf jeder Agentenplattform ĂŒberprĂŒft. Die Dienste die eine Agentenplattform den mobilen Agenten zur VerfĂŒgung stellt, sind in sogennannte possibly-provided functions (PPFs) gekapselt. Eine PPF ist eine Funktion die einen Wert vom Typ Maybe a fĂŒr ein beliebiges a zurĂŒckliefert. Eine PPF muĂ nicht auf jeder Plattform vorhanden sein. Wenn die PPF nicht vorhanden ist, wird sie temporĂ€r von einem PrĂ€prozessor durch eine Funktion die den Wert Nothing liefert ersetzt. Um eine solche Ersetzung möglich zu machen, wurde der Haskell code in eine Liste sogenannter Code Fragmente eingebettet. Ein streng typisierter mobiler Agent der aus einer komplexen Funktion mit einem komplexen Parameter besteht, die in eine Liste von Code Fragmenten eingebettet werden muĂ, ist ein schwierig zu handhabendes StĂŒck Software. Der komplexe Parameter ist der Datenteil des mobilen Agenten und wird Suitcase genannt. Herkömmliche Programmierung mit einem gewöhnlichen Texteditor ist nicht praktikabel. Aus diesem Grunde nutzen wir das Higher Object Programming System HOPS, ein graphisches, interaktives Programmentwicklungs- und -transformationssystem basierend auf Termgraphen, fĂŒr die Entwicklung eines mobilen Agenten. Durch die Verwendung von HOPS ist es möglich eine einfach zu nutzende Domain-Specific Language fĂŒr mobile Agenten zu definieren und mittels Termgraph Transformation die benötigte Form daraus herzuleiten. Neben der Einbettung des mobile Agenten in die Liste der Code Fragmente kann der komplexe Suitcase aus kleinen, ĂŒberschaubaren Teilen generiert werden. Mit dieser Arbeit haben wir gezeigt, dass die Kombination einer streng typisierten, funktionalen Programmiersprache und einem Softwareentwicklungsprozess der durch Termgraph Transformation unterstĂŒtzt wird, zusammen mit unserem Konzept der PPFs, ein sehr gut geeigneter Ansatz in Richtung eines vollwertigen System fĂŒr mobile Agenten ist