32 research outputs found
Auf dem Weg zur individualisierten Medizin - Grid-basierte Services fĂŒr die EPA der Zukunft.
Personalized Medicine is of paramount interest for many areas in Medical Informatics. Therefore genotype data as well a phenotype data about patients have to be available. This data will be stored in Electronic Health Records or â patient controlled - in Personal Health Records. As the amount of (raw) data is rising continuously, methods for a secure data administration have to be found. Grid Services offer data storage, can support data retrieval and the presentation of the data. The basic security services could be provided by the German health professional infrastructure, but there are many security challenges to be faced
ZIH-Info
- ZIH-Info ...
- Hochleistungsrechner mit achtfacher Leistung
- BMBF fördert "D-Grid-Initiative"
- "Pixelsex" live in Rotterdam
- EinfĂŒhrung einheitlicher Mail-Adressen
- NAG Campuslizenz
- ZIH-Publikationen
- Veranstaltungen und Termin
The German Grid Initiative
Diese Publikation bietet eine detaillierte Ăbersicht ĂŒber den derzeitigen Stand der D-Grid-Projektlandschaft. Dabei bilden nachhaltige strategische Forschungs- und EntwicklungsaktivitĂ€ten im universitĂ€ren und industriellen Umfeld einen Schwerpunkt
Jahresbericht 2008 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 10
TEIL I
ZUR ARBEIT DER DV KOMMISSION 15
MITGLIEDER DER DV KOMMISSION 15
ZUR ARBEIT DES LENKUNGSAUSSCHUSSES FĂR DAS ZIH 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 18
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN IP Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 27
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck Kopierer Netz 32
2.2.5 Funk LAN (WLAN) 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 33
2.2.7 Datennetz zu den Wohnheimstandorten 38
2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 39
2.3.1 Electronic Mail 39
2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 42
2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 42
2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 43
2.3.1.4 Web-Mail 43
2.3.1.5 Neuer Mailinglisten-Server 43
2.3.2 WWW 44
2.3.3 Authentifizierung und Autorisierung (AAI) 46
2.3.3.1 Shibboleth 47
2.3.4 WÀhlzugÀnge 47
2.3.5 Time Service 47
3 ZENTRALE DIENSTANGEBOTE UND SERVER 49
3.1 BENUTZERBERATUNG (BB) 49
3.2 TROUBLE TICKET SYSTEM (TTS) 50
3.3 NUTZER MANAGEMENT 51
3.4 LOGIN SERVICE 53
3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 53
3.6 STORAGE MANAGEMENT 54
3.6.1 Backup Service 54
3.6.2 File Service und Speichersysteme 56
3.7 LIZENZ SERVICE 57
3.8 PERIPHERIE SERVICE 57
3.9 PC POOLS 57
3.10 SECURITY 59
3.10.1 IT Sicherheit 59
3.10.2 DFN PKI 59
3.10.3 VPN 59
3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 59
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV SYSTEME 61
4.1 ALLGEMEINES 61
4.2 PC SUPPORT 61
4.2.1 Investberatung 61
4.2.2 Implementierung 61
4.2.3 Instandhaltung 61
4.3 MICROSOFT WINDOWS SUPPORT 62
4.4 ZENTRALE SOFTWARE BESCHAFFUNG FĂR DIE TU DRESDEN 71
4.4.1 ArbeitsgruppentÀtigkeit 71
4.4.2 Strategie des Software Einsatzes an der TU Dresden 71
4.4.3 Software Beschaffung 72
5 HOCHLEISTUNGSRECHNEN 73
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 73
5.1.1 HRSK Core Router 74
5.1.2 HRSK SGI Altix 4700 74
5.1.3 HRSK PetaByte Bandarchiv 76
5.1.4 HRSK Linux Networx PC Farm 77
5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 79
5.2 NUTZUNGSĂBERSICHT DER HPC SERVER 79
5.3 SPEZIALRESSOURCEN 80
5.3.1 SGI Origin 3800 80
5.3.2 NEC SX 6 81
5.3.3 Anwendercluster 82
5.4 GRID RESSOURCEN 82
5.5 ANWENDUNGSSOFTWARE 84
5.6 VISUALISIERUNG 84
5.7 PERFORMANCE TOOLS 86
6 WISSENSCHAFTLICHE KOOPERATION, PROJEKTE 87
6.1 âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ 87
6.1.1 Ăberblick 87
6.1.2 Umbau der RĂ€ume des VCC 87
6.1.3 Aufgaben und Entwicklungsarbeiten 87
6.1.4 Weitere AktivitÀten 89
6.1.5 Der Dienst âDFNVideoConferenceâ Mehrpunktkonferenzen im G WiN 90
6.1.6 Tendenzen und Ausblicke 91
6.2 D GRID 92
6.2.1 Hochenergiephysik Community Grid (HEP CG) - Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e Science Umgebung 92
6.2.2 MediGRID - Ressourcefusion fĂŒr Medizin und Lebenswissenschaften 92
6.2.3 D Grid Integrationsprojekt 93
6.2.4 Chemomentum 93
6.3 BIOLOGIE 94
6.3.1 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 94
6.3.2 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 94
6.3.3 Verbundsystem EndoSys: Modellierung der Rolle von Rab DomÀnen bei Endozytose und Signalverarbeitung in Hepatocyten 95
6.3.4 ZebraSim: Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95
6.3.5 Ladenburger Kolleg BioLogistik: Vom bio inspirierten Engineering komplexer logistischer Systeme bis zur âNanoLogistikâ 96
6.3.6 RĂ€umlich zeitliche Dynamik in der Systembiologie 96
6.4 PERFORMANCE EVALUIERUNG 97
6.4.1 SFB 609: Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie Teilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 97
6.4.2 BenchIT: Performance Measurement for Scientific Applications 97
6.4.3 Parallel Programming for Multi core Architectures â ParMA 98
6.4.4 VI HPS: Virtuelles Institut â HPS 99
6.4.5 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 99
6.4.6 Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maĂge schneiderten Transporteigenschaften 100
6.4.7 Designing self organized adaptive services for open source internet telephony over p2p networks 100
7 AUSBILDUNGSBETRIEB UND PRAKTIKA 103
7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG
ANWENDUNGSENTWICKLUNG 103
7.2 PRAKTIKA 104
8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 105
9 VERANSTALTUNGEN 107
10 PUBLIKATIONEN 109
TEIL III
BERICHTE DER ZENTRALEN EINRICHTUNGEN
BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) 115
BOTANISCHER GARTEN 119
LEHRZENTRUM SPRACHEN UND KULTURRĂUME (LSK) 121
MEDIENZENTRUM (MZ) 125
UNIVERSITĂTSARCHIV 135
BERICHT DER ZENTRALEN UNIVERSITĂTSVERWALTUNG 137
BERICHT DES MEDIZINISCHEN RECHENZENTRUMS DES UNIVERSITĂTSKLINIKUMS CARL GUSTAV CARUS 139
SĂCHSISCHE LANDESBIBLIOTHEK â STAATS UND UNIVERSITĂTSBIBLIOTHEK DRESDEN 14
Production-Grid: Task-Farming in D-Grid
Die D-Grid Initiative stellt Bundesweit derzeit >30.000 Rechencores insgesamt 36 Community-Projekten zur VerfĂŒgung. Insgesamt wurden bisher in 3 âCallsâ und mehreren Infrastruktursonderinvestitionen ca. 134 Millionen Euro investiert. Auf den Resourcen laufen mehrere sogenannte Middlewares. Die Auslastung der Ressourcen die mithilfe der Middleware Globus benutzt werden (~70% der total installierten Leistung) betrĂ€gt praktisch mittlerweile 100%. Im wesentlichen nutzen zwei Usecases diese Resourcen zu ca. 98%: Im astrophysikalischen Bereich sind dies Gravitationswellenanalysen mittels der einstein@home-Jobs vom Max-Planck-Institut fĂŒr Gravitationsphysik Albert-Einstein-Institut (AEI) und sowie Genomanalysen der Biophysikalischen Genomik, BioQuant/DKFZ. Beide nehmen derzeit mehr als 150.000 CPU-Stunden auf den Globus-Ressourcen im D-Grid auf. Vom wissenschaftlichen Standpunkt sind diese Rechnungen und Analysen von groĂer Bedeutung wie sich an der ansteigenden Zahl an Publikationen zeigt. Hinter den zwei hierbei verwendeten Nutzerkennungen verbergen sich dabei mehrere Nutzer die durch A. Beck-Ratzka und T. A. Knoch in Kooperationsprojekten gebĂŒndelt sind, die entweder einzelne Applikationen und/oder ganze Pipelinesysteme benutzen. Dazu gehören auch Nutzer die u.a. in nationalen, europĂ€ischen bzw. internationalen Konsortien fĂŒr den Informatikpart zustĂ€ndig sind. Im astrophysikalischen Fall handelt es sich dabei um 10 Nutzer/Projekte, im biomedizinischen Fall sind dies international mittlerweile ca. 200 Nutzer/Projekte (180 hierbei durch die Nutzung einer sog. Assoziation Pipeline, die von Ă€uĂerst wichtiger diagnostischer Relevanz ist). Die StĂ€rkung des Standorts Deutschland durch die erfolgreiche Nutzung im Produktionsbetrieb hat einerseits die Machbarkeit einer funktionierenden Grid-Infrastruktur fĂŒr die Globus Ressourcen-Betreiber gezeigt und andererseits durch die Schaffung wissenschaftlich hoch-relevanter Ergebnisse zu einer damit verbundenen forschungspolitischen StĂ€rkung gefĂŒhrt. Beides kann nicht hoch genug eingeschĂ€tzt werden, da beide Usecases vor allem auch im internationalen Vergleich eine herausragende Stellung einehmen â faktisch gehören sie mittlerweile zu den gröĂten Nutzern von Rechenzeit weltweit.
Der groĂe Erfolg der zwei Usecases Gravitationswellenanalyse und Genomanalyse hat die Ressourcen bezĂŒglich der Globus basierten Infrastruktur zu nahezu 100% ausgeschöpft Er basiert auf unabhĂ€ngig voneinander entwickelten Komponenten, welche die Middleware in eine produktive Umgebung integrieren, und damit ein Produktionsgrid erst ermöglichen. Dies ist einzigartig im D-Grid-Umfeld. Die PersonalkapatzitĂ€t von A. Beck-Ratzka und T. A. Knoch sind aufgrund der UnterstĂŒtzungsanforderungen von weiteren/neuen Nutzern zu 100% ausgereizt. Folglich stoĂen wir in Bezug auf i) Rechenzeit fĂŒr unsere eigenen Projekte sowie die neuer Nutzer, ii) die UnterstĂŒtzung und Anwerbung neuer Nutzer, sowie iii) entsprechenden UnterstĂŒtzung beim Management in Hinblick auf Daten Sicherheits/Vertraulichkeit, SLAs und Coaching, an die Grenze unserer bisher existierenden Möglichkeiten. Die entsprechende Projektanforderungen bezĂŒglich Rechenleistung sind klar durch die entsprechenden Projekterfolge gegeben, d.h. dass ĂŒber die Laufzeit der D-Grid Infrastruktur bis 2014 massive Anforderungen ĂŒber den bisher fĂŒr uns zugĂ€nglichen Rahmen hinaus bestehen. Anfragen von neuen Nutzer gibt es von 10 weiteren im astrophysikalischen (Berliner Raum) und 50-60 weiteren im biomedizinischen Bereich (Raum Heidelberg), die uns als verlĂ€Ăliche bzw. erfahrene Garanten fĂŒr erfolgreiche Hoch-Durchsatz Gridnutzung ansehen, aber entsprechende UnterstĂŒtzung brauchen. ZusĂ€tzlich gibt es auch Anfragen von mehreren nationalen und internationalen VerbĂŒnden, die genau solche Komponenten wie die unsrigen sofort benutzen wĂŒrden. DarĂŒberhinaus besteht in diesem Zusammenhang der Bedarf an weiteren Lösungen im Datensicherheits- und Vertraulichkeits-Bereich, die durch diese Bereiche konkret angefordert werden, was mit entsprechendem Coaching und Management einhergehen muss und immer wieder von uns eingefordert wird. Wir sind fest davon ĂŒberzeugt, dass mit dem im folgenden beschriebenen Vorschlag nicht nur diese FlaschenhĂ€lse beseitigt werden können, sondern auch die Nachhaltigeit und damit der Erfolg des gesamten D-Grid Projektes massiv gestĂ€rkt werden kann!
Ein weiterer Aspekt der produktiven Usecases ist, dass erst mit diesen die Grid-Ressourcen richtig fĂŒr den Produktionsbetrieb getestet werden können. Die Problematik im DGUS-Ticket 853 beispielsweise ist ein Problem, dass erst durch produktive Usecases aufgedeckt wird Die Globus basierten Grid-Ressourcen im D-Grid sind durch die beiden produktiven Usecases Gravitationswellenanalyse und Genomanalyse stabiler geworden. Durch die in im Rahmen dieses Projektes geplante Erweiterung der Usecases auf gLite- und Unicore-Ressourcen wĂŒrden auch die Betreiber dieser Ressourcen enorm profitieren, weil es damit auf diesen Ressourcen zu einem Produktionsbetrieb kommen wĂŒrde
Jahresbericht 2006 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 12
TEIL I
ZUR ARBEIT DER DV-KOMMISSION 15
MITGLIEDER DER DV-KOMMISSION 15
ZUR ARBEIT DES LENKUNGSAUSSCHUSSES FĂR DAS ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND
HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN-IP-Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 27
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck-Kopierer-Netz 32
2.2.5 Funk-LAN (WLAN) 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 33
2.2.7 Datennetz zu den Wohnheimstandorten 36
2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 38
2.3.1 Electronic-Mail 38
2.3.1.1 EinfĂŒhrung einheitlicher E-Mail-Adressen an der TU Dresden 39
2.3.1.2 EinfĂŒhrung funktionsbezogener TU-Mail-Adressen 40
2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 40
2.3.1.4 Web-Mail 41
2.3.2 WWW 41
2.3.3 WÀhlzugÀnge 43
2.2.4 Time-Service 43
3 ZENTRALE DIENSTANGEBOTE UND SERVER 45
3.1 BENUTZERBERATUNG (BB) 45
3.2 TROUBLE TICKET SYSTEM (TTS) 45
3.3 NUTZERMANAGEMENT 46
3.4 LOGIN-SERVICE 47
3.5 STORAGE-MANAGEMENT 47
3.5.1 Backup-Service 50
3.5.2 File-Service 52
3.6 LIZENZ-SERVICE 54
3.7 PERIPHERIE-SERVICES 54
3.8 PC-POOLS 55
3.9 SECURITY 56
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV-SYSTEME 59
4.1 ALLGEMEINES 59
4.2 PC-SUPPORT 59
4.2.1 Investberatung 59
4.2.2 Implementierung 59
4.2.3 Instandhaltung 59
4.2.4 Notebook-Ausleihe 60
4.3 MICROSOFT WINDOWS-SUPPORT 60
4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FĂR DIE TU DRESDEN 66
4.4.1 ArbeitsgruppentÀtigkeit 66
4.4.2 Strategie des Software-Einsatzes an der TU Dresden 67
4.4.3 Software-Beschaffung 67
5 HOCHLEISTUNGSRECHNEN 75
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 75
5.1.1 HRSK-Neubau 76
5.1.2 SGI Altix 3700 (Stufe 1a) 76
5.1.3 SGI Altix 4700 77
5.1.4 Linux Networx PC-Farm (Stufe 1a) 78
5.1.5 Linux Networx PC-Farm 79
5.2 NUTZUNGSĂBERSICHT DER COMPUTE-SERVER 80
5.2.1 SGI Origin 3800 82
5.2.2 NEC SX6i 82
5.2.3 SGI Origin 2800 83
5.2.4 Anwender-Cluster 84
5.3 BIODATENBANKEN-SERVICE 84
5.4 ANWENDUNGSSOFTWARE 85
5.5 VISUALISIERUNG 85
5.6 PERFORMANCE TOOLS 86
6 WISSENSCHAFTLICHE KOOPERATION, PROJEKTE 89
6.1. DAS PROJEKT âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ 89
6.1.1 Ăberblick 89
6.1.2 Aufgaben und Entwicklungsarbeiten 89
6.1.3 Neuer Webauftritt 91
6.1.4 Weitere AktivitÀten 91
6.1.5 Der Dienst âDFNVideoConferenceâ - Mehrpunktkonferenzen im G-WiN 92
6.1.6 Tendenzen und Ausblicke 93
6.2 D-GRID 93
6.2.1 Hochenergiephysik Community Grid (HEP CG) - Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e-Science-Umgebung 93
6.2.2 MediGRID - Ressourcefusion fĂŒr Medizin und Lebenswissenschaften 94
6.2.3 D-Grid Integrationsprojekt 94
6.2.4 Chemomentum 95
6.3 BIOLOGIE 95
6.3.1 BISON (Biologie-inspirierte Techniken zur Selbstorganisation in dynamischen Netzwerken) 95
6.3.2 VerstÀndnis der molekularen Grundlage der Biogenese und Funktion der Endocytose 96
6.3.3 Mathematische Modellierung und Computersimulation des Tumorwachstums und Therapien 96
6.3.4 Entwicklung eines SME-freundlichen Zuchtprogramms fĂŒr Korallen 97
6.3.5 Analyse raum-zeitlicher Musterbildung von Mikroorganismen 97
6.3.6 Regeneration beim Axolotl 97
6.3.7 Entwicklung und Analyse von stochastischen Interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 98
6.3.8 Kompetenznetzwerk MTBio 98
6.4 PERFORMANCE EVALUIERUNG 98
6.4.1 Automatisches Auffinden von Performance-EngpÀssen in parallelen 98
Programmen unter Zuhilfenahme ihrer Tracedaten
6.4.2 SFB 609: Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie - Teilprojekt A1: Numerische Modellierung turbulenter MFD-Strömungen 99
6.5 HERSTELLERKOOPERATIONEN 100
6.5.1 Intel-Kooperation 100
6.5.2 NEC-Kooperation 100
7 AUSBILDUNGSBETRIEB UND PRAKTIKA 101
7.1 AUSBILDUNG ZUM FACHINFORMATIKER/FACHRICHTUNG ANWENDUNGSENTWICKLUNG 101
7.2 PRAKTIKA 101
8 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 103
9 VERANSTALTUNGEN 105
10 PUBLIKATIONEN 107
TEIL III
BERICHTE DER ZENTRALEN EINRICHTUNGEN UND DER ZENTRALEN UNIVERSITĂTSVERWALTUNG
AUDIO-VISUELLES MEDIENZENTRUM (AVMZ) 113
LEHRZENTRUM SPRACHEN UND KULTURRĂUME (LSK) 121
UNIVERSITĂTSARCHIV 125
ZENTRALE UNIVERSITĂTSVERWALTUNG 127
MDC 129
BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) 131
TEIL IV
BERICHT DER SĂCHSISCHEN LANDESBIBLIOTHEK - STAATS UND UNIVERSITĂTSBIBLIOTHEK DRESDEN 13
Jahresbericht 2007 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 12
TEIL I
ZUR ARBEIT DER DV KOMMISSION 15
MITGLIEDER DER DV KOMMISSION 15
ZUR ARBEIT DES LENKUNGSAUSSCHUSSES FĂR DAS ZIH 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN IP Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 27
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck Kopierer Netz 32
2.2.5 Funk LAN (WLAN) 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 33
2.2.7 Datennetz zu den Wohnheimstandorten 36
2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 38
2.3.1 Electronic Mail 38
2.3.1.1 EinfĂŒhrung einheitlicher E-Mail-Adressen an der TU Dresden 39
2.3.1.2 Funktionsbezogene TU-Mail-Adressen an der TU Dresden 40
2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 40
2.3.1.4 Web-Mail 41
2.3.1.5 Neuer Mailinglisten-Server 41
2.3.2 WWW 41
2.3.3 Authentifizierung und Autorisierung (AAI) 42
2.3.3.1 Shibboleth 42
2.3.4 WÀhlzugÀnge 43
2.2.5 Time Service 43
3 ZENTRALE DIENSTANGEBOTE UND SERVER 45
3.1 BENUTZERBERATUNG (BB) 45
3.2 TROUBLE TICKET SYSTEM (TTS) 46
3.3 NUTZERMANAGEMENT 47
3.4 LOGIN SERVICE 48
3.5 STORAGE MANAGEMENT 48
3.5.1 Backup Service 49
3.5.2 File Service und Speichersysteme 52
3.6 LIZENZ SERVICE 55
3.7 PERIPHERIE SERVICE 55
3.8 PC POOLS 55
3.9 SECURITY 56
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV SYSTEME 59
4.1 ALLGEMEINES 59
4.2 PC SUPPORT 59
4.2.1 Investberatung 59
4.2.2 Implementierung 59
4.2.3 Instandhaltung 59
4.3 MICROSOFT WINDOWS SUPPORT 60
4.4 ZENTRALE SOFTWARE BESCHAFFUNG FĂR DIE TU DRESDEN 64
4.4.1 ArbeitsgruppentÀtigkeit 64
4.4.2 Strategie des Software Einsatzes an der TU Dresden 65
4.4.3 Software Beschaffung 66
5 HOCHLEISTUNGSRECHNEN 67
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 67
5.1.1 HRSK Core Router 69
5.1.2 HRSK SGI Altix 4700 69
5.1.3 HRSK PetaByte Bandarchiv 70
5.1.4 HRSK Linux Networx PC Farm 72
5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 73
5.2 NUTZUNGSĂBERSICHT DER HPC SERVER 74
5.3 SPEZIALRESSOURCEN 75
5.3.1 SGI Origin 3800 75
5.3.2 NEC SX 6 76
5.3.3 Anwendercluster 76
5.4 GRID RESSOURCEN 77
5.5 ANWENDUNGSSOFTWARE 78
5.6 VISUALISIERUNG 79
5.7 PERFORMANCE TOOLS 80
6 WISSENSCHAFTLICHE KOOPERATION, PROJEKTE 83
6.1 DAS PROJEKT âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ 83
6.1.1 Ăberblick 83
6.1.2 Umbau der RĂ€ume des VCC 83
6.1.3 Aufgaben und Entwicklungsarbeiten 83
6.1.4 Weitere AktivitÀten 86
6.1.5 Der Dienst âDFNVideoConferenceâ Mehrpunktkonferenzen im G WiN 86
6.1.6 Tendenzen und Ausblicke 87
6.2 D GRID 88
6.2.1 Hochenergiephysik Community Grid (HEP CG) Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergie physik in einer nationalen e Science Umgebung 88
6.2.2 MediGRID Ressourcefusion fĂŒr Medizin und Lebenswissenschaften 88
6.2.3 D Grid Integrationsprojekt 89
6.2.4 Chemomentum 89
6.3 BIOLOGIE 90
6.3.1 Mathematische Modellierung und Computersimulation des Tumorwachs tums und Therapien 90
6.3.2 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 91
6.3.3 Analyse raum zeitlicher Musterbildung von Mikroorganismen 91
6.3.4 Regeneration beim Axolotl 91
6.3.5 Entwicklung und Analyse von stochastischen Interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 92
6.3.8 Kompetenznetzwerk MTBio 92
6.3.7 EndoSys: Raum zeitliche Modellierung der Regulationsprozesse der Endozytose in Hepatocyten 92
6.3.8 ZebraSim: Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 93
6.3.9 Biologistik: Von bio inspirierter Logistik zum logistik inspirierten Bio Nano Engineering 93
6.4 PERFORMANCE EVALUIERUNG 94
6.4.1 SFB 609: Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie Teilprojekt A1: Numerische Modellierung turbulenter MFD -Strömungen 94
6.4.2 Parallel Programming for Multi core Architectures ParMA 94
6.4.3 VI HPS: Virtuelles Institut â HPS 95
6.4.4 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 96
6.4.5 Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maĂge schneiderten Transporteigenschaften 96
7 AUSBILDUNGSBETRIEB UND PRAKTIKA 97
7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 97
7.2 PRAKTIKA 98
8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 99
9 VERANSTALTUNGEN 101
10 PUBLIKATIONEN 103
TEIL III
BERICHTE DER FAKULTĂTEN
FAKULTĂT MATHEMATIK UND NATURWISSENSCHAFTEN 109
Fachrichtung Mathematik 109
Fachrichtung Physik 113
Fachrichtung Chemie und Lebensmittelchemie 117
Fachrichtung Psychologie 123
Fachrichtung Biologie 125
PHILOSOPHISCHE FAKULTĂT 131
FAKULTĂT SPRACH , LITERATUR UND KULTURWISSENSCHAFTEN 135
FAKULTĂT ERZIEHUNGSWISSENSCHAFTEN 137
JURISTISCHE FAKULTĂT 141
FAKULTĂT WIRTSCHAFTSWISSENSCHAFTEN 145
FAKULTĂT INFORMATIK 153
FAKULTĂT ELEKTROTECHNIK UND INFORMATIONSTECHNIK 161
FAKULTĂT MASCHINENWESEN 169
FAKULTĂT BAUINGENIEURWESEN 179
FAKULTĂT ARCHITEKTUR 185
FAKULTĂT VERKEHRSWISSENSCHAFTEN âFRIEDRICH LISTâ 189
FAKULTĂT FORST , GEO UND HYDROWISSENSCHAFTEN 201
Fachrichtung Forstwissenschaften 201
Fachrichtung Geowissenschaften 207
Fachrichtung Wasserwesen 213
MEDIZINISCHE FAKULTĂT CARL GUSTAV CARUS 21
Langzeitarchivierung von Forschungsdaten : eine Bestandsaufnahme
The relevance of research data today and for the future is well documented and discussed, in Germany as well as internationally. Ensuring that research data are accessible, sharable, and re-usable over time is increasingly becoming an essential task for researchers and research infrastructure institutions. Some reasons for this development include the following:
- research data are documented and could therefore be validated
- research data could be the basis for new research questions
- research data could be re-analyzed by using innovative digital methods
- research data could be used by other disciplines
Therefore, it is essential that research data are curated, which means they are kept accessible and interpretable over time.
In Germany, a baseline study was undertaken analyzing the situation in eleven research disciplines in 2012. The results were then published in a German-language edition. To address an international audience, the German-language edition of the study has been translated and abridged
Eine generische Dienstarchitektur fĂŒr das Gesundheitswesen
Im Gesundheitswesen mĂŒssen ganz unterschiedlich strukturierte Einrichtungen bei der Behandlung von Patienten zusammenarbeiten. Die Arbeit stellt Lösungen vor, die eine solche Zusammenarbeit mit Hilfe verteilter Anwendungen auf Basis von Webservices und Peer-to-Peer Technologie unterstĂŒtzen. Dabei werden vorhandene Strukturen und Beziehungen zwischen diesen Einrichtungen benutzt, um gute Ergebnisse bei der Suche nach Daten und der Steuerung von AblĂ€ufen zu erzielen