32 research outputs found

    Auf dem Weg zur individualisierten Medizin - Grid-basierte Services fĂŒr die EPA der Zukunft.

    Get PDF
    Personalized Medicine is of paramount interest for many areas in Medical Informatics. Therefore genotype data as well a phenotype data about patients have to be available. This data will be stored in Electronic Health Records or – patient controlled - in Personal Health Records. As the amount of (raw) data is rising continuously, methods for a secure data administration have to be found. Grid Services offer data storage, can support data retrieval and the presentation of the data. The basic security services could be provided by the German health professional infrastructure, but there are many security challenges to be faced

    ZIH-Info

    Get PDF
    - ZIH-Info ... - Hochleistungsrechner mit achtfacher Leistung - BMBF fördert "D-Grid-Initiative" - "Pixelsex" live in Rotterdam - EinfĂŒhrung einheitlicher Mail-Adressen - NAG Campuslizenz - ZIH-Publikationen - Veranstaltungen und Termin

    The German Grid Initiative

    Get PDF
    Diese Publikation bietet eine detaillierte Übersicht ĂŒber den derzeitigen Stand der D-Grid-Projektlandschaft. Dabei bilden nachhaltige strategische Forschungs- und EntwicklungsaktivitĂ€ten im universitĂ€ren und industriellen Umfeld einen Schwerpunkt

    Jahresbericht 2008 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV KOMMISSION 15 MITGLIEDER DER DV KOMMISSION 15 ZUR ARBEIT DES LENKUNGSAUSSCHUSSES FÜR DAS ZIH 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 18 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN IP Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck Kopierer Netz 32 2.2.5 Funk LAN (WLAN) 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Datennetz zu den Wohnheimstandorten 38 2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 39 2.3.1 Electronic Mail 39 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 42 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 42 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 43 2.3.1.4 Web-Mail 43 2.3.1.5 Neuer Mailinglisten-Server 43 2.3.2 WWW 44 2.3.3 Authentifizierung und Autorisierung (AAI) 46 2.3.3.1 Shibboleth 47 2.3.4 WĂ€hlzugĂ€nge 47 2.3.5 Time Service 47 3 ZENTRALE DIENSTANGEBOTE UND SERVER 49 3.1 BENUTZERBERATUNG (BB) 49 3.2 TROUBLE TICKET SYSTEM (TTS) 50 3.3 NUTZER MANAGEMENT 51 3.4 LOGIN SERVICE 53 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 53 3.6 STORAGE MANAGEMENT 54 3.6.1 Backup Service 54 3.6.2 File Service und Speichersysteme 56 3.7 LIZENZ SERVICE 57 3.8 PERIPHERIE SERVICE 57 3.9 PC POOLS 57 3.10 SECURITY 59 3.10.1 IT Sicherheit 59 3.10.2 DFN PKI 59 3.10.3 VPN 59 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 59 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV SYSTEME 61 4.1 ALLGEMEINES 61 4.2 PC SUPPORT 61 4.2.1 Investberatung 61 4.2.2 Implementierung 61 4.2.3 Instandhaltung 61 4.3 MICROSOFT WINDOWS SUPPORT 62 4.4 ZENTRALE SOFTWARE BESCHAFFUNG FÜR DIE TU DRESDEN 71 4.4.1 ArbeitsgruppentĂ€tigkeit 71 4.4.2 Strategie des Software Einsatzes an der TU Dresden 71 4.4.3 Software Beschaffung 72 5 HOCHLEISTUNGSRECHNEN 73 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 73 5.1.1 HRSK Core Router 74 5.1.2 HRSK SGI Altix 4700 74 5.1.3 HRSK PetaByte Bandarchiv 76 5.1.4 HRSK Linux Networx PC Farm 77 5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 79 5.2 NUTZUNGSÜBERSICHT DER HPC SERVER 79 5.3 SPEZIALRESSOURCEN 80 5.3.1 SGI Origin 3800 80 5.3.2 NEC SX 6 81 5.3.3 Anwendercluster 82 5.4 GRID RESSOURCEN 82 5.5 ANWENDUNGSSOFTWARE 84 5.6 VISUALISIERUNG 84 5.7 PERFORMANCE TOOLS 86 6 WISSENSCHAFTLICHE KOOPERATION, PROJEKTE 87 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ 87 6.1.1 Überblick 87 6.1.2 Umbau der RĂ€ume des VCC 87 6.1.3 Aufgaben und Entwicklungsarbeiten 87 6.1.4 Weitere AktivitĂ€ten 89 6.1.5 Der Dienst „DFNVideoConference“ Mehrpunktkonferenzen im G WiN 90 6.1.6 Tendenzen und Ausblicke 91 6.2 D GRID 92 6.2.1 Hochenergiephysik Community Grid (HEP CG) - Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e Science Umgebung 92 6.2.2 MediGRID - Ressourcefusion fĂŒr Medizin und Lebenswissenschaften 92 6.2.3 D Grid Integrationsprojekt 93 6.2.4 Chemomentum 93 6.3 BIOLOGIE 94 6.3.1 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 94 6.3.2 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 94 6.3.3 Verbundsystem EndoSys: Modellierung der Rolle von Rab DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 95 6.3.4 ZebraSim: Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95 6.3.5 Ladenburger Kolleg BioLogistik: Vom bio inspirierten Engineering komplexer logistischer Systeme bis zur „NanoLogistik“ 96 6.3.6 RĂ€umlich zeitliche Dynamik in der Systembiologie 96 6.4 PERFORMANCE EVALUIERUNG 97 6.4.1 SFB 609: Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie Teilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 97 6.4.2 BenchIT: Performance Measurement for Scientific Applications 97 6.4.3 Parallel Programming for Multi core Architectures − ParMA 98 6.4.4 VI HPS: Virtuelles Institut − HPS 99 6.4.5 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 99 6.4.6 Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maßge schneiderten Transporteigenschaften 100 6.4.7 Designing self organized adaptive services for open source internet telephony over p2p networks 100 7 AUSBILDUNGSBETRIEB UND PRAKTIKA 103 7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 103 7.2 PRAKTIKA 104 8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 105 9 VERANSTALTUNGEN 107 10 PUBLIKATIONEN 109 TEIL III BERICHTE DER ZENTRALEN EINRICHTUNGEN BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) 115 BOTANISCHER GARTEN 119 LEHRZENTRUM SPRACHEN UND KULTURRÄUME (LSK) 121 MEDIENZENTRUM (MZ) 125 UNIVERSITÄTSARCHIV 135 BERICHT DER ZENTRALEN UNIVERSITÄTSVERWALTUNG 137 BERICHT DES MEDIZINISCHEN RECHENZENTRUMS DES UNIVERSITÄTSKLINIKUMS CARL GUSTAV CARUS 139 SÄCHSISCHE LANDESBIBLIOTHEK − STAATS UND UNIVERSITÄTSBIBLIOTHEK DRESDEN 14

    Production-Grid: Task-Farming in D-Grid

    Get PDF
    Die D-Grid Initiative stellt Bundesweit derzeit >30.000 Rechencores insgesamt 36 Community-Projekten zur VerfĂŒgung. Insgesamt wurden bisher in 3 „Calls“ und mehreren Infrastruktursonderinvestitionen ca. 134 Millionen Euro investiert. Auf den Resourcen laufen mehrere sogenannte Middlewares. Die Auslastung der Ressourcen die mithilfe der Middleware Globus benutzt werden (~70% der total installierten Leistung) betrĂ€gt praktisch mittlerweile 100%. Im wesentlichen nutzen zwei Usecases diese Resourcen zu ca. 98%: Im astrophysikalischen Bereich sind dies Gravitationswellenanalysen mittels der einstein@home-Jobs vom Max-Planck-Institut fĂŒr Gravitationsphysik Albert-Einstein-Institut (AEI) und sowie Genomanalysen der Biophysikalischen Genomik, BioQuant/DKFZ. Beide nehmen derzeit mehr als 150.000 CPU-Stunden auf den Globus-Ressourcen im D-Grid auf. Vom wissenschaftlichen Standpunkt sind diese Rechnungen und Analysen von großer Bedeutung wie sich an der ansteigenden Zahl an Publikationen zeigt. Hinter den zwei hierbei verwendeten Nutzerkennungen verbergen sich dabei mehrere Nutzer die durch A. Beck-Ratzka und T. A. Knoch in Kooperationsprojekten gebĂŒndelt sind, die entweder einzelne Applikationen und/oder ganze Pipelinesysteme benutzen. Dazu gehören auch Nutzer die u.a. in nationalen, europĂ€ischen bzw. internationalen Konsortien fĂŒr den Informatikpart zustĂ€ndig sind. Im astrophysikalischen Fall handelt es sich dabei um 10 Nutzer/Projekte, im biomedizinischen Fall sind dies international mittlerweile ca. 200 Nutzer/Projekte (180 hierbei durch die Nutzung einer sog. Assoziation Pipeline, die von Ă€ußerst wichtiger diagnostischer Relevanz ist). Die StĂ€rkung des Standorts Deutschland durch die erfolgreiche Nutzung im Produktionsbetrieb hat einerseits die Machbarkeit einer funktionierenden Grid-Infrastruktur fĂŒr die Globus Ressourcen-Betreiber gezeigt und andererseits durch die Schaffung wissenschaftlich hoch-relevanter Ergebnisse zu einer damit verbundenen forschungspolitischen StĂ€rkung gefĂŒhrt. Beides kann nicht hoch genug eingeschĂ€tzt werden, da beide Usecases vor allem auch im internationalen Vergleich eine herausragende Stellung einehmen – faktisch gehören sie mittlerweile zu den grĂ¶ĂŸten Nutzern von Rechenzeit weltweit. Der große Erfolg der zwei Usecases Gravitationswellenanalyse und Genomanalyse hat die Ressourcen bezĂŒglich der Globus basierten Infrastruktur zu nahezu 100% ausgeschöpft Er basiert auf unabhĂ€ngig voneinander entwickelten Komponenten, welche die Middleware in eine produktive Umgebung integrieren, und damit ein Produktionsgrid erst ermöglichen. Dies ist einzigartig im D-Grid-Umfeld. Die PersonalkapatzitĂ€t von A. Beck-Ratzka und T. A. Knoch sind aufgrund der UnterstĂŒtzungsanforderungen von weiteren/neuen Nutzern zu 100% ausgereizt. Folglich stoßen wir in Bezug auf i) Rechenzeit fĂŒr unsere eigenen Projekte sowie die neuer Nutzer, ii) die UnterstĂŒtzung und Anwerbung neuer Nutzer, sowie iii) entsprechenden UnterstĂŒtzung beim Management in Hinblick auf Daten Sicherheits/Vertraulichkeit, SLAs und Coaching, an die Grenze unserer bisher existierenden Möglichkeiten. Die entsprechende Projektanforderungen bezĂŒglich Rechenleistung sind klar durch die entsprechenden Projekterfolge gegeben, d.h. dass ĂŒber die Laufzeit der D-Grid Infrastruktur bis 2014 massive Anforderungen ĂŒber den bisher fĂŒr uns zugĂ€nglichen Rahmen hinaus bestehen. Anfragen von neuen Nutzer gibt es von 10 weiteren im astrophysikalischen (Berliner Raum) und 50-60 weiteren im biomedizinischen Bereich (Raum Heidelberg), die uns als verlĂ€ĂŸliche bzw. erfahrene Garanten fĂŒr erfolgreiche Hoch-Durchsatz Gridnutzung ansehen, aber entsprechende UnterstĂŒtzung brauchen. ZusĂ€tzlich gibt es auch Anfragen von mehreren nationalen und internationalen VerbĂŒnden, die genau solche Komponenten wie die unsrigen sofort benutzen wĂŒrden. DarĂŒberhinaus besteht in diesem Zusammenhang der Bedarf an weiteren Lösungen im Datensicherheits- und Vertraulichkeits-Bereich, die durch diese Bereiche konkret angefordert werden, was mit entsprechendem Coaching und Management einhergehen muss und immer wieder von uns eingefordert wird. Wir sind fest davon ĂŒberzeugt, dass mit dem im folgenden beschriebenen Vorschlag nicht nur diese FlaschenhĂ€lse beseitigt werden können, sondern auch die Nachhaltigeit und damit der Erfolg des gesamten D-Grid Projektes massiv gestĂ€rkt werden kann! Ein weiterer Aspekt der produktiven Usecases ist, dass erst mit diesen die Grid-Ressourcen richtig fĂŒr den Produktionsbetrieb getestet werden können. Die Problematik im DGUS-Ticket 853 beispielsweise ist ein Problem, dass erst durch produktive Usecases aufgedeckt wird Die Globus basierten Grid-Ressourcen im D-Grid sind durch die beiden produktiven Usecases Gravitationswellenanalyse und Genomanalyse stabiler geworden. Durch die in im Rahmen dieses Projektes geplante Erweiterung der Usecases auf gLite- und Unicore-Ressourcen wĂŒrden auch die Betreiber dieser Ressourcen enorm profitieren, weil es damit auf diesen Ressourcen zu einem Produktionsbetrieb kommen wĂŒrde

    Jahresbericht 2006 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 12 TEIL I ZUR ARBEIT DER DV-KOMMISSION 15 MITGLIEDER DER DV-KOMMISSION 15 ZUR ARBEIT DES LENKUNGSAUSSCHUSSES FÜR DAS ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN-IP-Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck-Kopierer-Netz 32 2.2.5 Funk-LAN (WLAN) 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Datennetz zu den Wohnheimstandorten 36 2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 38 2.3.1 Electronic-Mail 38 2.3.1.1 EinfĂŒhrung einheitlicher E-Mail-Adressen an der TU Dresden 39 2.3.1.2 EinfĂŒhrung funktionsbezogener TU-Mail-Adressen 40 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 40 2.3.1.4 Web-Mail 41 2.3.2 WWW 41 2.3.3 WĂ€hlzugĂ€nge 43 2.2.4 Time-Service 43 3 ZENTRALE DIENSTANGEBOTE UND SERVER 45 3.1 BENUTZERBERATUNG (BB) 45 3.2 TROUBLE TICKET SYSTEM (TTS) 45 3.3 NUTZERMANAGEMENT 46 3.4 LOGIN-SERVICE 47 3.5 STORAGE-MANAGEMENT 47 3.5.1 Backup-Service 50 3.5.2 File-Service 52 3.6 LIZENZ-SERVICE 54 3.7 PERIPHERIE-SERVICES 54 3.8 PC-POOLS 55 3.9 SECURITY 56 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV-SYSTEME 59 4.1 ALLGEMEINES 59 4.2 PC-SUPPORT 59 4.2.1 Investberatung 59 4.2.2 Implementierung 59 4.2.3 Instandhaltung 59 4.2.4 Notebook-Ausleihe 60 4.3 MICROSOFT WINDOWS-SUPPORT 60 4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FÜR DIE TU DRESDEN 66 4.4.1 ArbeitsgruppentĂ€tigkeit 66 4.4.2 Strategie des Software-Einsatzes an der TU Dresden 67 4.4.3 Software-Beschaffung 67 5 HOCHLEISTUNGSRECHNEN 75 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 75 5.1.1 HRSK-Neubau 76 5.1.2 SGI Altix 3700 (Stufe 1a) 76 5.1.3 SGI Altix 4700 77 5.1.4 Linux Networx PC-Farm (Stufe 1a) 78 5.1.5 Linux Networx PC-Farm 79 5.2 NUTZUNGSÜBERSICHT DER COMPUTE-SERVER 80 5.2.1 SGI Origin 3800 82 5.2.2 NEC SX6i 82 5.2.3 SGI Origin 2800 83 5.2.4 Anwender-Cluster 84 5.3 BIODATENBANKEN-SERVICE 84 5.4 ANWENDUNGSSOFTWARE 85 5.5 VISUALISIERUNG 85 5.6 PERFORMANCE TOOLS 86 6 WISSENSCHAFTLICHE KOOPERATION, PROJEKTE 89 6.1. DAS PROJEKT „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ 89 6.1.1 Überblick 89 6.1.2 Aufgaben und Entwicklungsarbeiten 89 6.1.3 Neuer Webauftritt 91 6.1.4 Weitere AktivitĂ€ten 91 6.1.5 Der Dienst „DFNVideoConference“ - Mehrpunktkonferenzen im G-WiN 92 6.1.6 Tendenzen und Ausblicke 93 6.2 D-GRID 93 6.2.1 Hochenergiephysik Community Grid (HEP CG) - Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e-Science-Umgebung 93 6.2.2 MediGRID - Ressourcefusion fĂŒr Medizin und Lebenswissenschaften 94 6.2.3 D-Grid Integrationsprojekt 94 6.2.4 Chemomentum 95 6.3 BIOLOGIE 95 6.3.1 BISON (Biologie-inspirierte Techniken zur Selbstorganisation in dynamischen Netzwerken) 95 6.3.2 VerstĂ€ndnis der molekularen Grundlage der Biogenese und Funktion der Endocytose 96 6.3.3 Mathematische Modellierung und Computersimulation des Tumorwachstums und Therapien 96 6.3.4 Entwicklung eines SME-freundlichen Zuchtprogramms fĂŒr Korallen 97 6.3.5 Analyse raum-zeitlicher Musterbildung von Mikroorganismen 97 6.3.6 Regeneration beim Axolotl 97 6.3.7 Entwicklung und Analyse von stochastischen Interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 98 6.3.8 Kompetenznetzwerk MTBio 98 6.4 PERFORMANCE EVALUIERUNG 98 6.4.1 Automatisches Auffinden von Performance-EngpĂ€ssen in parallelen 98 Programmen unter Zuhilfenahme ihrer Tracedaten 6.4.2 SFB 609: Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie - Teilprojekt A1: Numerische Modellierung turbulenter MFD-Strömungen 99 6.5 HERSTELLERKOOPERATIONEN 100 6.5.1 Intel-Kooperation 100 6.5.2 NEC-Kooperation 100 7 AUSBILDUNGSBETRIEB UND PRAKTIKA 101 7.1 AUSBILDUNG ZUM FACHINFORMATIKER/FACHRICHTUNG ANWENDUNGSENTWICKLUNG 101 7.2 PRAKTIKA 101 8 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 103 9 VERANSTALTUNGEN 105 10 PUBLIKATIONEN 107 TEIL III BERICHTE DER ZENTRALEN EINRICHTUNGEN UND DER ZENTRALEN UNIVERSITÄTSVERWALTUNG AUDIO-VISUELLES MEDIENZENTRUM (AVMZ) 113 LEHRZENTRUM SPRACHEN UND KULTURRÄUME (LSK) 121 UNIVERSITÄTSARCHIV 125 ZENTRALE UNIVERSITÄTSVERWALTUNG 127 MDC 129 BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) 131 TEIL IV BERICHT DER SÄCHSISCHEN LANDESBIBLIOTHEK - STAATS UND UNIVERSITÄTSBIBLIOTHEK DRESDEN 13

    Jahresbericht 2007 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 12 TEIL I ZUR ARBEIT DER DV KOMMISSION 15 MITGLIEDER DER DV KOMMISSION 15 ZUR ARBEIT DES LENKUNGSAUSSCHUSSES FÜR DAS ZIH 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN IP Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck Kopierer Netz 32 2.2.5 Funk LAN (WLAN) 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Datennetz zu den Wohnheimstandorten 36 2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 38 2.3.1 Electronic Mail 38 2.3.1.1 EinfĂŒhrung einheitlicher E-Mail-Adressen an der TU Dresden 39 2.3.1.2 Funktionsbezogene TU-Mail-Adressen an der TU Dresden 40 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 40 2.3.1.4 Web-Mail 41 2.3.1.5 Neuer Mailinglisten-Server 41 2.3.2 WWW 41 2.3.3 Authentifizierung und Autorisierung (AAI) 42 2.3.3.1 Shibboleth 42 2.3.4 WĂ€hlzugĂ€nge 43 2.2.5 Time Service 43 3 ZENTRALE DIENSTANGEBOTE UND SERVER 45 3.1 BENUTZERBERATUNG (BB) 45 3.2 TROUBLE TICKET SYSTEM (TTS) 46 3.3 NUTZERMANAGEMENT 47 3.4 LOGIN SERVICE 48 3.5 STORAGE MANAGEMENT 48 3.5.1 Backup Service 49 3.5.2 File Service und Speichersysteme 52 3.6 LIZENZ SERVICE 55 3.7 PERIPHERIE SERVICE 55 3.8 PC POOLS 55 3.9 SECURITY 56 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV SYSTEME 59 4.1 ALLGEMEINES 59 4.2 PC SUPPORT 59 4.2.1 Investberatung 59 4.2.2 Implementierung 59 4.2.3 Instandhaltung 59 4.3 MICROSOFT WINDOWS SUPPORT 60 4.4 ZENTRALE SOFTWARE BESCHAFFUNG FÜR DIE TU DRESDEN 64 4.4.1 ArbeitsgruppentĂ€tigkeit 64 4.4.2 Strategie des Software Einsatzes an der TU Dresden 65 4.4.3 Software Beschaffung 66 5 HOCHLEISTUNGSRECHNEN 67 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 67 5.1.1 HRSK Core Router 69 5.1.2 HRSK SGI Altix 4700 69 5.1.3 HRSK PetaByte Bandarchiv 70 5.1.4 HRSK Linux Networx PC Farm 72 5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 73 5.2 NUTZUNGSÜBERSICHT DER HPC SERVER 74 5.3 SPEZIALRESSOURCEN 75 5.3.1 SGI Origin 3800 75 5.3.2 NEC SX 6 76 5.3.3 Anwendercluster 76 5.4 GRID RESSOURCEN 77 5.5 ANWENDUNGSSOFTWARE 78 5.6 VISUALISIERUNG 79 5.7 PERFORMANCE TOOLS 80 6 WISSENSCHAFTLICHE KOOPERATION, PROJEKTE 83 6.1 DAS PROJEKT „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ 83 6.1.1 Überblick 83 6.1.2 Umbau der RĂ€ume des VCC 83 6.1.3 Aufgaben und Entwicklungsarbeiten 83 6.1.4 Weitere AktivitĂ€ten 86 6.1.5 Der Dienst „DFNVideoConference“ Mehrpunktkonferenzen im G WiN 86 6.1.6 Tendenzen und Ausblicke 87 6.2 D GRID 88 6.2.1 Hochenergiephysik Community Grid (HEP CG) Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergie physik in einer nationalen e Science Umgebung 88 6.2.2 MediGRID Ressourcefusion fĂŒr Medizin und Lebenswissenschaften 88 6.2.3 D Grid Integrationsprojekt 89 6.2.4 Chemomentum 89 6.3 BIOLOGIE 90 6.3.1 Mathematische Modellierung und Computersimulation des Tumorwachs tums und Therapien 90 6.3.2 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 91 6.3.3 Analyse raum zeitlicher Musterbildung von Mikroorganismen 91 6.3.4 Regeneration beim Axolotl 91 6.3.5 Entwicklung und Analyse von stochastischen Interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 92 6.3.8 Kompetenznetzwerk MTBio 92 6.3.7 EndoSys: Raum zeitliche Modellierung der Regulationsprozesse der Endozytose in Hepatocyten 92 6.3.8 ZebraSim: Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 93 6.3.9 Biologistik: Von bio inspirierter Logistik zum logistik inspirierten Bio Nano Engineering 93 6.4 PERFORMANCE EVALUIERUNG 94 6.4.1 SFB 609: Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie Teilprojekt A1: Numerische Modellierung turbulenter MFD -Strömungen 94 6.4.2 Parallel Programming for Multi core Architectures ParMA 94 6.4.3 VI HPS: Virtuelles Institut − HPS 95 6.4.4 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 96 6.4.5 Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maßge schneiderten Transporteigenschaften 96 7 AUSBILDUNGSBETRIEB UND PRAKTIKA 97 7.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 97 7.2 PRAKTIKA 98 8 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 99 9 VERANSTALTUNGEN 101 10 PUBLIKATIONEN 103 TEIL III BERICHTE DER FAKULTÄTEN FAKULTÄT MATHEMATIK UND NATURWISSENSCHAFTEN 109 Fachrichtung Mathematik 109 Fachrichtung Physik 113 Fachrichtung Chemie und Lebensmittelchemie 117 Fachrichtung Psychologie 123 Fachrichtung Biologie 125 PHILOSOPHISCHE FAKULTÄT 131 FAKULTÄT SPRACH , LITERATUR UND KULTURWISSENSCHAFTEN 135 FAKULTÄT ERZIEHUNGSWISSENSCHAFTEN 137 JURISTISCHE FAKULTÄT 141 FAKULTÄT WIRTSCHAFTSWISSENSCHAFTEN 145 FAKULTÄT INFORMATIK 153 FAKULTÄT ELEKTROTECHNIK UND INFORMATIONSTECHNIK 161 FAKULTÄT MASCHINENWESEN 169 FAKULTÄT BAUINGENIEURWESEN 179 FAKULTÄT ARCHITEKTUR 185 FAKULTÄT VERKEHRSWISSENSCHAFTEN „FRIEDRICH LIST“ 189 FAKULTÄT FORST , GEO UND HYDROWISSENSCHAFTEN 201 Fachrichtung Forstwissenschaften 201 Fachrichtung Geowissenschaften 207 Fachrichtung Wasserwesen 213 MEDIZINISCHE FAKULTÄT CARL GUSTAV CARUS 21

    Langzeitarchivierung von Forschungsdaten : eine Bestandsaufnahme

    Get PDF
    The relevance of research data today and for the future is well documented and discussed, in Germany as well as internationally. Ensuring that research data are accessible, sharable, and re-usable over time is increasingly becoming an essential task for researchers and research infrastructure institutions. Some reasons for this development include the following: - research data are documented and could therefore be validated - research data could be the basis for new research questions - research data could be re-analyzed by using innovative digital methods - research data could be used by other disciplines Therefore, it is essential that research data are curated, which means they are kept accessible and interpretable over time. In Germany, a baseline study was undertaken analyzing the situation in eleven research disciplines in 2012. The results were then published in a German-language edition. To address an international audience, the German-language edition of the study has been translated and abridged

    Eine generische Dienstarchitektur fĂŒr das Gesundheitswesen

    Get PDF
    Im Gesundheitswesen mĂŒssen ganz unterschiedlich strukturierte Einrichtungen bei der Behandlung von Patienten zusammenarbeiten. Die Arbeit stellt Lösungen vor, die eine solche Zusammenarbeit mit Hilfe verteilter Anwendungen auf Basis von Webservices und Peer-to-Peer Technologie unterstĂŒtzen. Dabei werden vorhandene Strukturen und Beziehungen zwischen diesen Einrichtungen benutzt, um gute Ergebnisse bei der Suche nach Daten und der Steuerung von AblĂ€ufen zu erzielen
    corecore