111 research outputs found

    Verbundoperationen ĂŒber Datenströmen und deren Optimierung unter Verwendung dynamischer Metadaten

    Get PDF
    Technischer Fortschritt und Vernetzung haben zu einem enormen Zuwachs an kontinuierlich anfallenden Datenströmen gefĂŒhrt, aus denen immer schneller wertvolle Informationen abgeleitet werden sollen. Zur Verarbeitung von kontinuierlichen Anfragen ĂŒber Datenströme etablieren sich daher Datenstrommanagementsysteme, die hauptsĂ€chlich im Hauptspeicher operieren und im Gegensatz zu Datenbanksystemen auf die Verarbeitung kontinuierlicher Anfragen ĂŒber Datenströmen zugeschnitten sind. Bei der Implementierung dieser neuen Systeme hat sich die Übernahme des Konzeptes der relationalen Operatorgraphen aus der Welt der Datenbanken bewĂ€hrt, wobei diese allerdings statt bedarfsgesteuert nun kontinuierlich und datengetrieben ausgewertet werden. Durch Zuweisen von GĂŒltigkeitsintervallen zu den Datenstromelementen kann dabei das Problem gelöst werden, mit endlichen Ressourcen potentiell unbegrenzte Datenströme zu verarbeiten. Die MĂ€chtigkeit solcher Systeme hĂ€ngt wesentlich von der VerfĂŒgbarkeit effizienter wohldefinierter Techniken zur VerknĂŒpfung von Informationen aus verschiedenen Datenströmen ab. Ziel dieser Arbeit ist es daher, das fĂŒr Datenbanken bewĂ€hrte Konzept des relationalen Verbundes auf die datengetriebene Datenstromverarbeitung mit GĂŒltigkeitsintervallen zu ĂŒbertragen. Dazu wird die Semantik der Verbundoperation fĂŒr Datenströme mittels der Schnappschuss-Reduzierung formal auf die des Verbundes in der erweiterten relationalen Algebra zurĂŒckgefĂŒhrt. Es werden mehrere Verbundalgorithmen vorgestellt und gezeigt, dass diese die gewĂŒnschte Semantik haben. Durch eine konsequente Parametrisierung der Verfahren bezĂŒglich der Datenstrukturen zur Statusverwaltung werden verschiedenste Typen von VerbundprĂ€dikaten effizient unterstĂŒtzt. BewĂ€hrte Techniken der Verbundberechnung mittels verschachtelter Schleifen, Hashing und Indexierung werden dabei fĂŒr die Datenstromverarbeitung adaptiert. Mit dem temporalen Progressive-Merge-Join wird zudem ein Verfahren vorgestellt, dass den Verbund ĂŒber Datenströmen mittels einer wertbasierten Sortierung berechnet. Zudem werden fĂŒr die Verfahren verschiedenste Optimierungen vorgeschlagen, darunter fĂŒr alle Verfahren die Verallgemeinerung auf mehr als zwei Datenströme. Zur Ermöglichung der automatischen Auswahl und Parametrisierung der Implementierungen anhand ihres prognostizierten Ressourcenverbrauchs werden diese in ein detailliertes Kostenmodell eingebettet. Da bestimmte Metadaten bezĂŒglich der zu verarbeitenden Datenströmen bei der Registrierung kontinuierlicher Anfragen oftmals nicht vorliegen und sich zudem wĂ€hrend der langen Laufzeit der Anfragen Ă€ndern können, ist es wichtig, jederzeit detaillierte Informationen bezĂŒglich der Datenströme und des Systemverhaltens erheben und gegebenenfalls durch Anpassungen an der Verarbeitungsstrategie darauf reagieren können. Ein wesentlicher Teil der Arbeit ist daher der Fragestellung gewidmet, wie in einem Datenstrommanagementsystem dynamische Metadaten erhoben werden können. Dazu wird ein benutzerfreundliches Rahmenwerk vorgestellt, das es ermöglicht, dynamische Metadaten konsistent und effizient zu erheben. In Experimenten wird die dynamische Metadatenerhebung untersucht und auch fĂŒr die Evaluation der vorgestellten Verbundoperationen eingesetzt. Zudem wird eine Technik vorgestellt, mit der kontinuierliche Anfragen zur Laufzeit restrukturiert werden können, und deren Anwendbarkeit fĂŒr die Verbundoptimierung aufgezeigt

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur UnterstĂŒtzung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die KomplexitĂ€t und HeterogenitĂ€t von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfĂ€llig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden KomplexitĂ€t Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige AnsĂ€tze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewĂ€hrleisten. Zentrale Grundvoraussetzung fĂŒr eine autonome Infrastruktur ist eine verlĂ€ssliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten ĂŒber das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erlĂ€utert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-TĂ€tigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewĂ€hrte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit fĂŒr die Problemlösung angewendet werden können

    Dynamische Erzeugung von Diagrammen aus standardisierten Geodatendiensten

    Get PDF
    Geodateninfrastrukturen (GDI) erfahren in den letzten Jahren immer weitere Verbreitung durch die Schaffung neuer Standards zum Austausch von Geodaten. Die vom Open Geospatial Consortium (OGC), einem Zusammenschluss aus Forschungseinrichtungen und privaten Firmen, entwickelten offenen Beschreibungen von Dienste-Schnittstellen verbessern die InteroperabilitĂ€t in GDI. OGC-konforme Geodienste werden momentan hauptsĂ€chlich zur Aufnahme, Verwaltung, Prozessierung und Visualisierung von Geodaten verwendet. Durch das vermehrte Aufkommen von Geodiensten steigt die VerfĂŒgbarkeit von Geodaten. Gleichzeitig hĂ€lt der Trend zur Generierung immer grĂ¶ĂŸerer Datenmengen beispielsweise durch wissenschaftliche Simulationen an (Unwin et al., 2006). Dieser fĂŒhrt zu einem wachsenden Bedarf an FunktionalitĂ€t zur effektiven Exploration und Analyse von Geodaten, da komplexe ZusammenhĂ€nge in großen DatenbestĂ€nden untersucht und relevante Informationen heraus gefiltert werden mĂŒssen. Dazu angewendete Techniken werden im Forschungsfeld Visual Analytics (Visuelle Analyse) umfassend beschrieben. Die visuelle Analyse beschĂ€ftigt sich mit der Entwicklung von Werkzeugen und Techniken zur automatisierten Analyse und interaktiven Visualisierung zum VerstĂ€ndnis großer und komplexer DatensĂ€tze (Keim et al., 2008). Bei aktuellen Web-basierten Anwendungen zur Exploration und Analyse handelt es sich hauptsĂ€chlich um Client-Server-Systeme, die auf fest gekoppelten Datenbanken arbeiten. Mit den wachsenden FĂ€higkeiten von Geodateninfrastrukturen steigt das Interesse, FunktionalitĂ€ten zur Datenanalyse in einer GDI anzubieten. Das Zusammenspiel von bekannten Analysetechniken und etablierten Standards zur Verarbeitung von Geodaten kann dem Nutzer die Möglichkeit geben, in einer Webanwendung interaktiv auf ad hoc eingebundenen Geodaten zu arbeiten. Damit lassen sich mittels aktueller Technologien Einsichten in komplexe Daten gewinnen, ihnen zugrunde liegende ZusammenhĂ€nge verstehen und Aussagen zur EntscheidungsunterstĂŒtzung ableiten. In dieser Arbeit wird die Eignung der OGC WMS GetFeatureInfo-Operation zur Analyse raum-zeitlicher Geodaten in einer GDI untersucht. Der Schwerpunkt liegt auf der dynamischen Generierung von Diagrammen unter Nutzung externer Web Map Service (WMS) als Datenquellen. Nach der Besprechung von Grundlagen zur Datenmodellierung und GDIStandards, wird auf relevante Aspekte der Datenanalyse und Visualisierung von Diagrammen eingegangen. Die Aufstellung einer Task Taxonomie dient der Untersuchung, welche raumzeitlichen Analysen sich durch die GetFeatureInfo-Operation umsetzen lassen. Es erfolgt die Konzeption einer Systemarchitektur zur Umsetzung der Datenanalyse auf verteilten Geodaten. Zur Sicherstellung eines konsistenten und OGC-konformen Datenaustauschs zwischen den Systemkomponenenten, wird ein GML-Schema erarbeitet. Anschließend wird durch eine prototypischen Implementierung die Machbarkeit der Diagramm-basierten Analyse auf Klimasimulationsdaten des ECHAM5-Modells verifiziert.Spatial data infrastructures (SDI) have been subject to a widening dispersion in the last decade, through the development of standards for the exchange of geodata. The open descriptions of service interfaces, developed by the OGC, a consortium from research institutions and private sector companies, alter interoperability in SDI. Until now, OGC-conform geoservices are mainly utilised for the recording, management, processing and visualisation of geodata. Through the ongoing emergence of spatial data services there is a rise in the availability of geodata. At the same time, the trend of the generation of ever increasing amounts of data, e. g. by scientific simulation (Unwin et al., 2006), continues. By this, the need for capabilities to effectively explore and analyse geodata is growing. Complex relations in huge data need to be determined and relevant information extracted. Techniques, which are capable of this, are being described extensively by Visual Analytics. This field of research engages in the development of tools and techniques for automated analysis and interactive visualisation of huge and complex data (Keim et al., 2008). Current web-based applications for the exploration and analysis are usually established as Client-Server approaches, working on a tightly coupled data storage (see subsection 3.3). With the growing capabilities of SDI, there is an increasing interest in offering functionality for data analysis. The combination of widely used analysis techniques and well-established standards for the treatment of geodata may offer the possibility of working interactively on ad hoc integrated data. This will allow insights into large amounts of complex data, understand natural interrelations and derive knowledge for spatial decision support by the use of state-of-the-art technologies. In this paper, the capabilities of the OGC WMS GetFeatureInfo operation for the analysis of spatio-temporal geodata in a SDI are investigated. The main focus is on dynamic generation of diagrams by the use of distributed WMS as a data storage. After the review of basics in data modelling and SDI-standards, relevant aspects of data analysis and visualisation of diagrams are treated. The compilation of a task taxonomy aids in the determination of realisable spatio-temporal analysis tasks by use of the GetFeatureInfo operation. In the following, conceptual design of a multi-layered system architecture to accomplish data analysis on distributed datasets, is carried out. In response to one of the main issues, a GML-schema is developed to ensure consistent and OGC-conform data exchange among the system components. To verify the feasibility of integration of diagram-based analysis in a SDI, a system prototype is developed to explore ECHAM5 climate model data

    QualitÀtsgetriebene Datenproduktionssteuerung in Echtzeit-Data-Warehouse-Systemen

    Get PDF
    Wurden frĂŒher Data-Warehouse-Systeme meist nur zur Datenanalyse fĂŒr die EntscheidungsunterstĂŒtzung des Managements eingesetzt, haben sie sich nunmehr zur zentralen Plattform fĂŒr die integrierte Informationsversorgung eines Unternehmens entwickelt. Dies schließt vor allem auch die Einbindung des Data-Warehouses in operative Prozesse mit ein, fĂŒr die zum einen sehr aktuelle Daten benötigt werden und zum anderen eine schnelle Anfrageverarbeitung gefordert wird. Daneben existieren jedoch weiterhin klassische Data-Warehouse-Anwendungen, welche hochqualitative und verfeinerte Daten benötigen. Die Anwender eines Data-Warehouse-Systems haben somit verschiedene und zum Teil konfligierende Anforderungen bezĂŒglich der DatenaktualitĂ€t, der Anfragelatenz und der DatenstabilitĂ€t. In der vorliegenden Dissertation wurden Methoden und Techniken entwickelt, die diesen Konflikt adressieren und lösen. Die umfassende Zielstellung bestand darin, eine Echtzeit-Data-Warehouse-Architektur zu entwickeln, welche die Informationsversorgung in seiner ganzen Breite -- von historischen bis hin zu aktuellen Daten -- abdecken kann. ZunĂ€chst wurde ein Verfahren zur Ablaufplanung kontinuierlicher Aktualisierungsströme erarbeitet. Dieses berĂŒcksichtigt die widerstreitenden Anforderungen der Nutzer des Data-Warehouse-Systems und erzeugt bewiesenermaßen optimale AblaufplĂ€ne. Im nĂ€chsten Schritt wurde die Ablaufplanung im Kontext mehrstufiger Datenproduktionsprozesse untersucht. Gegenstand der Analyse war insbesondere, unter welchen Bedingungen eine Ablaufplanung in Datenproduktionsprozessen gewinnbringend anwendbar ist. Zur UnterstĂŒtzung der Analyse komplexer Data-Warehouse-Prozesse wurde eine Visualisierung der Entwicklung der DatenzustĂ€nde, ĂŒber die Produktionsprozesse hinweg, vorgeschlagen. Mit dieser steht ein Werkzeug zur VerfĂŒgung, mit dem explorativ Datenproduktionsprozesse auf ihr Optimierungspotenzial hin untersucht werden können. Das den operativen DatenĂ€nderungen unterworfene Echtzeit-Data-Warehouse-System fĂŒhrt in der Berichtsproduktion zu Inkonsistenzen. Daher wurde eine entkoppelte und fĂŒr die Anwendung der Berichtsproduktion optimierte Datenschicht erarbeitet. Es wurde weiterhin ein Aggregationskonzept zur Beschleunigung der Anfrageverarbeitung entwickelt. Die VollstĂ€ndigkeit der Berichtsanfragen wird durch spezielle Anfragetechniken garantiert. Es wurden zwei Data-Warehouse-Fallstudien großer Unternehmen vorgestellt sowie deren spezifische Herausforderungen analysiert. Die in dieser Dissertation entwickelten Konzepte wurden auf ihren Nutzen und ihre Anwendbarkeit in den Praxisszenarien hin ĂŒberprĂŒft.:1 Einleitung 1 2 Fallstudien 7 2.1 Fallstudie A: UBS AG . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.1.1 Unternehmen und AnwendungsdomĂ€ne . . . . . . . . . . . . 8 2.1.2 Systemarchitektur . . . . . . . . . . . . . . . . . . . . . . . . 8 2.1.3 Besonderheiten und Herausforderungen . . . . . . . . . . . . 13 2.2 Fallstudie B: GfK Retail and Technology . . . . . . . . . . . . . . . . 15 2.2.1 Unternehmen und AnwendungsdomĂ€ne . . . . . . . . . . . . 15 2.2.2 Systemarchitektur . . . . . . . . . . . . . . . . . . . . . . . . 17 2.2.3 Besonderheiten und Herausforderungen . . . . . . . . . . . . 20 3 Evolution der Data-Warehouse- Systeme und Anforderungsanalyse 23 3.1 Der Data-Warehouse-Begriff und Referenzarchitektur . . . . . . . . . 23 3.1.1 Definition des klassischen Data-Warehouse-Begriffs . . . . . . 23 3.1.2 Referenzarchitektur . . . . . . . . . . . . . . . . . . . . . . . 24 3.2 Situative Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2.1 Interaktion zwischen IT und Fachbereich . . . . . . . . . . . 31 3.2.2 Spreadmart-Lösungen . . . . . . . . . . . . . . . . . . . . . . 33 3.2.3 Analytische Mashups und dienstorientierte Architekturen . . 35 3.2.4 Werkzeuge und Methoden im Kostenvergleich . . . . . . . . . 40 3.3 Evolution der Data-Warehouse-Systeme . . . . . . . . . . . . . . . . 40 3.3.1 Nutzung von Data-Warehouse-Systemen . . . . . . . . . . . . 41 3.3.2 Entwicklungsprozess der Hardware- und DBMS-Architekturen 46 3.4 Architektur eines Echtzeit-Data-Warehouse . . . . . . . . . . . . . . 50 3.4.1 Der Echtzeit-Begriff im Data-Warehouse-Umfeld . . . . . . . 50 3.4.2 Architektur eines Echtzeit-Data-Warehouses . . . . . . . . . . 51 3.4.3 Systemmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.5 Anforderungen an ein Echtzeit-Data-Warehouse . . . . . . . . . . . . 55 3.5.1 Maximierung der DatenaktualitĂ€t . . . . . . . . . . . . . . . 55 3.5.2 Minimierung der Anfragelatenz . . . . . . . . . . . . . . . . . 56 3.5.3 Erhalt der DatenstabilitĂ€t . . . . . . . . . . . . . . . . . . . . 57 4 Datenproduktionssteuerung in einstufigen Systemen 59 4.1 QualitĂ€tskriterien und Systemmodell . . . . . . . . . . . . . . . . . . 59 4.1.1 DienstqualitĂ€tskriterien . . . . . . . . . . . . . . . . . . . . . 60 4.1.2 DatenqualitĂ€tskriterien . . . . . . . . . . . . . . . . . . . . . 63 4.1.3 Multikriterielle Optimierung . . . . . . . . . . . . . . . . . . 64 4.1.4 Workload- und Systemmodell . . . . . . . . . . . . . . . . . . 66 4.2 Multikriterielle Ablaufplanung . . . . . . . . . . . . . . . . . . . . . 68 4.2.1 Pareto-effiziente AblaufplĂ€ne . . . . . . . . . . . . . . . . . . 68 4.2.2 Abbildung auf das Rucksackproblem . . . . . . . . . . . . . . 71 4.2.3 Lösung mittels dynamischer Programmierung . . . . . . . . . 74 4.3 Dynamische Ablaufplanung zur Laufzeit . . . . . . . . . . . . . . . . 78 4.4 Selektionsbasierte Ausnahmebehandlung . . . . . . . . . . . . . . . . 81 4.5 Evaluierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.5.1 Experimentierumgebung . . . . . . . . . . . . . . . . . . . . . 84 4.5.2 Leistungsvergleich und AdaptivitĂ€t . . . . . . . . . . . . . . . 86 4.5.3 Laufzeit- und SpeicherkomplexitĂ€t . . . . . . . . . . . . . . . 87 4.5.4 ÄnderungsstabilitĂ€t . . . . . . . . . . . . . . . . . . . . . . . 89 4.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5 Bewertung von Ladestrategien in mehrstufigen Datenproduktionsprozessen 5.1 Ablaufplanung in mehrstufigen Datenproduktionsprozessen . . . . . 96 5.1.1 Ladestrategien und Problemstellung . . . . . . . . . . . . . . 97 5.1.2 Evaluierung und Diskussion . . . . . . . . . . . . . . . . . . . 98 5.2 Visualisierung der DatenqualitĂ€t in mehrstufigen Datenproduktionsprozessen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 5.2.1 Erfassung und Speicherung . . . . . . . . . . . . . . . . . . . 110 5.2.2 Visualisierung der DatenqualitĂ€t . . . . . . . . . . . . . . . . 111 5.2.3 Prototypische Umsetzung . . . . . . . . . . . . . . . . . . . . 114 5.3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 6 Konsistente Datenanalyse in operativen Datenproduktionsprozessen 119 6.1 Der Reporting-Layer als Basis einer stabilen Berichtsproduktion . . 120 6.1.1 StabilitĂ€t durch Entkopplung . . . . . . . . . . . . . . . . . . 120 6.1.2 Vorberechnung von Basisaggregaten . . . . . . . . . . . . . . 121 6.1.3 VollstĂ€ndigkeitsbestimmung und Nullwertsemantik . . . . . . 125 6.1.4 Datenhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 6.1.5 Prozess der Anfrageverarbeitung mit VollstĂ€ndigkeitsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 6.1.6 Verwandte Arbeiten und Techniken . . . . . . . . . . . . . . . 127 6.1.7 Evaluierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 6.2 Nullwertkomprimierung . . . . . . . . . . . . . . . . . . . . . . . . . 133 6.2.1 Einleitendes Beispiel und Vorbetrachtungen . . . . . . . . . . 134 6.2.2 Nullwertkomprimierung . . . . . . . . . . . . . . . . . . . . . 136 6.2.3 Anfrageverarbeitung auf nullwertkomprimierten Daten . . . . 143 6.2.4 Verwandte Arbeiten und Techniken . . . . . . . . . . . . . . . 146 6.2.5 Evaluierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 6.3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 7 Zusammenfassung und Ausblick 157 Literaturverzeichnis 161 Online-Quellenverzeichnis 169 Abbildungsverzeichnis 17

    Deklarative Verarbeitung von Datenströmen in Sensornetzwerken

    Get PDF
    Sensors can now be found in many facets of every day life, and are used to capture and transfer both physical and chemical characteristics into digitally analyzable data. Wireless sensor networks play a central role in the proliferation of the industrial employment of wide-range, primarily autonomous surveillance of regions or buildings. The development of suitable systems involves a number of challenges. Current solutions are often designed with a specific task in mind, rendering them unsuitable for use in other environments. Suitable solutions for distributed systems are therefore continuously built from scratch on both the hardware and software levels, more often than not resulting in products in the market's higher price segments. Users would therefore profit from the reuse of existing modules in both areas of development. Once prefabricated solutions are available, the remaining challenge is to find a suitable combination of these solutions which fulfills the user's specifications. However, the development of suitable solutions often requires expert knowledge, especially in the case of wireless sensor networks in which resources are limited. The primary focus of this dissertation is energy-efficient data analysis in sensor networks. The AnduIN system, which is outlined in this dissertation, plays a central role in this task by reducing the software design phase to the mere formulation of the solution's specifications in a declarative query language. The system then reaches the user's defined goals in a fully automated fashion. Thus, the user is integrated into the design process only through the original definition of desired characteristics. The continuous surveillance of objects using wireless sensor networks depends strongly on a plethora of parameters. Experience has shown that energy consumption is one of the major weaknesses of wireless data transfer. One strategy for the reduction of energy consumption is to reduce the communication overhead by implementing an early analysis of measurement data on the sensor nodes. Often, it is neither possible nor practical to perform the complete data analysis of complex algorithms within the sensor network. In this case, portions of the analysis must be performed on a central computing unit. The AnduIN system integrates both simple methods as well as complex methods which are evaluated only partially in network. The system autonomously resolves which application fragments are executed on which components based on a multi-dimensional cost model. This work also includes various novel methods for the analysis of sensor data, such as methods for evaluating spatial data, data cleaning using burst detection, and the identification of frequent patters using quantitative item sets.Sensoren finden sich heutzutage in vielen Teilen des tĂ€glichen Lebens. Sie dienen dabei der Erfassung und ÜberfĂŒhrung von physikalischen oder chemischen Eigenschaften in digital auswertbare GrĂ¶ĂŸen. Drahtlose Sensornetzwerke als Mittel zur großflĂ€chigen, weitestgehend autarken Überwachung von Regionen oder GebĂ€uden sind Teil dieser BrĂŒcke und halten immer stĂ€rker Einzug in den industriellen Einsatz. die Entwicklung von geeigneten Systemen ist mit einer Vielzahl von Herausforderungen verbunden. Aktuelle Lösungen werden oftmals gezielt fĂŒr eine spezielle Aufgabe entworfen, welche sich nur bedingt fĂŒr den Einsatz in anderen Umgebungen eignen. Die sich wiederholende Neuentwicklung entsprechender verteilter Systeme sowohl auf Hardwareebene als auch auf Softwareebene, zĂ€hlt zu den wesentlichen GrĂŒnden, weshalb entsprechende Lösungen sich zumeist im hochpreisigen Segment einordnen. In beiden Entwicklungsbereichen ist daher die Wiederverwendung existierender Module im Interesse des Anwenders. Stehen entsprechende vorgefertigte Lösungen bereit, besteht weiterhin die Aufgabe, diese in geeigneter Form zu kombinieren, so dass den vom Anwender geforderten Zielen in allen Bereichen genĂŒgt wird. Insbesondere im Kontext drahtloser Sensornetzwerke, bei welchen mit stark beschrĂ€nkten Ressourcen umgegangen werden muss, ist fĂŒr das Erzeugen passender Lösungen oftmals Expertenwissen von Nöten. Im Mittelpunkt der vorliegenden Arbeit steht die energie-effiziente Datenanalyse in drahtlosen Sensornetzwerken. Hierzu wird mit \AnduIN ein System prĂ€sentiert, welches den Entwurf auf Softwareebene dahingehend vereinfachen soll, dass der Anwender lediglich die Aufgabenstellung unter Verwendung einer deklarativen Anfragesprache beschreibt. Wie das vom Anwender definierte Ziel erreicht wird, soll vollautomatisch vom System bestimmt werden. Der Nutzer wird lediglich ĂŒber die Definition gewĂŒnschter Eigenschaften in den Entwicklungsprozess integriert. Die dauerhafte Überwachung von Objekten mittels drahtloser Sensornetzwerke hĂ€ngt von einer Vielzahl von Parametern ab. Es hat sich gezeigt, dass insbesondere der Energieverbrauch bei der drahtlosen DatenĂŒbertragung eine der wesentlichen Schwachstellen ist. Ein möglicher Ansatz zur Reduktion des Energiekonsums ist die Verringerung des Kommunikationsaufwands aufgrund einer frĂŒhzeitigen Auswertung von Messergebnissen bereits auf den Sensorknoten. Oftmals ist eine vollstĂ€ndige Verarbeitung von komplexen Algorithmen im Sensornetzwerk aber nicht möglich bzw. nicht sinnvoll. Teile der Verarbeitungslogik mĂŒssen daher auf einer zentralen Instanz ausgefĂŒhrt werden. Das in der Arbeit entwickelte System integriert hierzu sowohl einfache als auch komplexe, nur teilweise im Sensornetzwerk verarbeitbare Verfahren. Die Entscheidung, welche Teile einer Applikation auf welcher Komponente ausgefĂŒhrt werden, wird vom System selbststĂ€ndig auf Basis eines mehrdimensionalen Kostenmodells gefĂ€llt. Im Rahmen der Arbeit werden weiterhin verschiedene Verfahren entwickelt, welche insbesondere im Zusammenhang mit der Analyse von Sensordaten von Interesse sind. Die erweiterten Algorithmen umfassen Methoden zur Auswertung von Daten mit rĂ€umlichem Bezug, das Data Cleaning mittels adaptiver Burst-Erkennung und die Identifikation von hĂ€ufigen Mustern ĂŒber quantitativen Itemsets

    DatenqualitÀt in Sensordatenströmen

    Get PDF
    Die stetige Entwicklung intelligenter Sensorsysteme erlaubt die Automatisierung und Verbesserung komplexer Prozess- und GeschĂ€ftsentscheidungen in vielfĂ€ltigen Anwendungsszenarien. Sensoren können zum Beispiel zur Bestimmung optimaler Wartungstermine oder zur Steuerung von Produktionslinien genutzt werden. Ein grundlegendes Problem bereitet dabei die SensordatenqualitĂ€t, die durch UmwelteinflĂŒsse und SensorausfĂ€lle beschrĂ€nkt wird. Ziel der vorliegenden Arbeit ist die Entwicklung eines DatenqualitĂ€tsmodells, das Anwendungen und Datenkonsumenten QualitĂ€tsinformationen fĂŒr eine umfassende Bewertung unsicherer Sensordaten zur VerfĂŒgung stellt. Neben Datenstrukturen zur effizienten DatenqualitĂ€tsverwaltung in Datenströmen und Datenbanken wird eine umfassende DatenqualitĂ€tsalgebra zur Berechnung der QualitĂ€t von Datenverarbeitungsergebnissen vorgestellt. DarĂŒber hinaus werden Methoden zur DatenqualitĂ€tsverbesserung entwickelt, die speziell auf die Anforderungen der Sensordatenverarbeitung angepasst sind. Die Arbeit wird durch AnsĂ€tze zur nutzerfreundlichen DatenqualitĂ€tsanfrage und -visualisierung vervollstĂ€ndigt

    Jahresbericht 2009 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV KOMMISSION 15 MITGLIEDER DER DV KOMMISSION 15 ZUR ARBEIT DES IT LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN IP Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck Kopierer Netz 32 2.2.5 WLAN 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Vertrag „Kommunikationsverbindung der SĂ€chsischen Hochschulen“ 37 2.2.8 Datennetz zu den Wohnheimstandorten 39 2.2.9 Datennetz der FakultĂ€t Informatik 39 2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 40 2.3.1 Electronic Mail 40 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 41 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 42 2.3.1.4 Web-Mail 42 2.3.1.5 Neuer Mailinglisten-Server 43 2.3.2 Authentifizierungs und Autorisierungs Infrastruktur (AAI) 43 2.3.2.1 Shibboleth 43 2.3.2.2 DFN PKI 43 2.3.3 WĂ€hlzugĂ€nge 44 2.3.4 Time Service 44 2.3.5 Voice over Internet Protocol (VoIP) 44 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 BENUTZERBERATUNG (BB) 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 49 3.4 LOGIN SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51 3.6 STORAGE MANAGEMENT 51 3.6.1 Backup Service 52 3.6.2 File Service und Speichersysteme 55 3.7 LIZENZ SERVICE 56 3.8 PERIPHERIE SERVICE 57 3.9 PC POOLS 57 3.10 SECURITY 58 3.10.1 Informationssicherheit 58 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 58 3.10.3 VPN 59 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 59 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV SYSTEME 61 4.1 ALLGEMEINES 61 4.2 PC SUPPORT 61 4.2.1 Investberatung 61 4.2.2 Implementierung 61 4.2.3 Instandhaltung 62 4.3 MICROSOFT WINDOWS SUPPORT 62 4.4 ZENTRALE SOFTWARE BESCHAFFUNG FÜR DIE TU DRESDEN 67 4.4.1 Arbeitsgruppe Software im ZKI 67 4.4.2 Strategie des Software Einsatzes an der TU Dresden 67 4.4.3 Software Beschaffung 68 5 HOCHLEISTUNGSRECHNEN 69 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 69 5.1.1 HRSK Core Router 70 5.1.2 HRSK SGI Altix 4700 70 5.1.3 HRSK PetaByte Bandarchiv 72 5.1.4 HRSK Linux Networx PC Farm 73 5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 75 5.2 NUTZUNGSÜBERSICHT DER HPC SERVER 76 5.3 SPEZIALRESSOURCEN 77 5.3.1 SGI Origin 3800 77 5.3.2 NEC SX 6 77 5.3.3 Mikrosoft HPC System 78 5.3.4 Anwendercluster 78 5.4 GRID RESSOURCEN 79 5.5 ANWENDUNGSSOFTWARE 81 5.6 VISUALISIERUNG 82 5.7 PARALLELE PROGRAMMIERWERKZEUGE 83 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 85 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 85 6.1.1 Überblick 85 6.1.2 VideokonferenzrĂ€ume 85 6.1.3 Aufgaben und Entwicklungsarbeiten 85 6.1.4 Weitere AktivitĂ€ten 88 6.1.5 Der Dienst „DFNVideoConference“ Mehrpunktkonferenzen im G WiN 88 6.1.6 Ausblick 89 6.2 D GRID 89 6.2.1 Hochenergiephysik Community Grid (HEP CG) − Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e Science Umgebung 89 6.2.2 D Grid Integrationsprojekt 2 90 6.2.3 Chemomentum 90 6.2.4 D Grid Scheduler InteroperalitĂ€t (DGSI) 91 6.2.5 MoSGrid − Molecular Simulation Grid 91 6.2.6 WisNetGrid −Wissensnetzwerke im Grid 92 6.3 BIOLOGIE 92 6.3.1 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 92 6.3.2 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 93 6.3.3 EndoSys − Modellierung der Rolle von Rab DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 93 6.3.4 SpaceSys − RĂ€umlich zeitliche Dynamik in der Systembiologie 94 6.3.5 Biologistik − Von bio inspirierter Logistik zum logistik inspirierten Bio Nano Engineering 94 6.3.6 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95 6.4 PERFORMANCE EVALUIERUNG 95 6.4.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 95 6.4.2 BenchIT − Performance Measurement for Scientific Applications 96 6.4.3 PARMA − Parallel Programming for Multi core Architectures -ParMA 97 6.4.4 VI HPS − Virtuelles Institut -HPS 97 6.4.5 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 98 6.4.6 VEKTRA − Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maßgeschneiderten Transporteigenschaften 98 6.4.7 Cool Computing −Technologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99 6.4.8 eeClust Energieeffizientes Cluster Computing 99 6.4.9 HI/CFD − Hocheffiziente Implementierung von CFD Codes fĂŒr HPC Many Core Architekturen 99 6.4.10 SILC − Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 100 6.4.11 TIMaCS − Tools for Intelligent System Mangement of Very Large Computing Systems 100 6.5 KOOPERATIONEN 101 7 DOIT INTEGRIERTES INFORMATIONSMANAGEMENT 111 7.1 VISION DER TU DRESDEN 111 7.2 ZIELE DES PROJEKTES DOIT 111 7.2.1 Analyse der bestehenden IT UnterstĂŒtzung der Organisation und ihrer Prozesse 111 7.2.2 Erarbeitung von VerbesserungsvorschlĂ€gen 111 7.2.3 HerbeifĂŒhrung strategischer Entscheidungen 112 7.2.4 Planung und DurchfĂŒhrung von Teilprojekten 112 7.2.5 Markt und Anbieteranalyse 112 7.2.6 Austausch mit anderen Hochschulen 112 7.3 ORGANISATION DES DOIT PROJEKTES 112 7.4 IDENTITÄTSMANAGEMENT 113 7.5 ELEKTRONISCHER KOSTENSTELLENZUGANG (ELKO) 114 8 AUSBILDUNGSBETRIEB UND PRAKTIKA 117 8.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 117 8.2 PRAKTIKA 118 9 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 119 10 VERANSTALTUNGEN 121 11 PUBLIKATIONEN 123 TEIL III BERICHTE DER FAKULTÄTEN FAKULTÄT MATHEMATIK UND NATURWISSENSCHAFTEN Fachrichtung Mathematik 129 Fachrichtung Physik 133 Fachrichtung Chemie und Lebensmittelchemie 137 Fachrichtung Psychologie 143 Fachrichtung Biologie 147 PHILOSOHISCHE FAKULTÄT 153 FAKULTÄT SPRACH , LITERATUR UND KULTURWISSENSCHAFTEN 157 FAKULTÄT ERZIEHUNGSWISSENSCHAFTEN 159 JURISTISCHE FAKULTÄT 163 FAKULTÄT WIRTSCHAFTSWISSENSCHAFTEN 167 FAKULTÄT INFORMATIK 175 FAKULTÄT ELEKTRO UND INFORMATIONSTECHNIK 183 FAKULTÄT MASCHINENWESEN 193 FAKULTÄT BAUINGENIEURWESEN 203 FAKULTÄT ARCHITEKTUR 211 FAKULTÄT VERKEHRSWISSENSCHAFTEN „FRIEDRICH LIST“ 215 FAKULTÄT FORST , GEO UND HYDROWISSENSCHAFTEN Fachrichtung Forstwissenschaften 231 Fachrichtung Geowissenschaften 235 Fachrichtung Wasserwesen 241 MEDIZINISCHE FAKULTÄT CARL GUSTAV CARUS 24

    Referenzarchitekturmodell fĂŒr Experience Management

    Get PDF
    Das Ziel der vorliegenden Dissertation besteht darin, Modelle fĂŒr eine Referenzarchitektur zur kontinuierlichen Etablierung einer wertbringenden Kundenperspektive im betrieblichen Leistungsprozess zu bilden. Zunehmende Dienstleistungsanteile, vermehrte digitale Dienste und innovative GeschĂ€fts-modelle erweitern die Kundenerwartung an ErfĂŒllung funktionaler Kriterien zunehmend um Erlebniserwartungen. Die Erfassung und Analyse dieser individuellen Erlebniswelt ĂŒber digitale Feedback-Kommunikation bietet neue Chancen. In Verbindung mit der Rekonstruktion digitaler Ereignisketten lĂ€sst sich die Erlebniswelt eines Kunden nachbilden. Die Daten der Erlebniswelt eines Kunden können so einem Managementprozess zugefĂŒhrt werden. Zur wirtschaftlichen Nutzung der entstehenden Datenmenge fĂŒr Experience Management benötigen Unternehmen referenzierbare Modelle und Architekturen. Auf konzeptueller Ebene werden zunĂ€chst die Anforderungen an Modelle fĂŒr Experience Management formuliert. Die entstehenden Modelle werden Funktionsmodulen zugeordnet und in ein IT-Architekturmodell integriert. Die IT-Architektur wird durch einen Ordnungsrahmen zur Organisationsgestaltung ergĂ€nzt. Relevante Datenmodelle werden auf tieferer Abstraktions-ebene konkretisiert. Die vorgestellten Modelle bilden ein referenzierbares Gesamtkonzept zur Umsetzung von Experience Management. Sie bilden unter BerĂŒcksichtigung bestehender IT-Bebauungs-landschaften eine Basis fĂŒr unternehmensspezifische Modellinstanzen. Die oft geforderte „KundenzentrizitĂ€t“ einer strategischen Unternehmensausrichtung erhĂ€lt durch diesen am Total Quality Management orientierten Ansatz kontinuierlich Impulse zur Optimierung eines Leistungsportfolios, welche besonders in diesen transformativen Zeiten zur StĂ€rkung der WettbewerbsfĂ€higkeit von Unternehmen beitragen

    Jahresbericht 2010 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV-KOMMISSION 15 MITGLIEDER DER DV-KOMMISSION 15 ZUR ARBEIT DES IT-LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN-IP-Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck-Kopierer-Netz 33 2.2.5 WLAN 33 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Vertrag „Kommunikationsverbindungen der SĂ€chsischen Hochschulen“ 37 2.2.8 Datennetz zu den Wohnheimstandorten 39 2.2.9 Datennetz der FakultĂ€t Informatik 40 2.3 KOMMUNIKATIONS- UND INFORMATIONSDIENSTE 40 2.3.1 Electronic-Mail 40 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 41 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 42 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 42 2.3.1.4 Web-Mail 42 2.3.1.5 Mailinglisten-Server 43 2.3.2 Authentifizierungs- und Autorisierungs-Infrastruktur (AAI) 43 2.3.2.1 AAI fĂŒr das Bildungsportal Sachsen 44 2.3.2.2 DFN PKI 44 2.3.3 WĂ€hlzugĂ€nge 44 2.3.4 Time-Service 44 2.3.5 Voice over Internet Protocol (VoIP) 44 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 BENUTZERBERATUNG (BB) 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 49 3.4 LOGIN-SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51 3.6 STORAGE-MANAGEMENT 51 3.6.1 Backup-Service 51 3.6.2 File-Service und Speichersysteme 53 3.7 LIZENZ-SERVICE 55 3.8 PERIPHERIE-SERVICE 55 3.9 PC-POOLS 55 3.10 SECURITY 56 3.10.1 Informationssicherheit 56 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 57 3.10.3 VPN 57 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 57 3.10.5 Netzkonzept fĂŒr Arbeitsplatzrechner mit dynamischer Portzuordnung nach IEEE 802.1x (DyPort) 58 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV-SYSTEME 59 4.1 ALLGEMEINES 59 4.2 PC-SUPPORT 59 4.2.1 Investberatung 59 4.2.2 Implementierung 59 4.2.3 Instandhaltung 59 4.3 MICROSOFT WINDOWS-SUPPORT 60 4.4 ZENTRALE SOFTWARE-BESCHAFFUNG FÜR DIE TU DRESDEN 64 4.4.1 Arbeitsgruppe Software im ZKI 64 4.4.2 Strategie des Software-Einsatzes an der TU Dresden 64 4.4.3 Software-Beschaffung 64 4.4.4 Nutzerberatungen 65 4.4.5 Software-PrĂ€sentationen 66 5 HOCHLEISTUNGSRECHNEN 67 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 67 5.1.1 HRSK Core-Router 68 5.1.2 HRSK SGI Altix 4700 68 5.1.3 HRSK PetaByte-Bandarchiv 70 5.1.4 HRSK Linux Networx PC-Farm 71 5.1.5 Globale Home-File-Systeme fĂŒr HRSK 73 5.1.5 Linux Networx PC-Cluster (Phobos) 73 5.2 NUTZUNGSÜBERSICHT DER HPC-SERVER 74 5.3 SPEZIALRESSOURCEN 75 5.3.1 NEC SX-6 75 5.3.2 Microsoft HPC-System 75 5.3.3 Anwendercluster 76 5.4 GRID-RESSOURCEN 77 5.5 ANWENDUNGSSOFTWARE 79 5.6 VISUALISIERUNG 80 5.7 PARALLELE PROGRAMMIERWERKZEUGE 81 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 83 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 83 6.1.1 Überblick 83 6.1.2 VideokonferenzrĂ€ume 83 6.1.3 Aufgaben und Entwicklungsarbeiten 83 6.1.4 Weitere AktivitĂ€ten 85 6.1.5 Der Dienst „DFNVideoConference“ - Mehrpunktkonferenzen im G-WiN 86 6.1.6 Ausblick 87 6.2 100-GIGABIT-TESTBED DRESDEN/FREIBERG 87 6.2.1 Überblick 87 6.2.2 Motivation 88 6.2.3 Setup und technische Umsetzung 88 6.2.4 Teilprojekte des ZIH 89 6.2.5 Fazit und Ausblick 90 6.3 D-GRID 90 6.3.1 D-Grid Integrationsprojekt 2 90 6.3.2 D-Grid Scheduler InteroperalitĂ€t (DGSI) 91 6.3.3 MoSGrid − Molecular Simulation Grid 91 6.3.4 WisNetGrid −Wissensnetzwerke im Grid 92 6.4 BIOLOGIE 93 6.4.1 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen-Modellen fĂŒr biologische Zellinteraktion 93 6.4.2 EndoSys − Modellierung der Rolle von Rab-DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 93 6.4.3 SpaceSys − RĂ€umlich-zeitliche Dynamik in der Systembiologie 94 6.4.4 Biologistik − Von bio-inspirierter Logistik zum logistik-inspirierten Bio-Nano-Engineering 94 6.4.5 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 94 6.4.6 SFB Transregio 79 - Werkstoffentwicklungen fĂŒr die Hartgeweberegeneration im gesunden und systemisch erkrankten Knochen 95 6.4.7 Virtuelle Leber - Raumzeitlich mathematische Modelle zur Untersuchung der Hepatozyten-PolaritĂ€t und ihre Rolle in der Lebergewebeentwicklung 95 6.4.8 GrowReg - Wachstumsregulation und Strukturbildung in der Regeneration 96 6.5 PERFORMANCE EVALUIERUNG 96 6.5.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD-Strömungen 96 6.5.2 BenchIT − Performance Measurement for Scientific Applications 97 6.5.3 PARMA − Parallel Programming for Multi-core Architectures - ParMA 98 6.5.4 VI-HPS − Virtuelles Institut - HPS 98 6.5.5 Paralleles Kopplungs-Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 99 6.5.6 VEKTRA − Virtuelle Entwicklung von Keramik- und Kompositwerkstoffen mit maßgeschneiderten Transporteigenschaften 99 6.5.7 Cool Computing −Technologien fĂŒr Energieeffiziente Computing-Plattformen (BMBF-Spitzencluster Cool Silicon) 100 6.5.8 eeClust - Energieeffizientes Cluster-Computing 100 6.5.9 HI-CFD − Hocheffiziente Implementierung von CFD-Codes fĂŒr HPC-Many-Core-Architekturen 100 6.5.10 SILC − Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 101 6.5.11 TIMaCS − Tools for Intelligent System Mangement of Very Large Computing Systems 101 6.5.12 Verbundprojekt: EMI - European Middleware Initiative 102 6.5.13 H4H – Optimise HPC Applications on Heterogeneous Architectures 102 6.6 KOOPERATIONEN 102 7 DOIT - INTEGRIERTES INFORMATIONSMANAGEMENT 105 7.1 VISION DER TU DRESDEN 105 7.2 ZIELE DER PROJEKTGRUPPE 105 7.2.1 Analyse der bestehenden IT-UnterstĂŒtzung der Organisation und ihrer Prozesse 105 7.2.2 Erarbeitung von VerbesserungsvorschlĂ€gen 105 7.2.3 HerbeifĂŒhrung strategischer Entscheidungen 106 7.2.4 Planung und DurchfĂŒhrung von Teilprojekten 106 7.2.5 Markt- und Anbieteranalyse 106 7.2.6 Austausch mit anderen Hochschulen 106 7.3 ORGANISATORISCHE EINBINDUNG DER DOIT-GRUPPE 106 7.4 IDENTITÄTSMANAGEMENT 107 7.5 KONTAKT 108 8 AUSBILDUNGSBETRIEB UND PRAKTIKA 109 8.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 109 8.2 PRAKTIKA 110 9 AUS- UND WEITERBILDUNGSVERANSTALTUNGEN 111 10 VERANSTALTUNGEN 113 11 PUBLIKATIONEN 115 TEIL III BERICHTE BIOTECHNOLOGISCHES ZENTRUM (BIOTEC) 121 BOTANISCHER GARTEN 125 LEHRZENTRUM SPRACHEN UND KULTUREN (LSK) 127 MEDIENZENTRUM (MZ) 133 UNIVERSITÄTSARCHIV (UA) 139 UNIVERSITÄTSSPORTZENTRUM (USZ) 141 ZENTRALE UNIVERSITÄTSVERWALTUNG 143 MEDIZINISCHES RECHENZENTRUM DES UNIVERSITÄTSKLINIKUMS CARL GUSTAV CARUS 145 SÄCHSISCHE LANDESBIBLIOTHEK – STAATS- UND UNIVERSITÄTSBIBLIOTHEK 14
    • 

    corecore