23 research outputs found

    Integrationsmanagement

    Full text link
    Der vorliegende Arbeitsbericht soll dem Leser Einblicke in unterschiedliche Aspekte des Integrationsmanagements geben, mit dessen unterschiedlichen Facetten und Problemen sich Jörg Becker seit Beginn seiner wissenschaftlichen Laufbahn intensiv beschäftigt hat. Hierbei wird der Terminus Integration weit gefaßt, damit die unterschiedlichsten Integrationsaspekte die Breite der Forschungsinteressen von Jörg Becker adäquat wiedergeben

    Der Lehrstuhl Datenbank- und Informationssysteme der Universität Rostock

    Get PDF
    Im Jahr 2014 feierte der Lehrstuhl Datenbank- und Informationssysteme (LS DBIS) an der Universität Rostock sein zwanzigjähriges Bestehen. Zur Jubiläumsveranstaltung mit ehemaligen und aktuellen Studenten, Mitarbeitern, Kollegen und Kooperationspartnern wurde diverses Material aus 20 Jahren aufbereitet. In diesem Beitrag soll daraus ein Rückblick auf 20 Jahre Forschung und Lehre im Bereich Datenbank- und Informationssysteme sowie ein Ein- und Ausblick auf aktuelle Forschungsarbeiten gegeben werden

    Overcoming Semantical Heterogeneity in Multiple Data Warehouse Systems

    Get PDF
    Der bedarfsorientierte Zugriff auf ein konsolidiertes Berichtswesen stellt für betriebliche Organisationen einen entscheidenden Erfolgsfaktor dar, um einen Informationsvorsprung gegenüber ihren Wettbewerbern erzielen zu können. Data-Warehouse-Systeme (DWH-Systeme) dienen dazu, Entscheidungsträgern die für ihre aktuelle Aufgabe relevanten Informationen rechtzeitig und in geeigneter Form zur Verfügung zu stellen. In der Praxis existieren jedoch multiple DWH-Systeme, die vor allem auf Ebene der Datenschemata sowie der zugrunde liegenden Terminologien eine starke Heterogenität aufweisen. Inkonsistenzen zwischen den generierten Berichten sowie eine divergente Interpretation der Berichtsergebnisse sind die Folge. Der Aufbau eines konsolidierten Berichtswesens ist daher nur mit nachträglichem, manuellem Abstimmungsaufwand möglich. Die vorliegende Arbeit widmet sich insbesondere dem durch multiple DWH-Systeme offerierten Informationsangebot. Mithilfe der im Semantic Web etablierten Technologie Resource Description Framework (RDF) und der Web Ontology Language (OWL) wird ein Rahmen zur semantisch reichhaltigen Beschreibung von DWH-Metadaten geschaffen. Derartig ausgezeichnete Metadaten unterschiedlicher DWH-Systeme werden anschließend in einer semantischen Homogenisierungsschicht (sHGS) zusammengeführt. Mit diesem Hilfsmittel können Beziehungen zwischen multiplen DWH-Systemen identifiziert und deren semantische Heterogenität überwunden werden.The demand-oriented access to consolidated reporting systems represents a critical success factor for operating organisations in order to achieve an informational advantage over their competitors. Data warehouse systems (DWH systems) provide decision-makers with information relevant to their current task in due time and form. In practice, however, a multitude of highly heterogeneous DWH systems exist which particularly vary in terms of applied data schemata and underlying terminologies. Inconsistencies between the generated reports of those systems as well as a diverging interpretation of the report results are therefore immediate consequences. As a result, the construction of a consolidated reporting system inevitably demands additional manual alignment effort. The thesis at hand is especially dedicated to information provided by multiple DWH systems. By means of the technologies of the Resource Description Framework (RDF) and the Web Ontology Language (OWL), which are established in the area of the semantic web, a framework is created to describe DWH metadata in a semantically comprehensive way. The metadata of different DWH systems marked in such a way are finally brought together in a semantic level of homogenisation (sHGS). With this tool, semantic relations between multiple DWH systems can be easily identified and their semantic heterogeneity can be overcome

    Modellierung und prototypische Implementierung eines Repository-Ansatzes fĂĽr technische Metadaten in Data Warehouse-Umgebungen

    Get PDF
    In den letzten Jahren nimmt die Bedeutung des Data Warehousing für Entscheidungsprozesse stark zu. Für eine Data Warehouse-Umgebung, die mehrere heterogene Datenquellen sowie unterschiedliche Tools integriert, ist ein leistungsfähiges Metadaten-Management unerläßlich. Data Warehouse-Metadaten können in zwei Klassen unterteilt werden: technische und semantische Metadaten. Während semantische Metadaten den Endbenutzern beim Prozeß der Analyse, Abfrage und Navigation zur Verfügung stehen, unterstützen technische Metadaten Administratoren, Entwickler und Programmierer beim Extraktions-, Transformations- und Lade- (ETL-) Prozeß. Eine wesentliche Anforderung an ein mächtiges Metadaten-Management ist die Verwaltung der Metadaten in einem Repository, das die Integration von technischen und semantischen Metadaten, von unterschiedlichen Tools und Software einer Data Warehouse-Umgebung ermöglicht. Aufgrund der Komplexität der Problematik befaßt sich diese Arbeit vor allem mit technischen Metadaten. Mittels der Modellierungssprache UML wird ein Modell für technische Metadaten etabliert. Anschließend wird dieses Metamodells auf dem objektrelationalen DBMS Informix Universal Server Version 9.1 implementiert. Die Programmierung mit ODBC ermöglicht einen einheitlichen Zugriff auf unterschiedliche DBMS. Durch das entwickelte Repository können nicht nur Metadaten bezüglich Inhalt und Struktur verschiedener Datenhaltungssysteme aus den jeweiligen Data Dictionaries importiert, sondern auch Definitionen von Abbildungen zwischen diesen Systemen vorgenommen werden

    Web-basierte Atlanten als Instrumente zur Lösung raumbezogener Problemstellungen. Ein generisches Informationsmodell als semantische Brücke zwischen Daten und Diensten

    Get PDF
    Die Arbeit beschreibt Konzeption, Entwicklung, Aufbau und Betrieb eines generischen Informationsmodells in der Verwaltung der Stadt Köln. Das Modell ist praxiserprobt und in der Fachwelt bekannt. Einige Komponenten beginnen, sich als Standard für Geoinformationssysteme durchzusetzen. In seiner Gesamtheit ist das Modell einzigartig. Über Lizenzen findet es Verbreitung in Städten und Unternehmen. Teile waren immer wieder Richtungsgeber und Schrittmacher der technologischen Entwicklung. Der Verfasser, nach Konzeption, Entwicklung und Aufbau des Modells nun mit den nicht minder schwierigen Alltäglichkeiten des Betriebs befasst, schaut visionär voraus. Er sieht zusätzlich zur technischen Weiterentwicklung die Öffnung des bisher verwaltungsinternen Informationsmodells nach außen als erstrebenswert an. Informationsbeteiligung wäre nicht nur ein auch politikwirksames Zeichen modernen Verwaltungsmanagements, sondern sicherlich auch ein willkommener Beitrag zur wohlverstandenen Informationsgesellschaft. Ein generisches Informationsmodell kann flexibel auf raumbezogene Informations-wünsche reagieren. Allein Geodaten reichen dazu aber nicht aus; sie sind um Sach-daten aus den Verwaltungsverfahren zu ergänzen. Erst dadurch ist es möglich, die umfangreichen Datenschätze einer Kommunalverwaltung in Werte umzusetzen und für vielfältige geographische Fragestellungen zu nutzen. Als Grundlage des als Semantic Data Dictionary bezeichneten Informationsmodells war ein raumbezogenes Data Warehouse zu konzipieren, zu realisieren und aufzu-bauen. Das Besondere daran ist die Verbindung eines Spatial Data Warehouse mit einem Business Data Warehouse. Das bedeutet nicht nur die Verknüpfung von Geo- und Sachdaten für Raumanalysen, sondern auch die Zusammenführung komplexer Wertschöpfungsprozesse für eine integrierte Informationsproduktion. Der Nutzer hat dadurch Zugriff auf laufend aktuelle Sachdaten für beliebige räumliche Strukturen. Die aus unterschiedlichen Quellen zusammengeführten und verdichteten Informationen werden auf der Basis einer modernen IT-Architektur als raum-bezogene Dienste im Sinne von Spatial Business Intelligence bereitgestellt. Das dahinter stehende Content Management System ermöglicht den Aufbau und die Pflege von raumbezogenen Diensten, aber auch die schnelle Reaktion auf neue Informationszusammenstellungen und unterstützt dabei Verfahren zur Informations-gewinnung. Die als Web Services angebotenen Atlanten ermöglichen dem Nutzer unterschiedliche Sichten auf Struktur, Inhalt, Funktionalität und Sprache und damit eine neue Dimension sachbezogener Raumanalysen. Am Beispiel ausgewählter Indikatoren wird der gesamte innovative Produktions-prozess von den Verwaltungsdaten über die Datenmodellierung im Data Warehouse und die Informationsmodellierung bis zu interaktiven Atlanten im Web aufgezeigt. Dazu werden Sachdaten aus unterschiedlichen Quellen kleinräumig aufbereitet und analysiert. Die Grundlagendaten und die daraus abgeleiteten Ergebnisse sind in verschiedenen Planungsatlanten nutzbar. Dieses Wertschöpfungsnetzwerk ist auf andere raumbezogene Problemstellungen übertragbar

    Analyse von Maschinendaten zur EntscheidungsunterstĂĽtzung bei der Produktverbesserung durch die Anwendung eines Feedback Assistenz Systems

    Get PDF
    Der technologische Fortschritt führt dazu, dass immer mehr Daten erzeugt und verwaltet werden. Dieser Trend lässt sich auch im Kontext des Produktlebenszyklus beobachten. Hier werden während der Nutzungsphase in der Umgebung und am Produkt selbst mit steigender Tendenz Daten mittels Sensoren automatisch erfasst. Aber auch manuell werden durch Betreiber oder Servicemitarbeiter immer mehr Daten in Informationssysteme eingegeben. Diese Daten werden für einen spezifischen Verwendungszweck, wie die Abrechnung von Dienstleistungen genutzt und anschließend archiviert. Dabei kann aus diesen Daten über ihren eigentlichen Verwendungszweck hinaus Wissen zur Verbesserung von Produkten generiert werden, wofür die Basis in der Produktentwicklung gelegt wird. Eine erfolgreiche Produktentwicklung führt zu qualitativ hochwertigen Gütern und zufriedenen Kunden und damit zu hohen Verkaufszahlen der Güter, was den Unternehmenserfolg auf dem Markt ausmacht. Daher ist die Verbesserung der Produktentwicklung immer wieder Gegenstand der Forschung. Aktuell werden hierzu im Produktlebenszyklus der Produktentwicklung nachgelagerte Phasen, speziell die Nutzungsphase kaum betrachtet. Das Ziel der vorliegenden Arbeit ist es daher einen Wissenstransfer zu realisieren, in dem aus den Produktnutzungsdaten anwendbares Wissen in die Produktentwicklung zurückgeführt wird. Der Fokus liegt dabei auf Industriegütern, bei denen die Feedbackdaten strukturiert in verschiedenen Datenquellen vorliegen und ein enger Kontakt zwischen Kunden und Herstellern gegeben ist. Zur Verwaltung und Analyse der Daten wird ein Feedback Assistenz System (FAS) konzipiert und entwickelt. Hier werden die Daten aus den verschiedenen Quellen hin transferiert und in ein einheitliches Datenbankschema übertragen. Auf diese zentrale Datenbasis lassen sich wissensbasierte Methoden anwenden u.a. aus dem Bereich des Data Mining. Diese assistieren dem Produktentwickler bei der Verbesserung bestehender Produktgenerationen. Die erfassten und umfangreichen Datenmengen werden verdichtet und Muster werden aufgedeckt, die der Bereitstellung von entscheidungsrelevantem und intuitiv verständlichem Wissen für den Produktentwickler dienen. Im Rahmen der Produktverbesserung sind hierzu explizit drei Bereiche identifiziert worden, in denen die Feedbackdaten erfolgsbringend eingesetzt werden können: die Überprüfung der Kundenanforderungen, die Fehlerdiagnose und die Bewertung von Verbesserungsalternativen. Mittels der Feedbackdaten werden Kosten- und Zeitindikatoren aufgestellt und berechnet zur Überprüfung der Kundenanforderungen mit dem Ziel bei nicht erfüllen den Produktverbesserungsprozess auszulösen. Sodann wird während der Analysephase der Produktverbesserung eine Methode zur Diagnose von Schwachstellen und Fehlerursachen entwickelt und angewandt. Ziel ist hier die Aufdeckung von Verbesserungspotentialen und somit die Senkung der Fehleranfälligkeit von Produkten. Zur Verbesserung des Produktes stehen dem Produktentwickler eine Vielzahl von Alternativen zur Verfügung, die bewertet werden müssen, nach den Zielsetzungen aus der Produktentwicklung und/oder mittels der Feedbackdaten. Hierzu ist eine Methode aus der multikriteriellen Entscheidungstheorie konzipiert und umgesetzt worden.Technological progress leads to an increasing number of generated and managed data. This trend can also be observed in the context of the product life cycle. During the use phase data are collected from the product automatically, with increasing tendency, by means of on-site, embedded or mounted sensors. In addition, the operator or service staffs insert substantial data into information systems. The accumulated data are used for specific purposes, such as billing of services, and afterwards are archived in the repositories. Knowledge can be generated from the collected data with the intention to support development and especially improvement of the product. A successful product development leads to high-quality goods and customer satisfaction which ultimately influences on the company’s success in the market with large scale sales of goods. Hence, the product development is consistently a subject of research. Currently in the product life cycle, the subsequent phases, especially the use phase is not considered. The aim of this work is to realize a knowledge transfer where applicable knowledge from the product use data is fed back into product development. The focus is on industrial goods, where the feedback data are structured in multiple data sources, and also manufacturers and customers are in close contacts. For the management and analysis of data, a feedback assistance system (FAS), is designed and developed. Here the data from different sources are transferred into a unified database. On this data layer, knowledge-based methods can be applied i.e. from the field of data-mining. These methods should assist product developers in the improvement of existing product generations. The captured, extensive amounts of data are, therefore, condensed, and patterns are detected. As a result, the FAS provide the product developer with decision-relevant and intuitively under-standable knowledge. In the scope of product improvement, important is to determine the areas in which the feedback data can be used successfully. So for the FAS, a combination of methods for three main applications will be integrated (1) verification of customer requirements, (2) fault diagnosis, and (3) evaluation of improvement potential. Cost and time indicators are deployed for the verification of requirements which consequently reveal the non-achieved objectives of the product improvement process. So the diagnosis should be applied to detect weak points and failure causes as improvement potential such as reduction of the error rate. To eliminate the existing weaknesses and deficiencies, the product developers should evaluate a variety of alternatives according to the objectives of the product development on the basis of the feedback data. For this purpose, a method from the multi-criteria decision theory is implemented

    SimMarket: Simulation des Abverkaufsverhaltens von Artikeln des Einzelhandels mit orobalbilistischen Agenten

    Get PDF
    Diese Arbeit ist in den Bereichen Business Intelligence, multiagentenbasierte Simulation und probabilistische Netzwerke angesiedelt. Das Ziel der Arbeit ist die Entwicklung eines Entscheidungsunterstützungssystems für das Sortimentsmanagement im Einzelhandel, um Optimierung von Preisen, Promotionen und der Sortimentszusammensetzung zu ermöglichen. Es wird gezeigt, wie man mit probabilistischen Agenten das Abverkaufsverhalten von Artikeln im Einzelhandel ex ante simulieren kann. Dazu wurde ein probabilistisches holonisches Multiagentensystem (PH-MAS) entwickelt, bei dem die Wissensbasen der Agenten mittels Data-Mining-Verfahren aus den Realdaten der Händler extrahiert werden. Die gewonnenen Abverkaufsmuster werden in so genannten Verhaltensnetzen kodiert, die eine Simulation der repräsentierten Artikel verwendet werden. Es wird gezeigt, wie der Kern der Verhaltensnetze durch erweiterte Bayes';sche Netze realisiert werden kann. So werden neuen Evidenzarten Soft- und Extrapolationsevidenz eingeführt und in das Simulationssystem integriert. Für die Modellierung und Simulation von globalen Abhängigkeiten zwischen Artikelagenten wird ein Verschmelzungsalgorithmus vorgestellt, der die probabilistischen Verhaltensnetze der Agenten in holonische Metanetze fusioniert. Des Weiteren wird eine mehrdimensionale Simulationssprache (MSL) für beliebige Verhaltensnetze und andere mehrdimensionale Wissensrepräsentationsformen vorgestellt. Schließlich wird eine selbst optimierende Simulationsroutine präsentiert, die beliebige zu simulierende Szenarien Abfolgen von Netzkonfigurationen konvertiert und damit effiziente Simulationen auf der Basis von Verhaltensnetzen ermöglicht. Die entwickelten Technologien wurden vollständig in Agenten des PH-MAS integriert und mit Hilfe des neu entwickelten verteilten Agentenframeworks MASg auf der Basis der .NET-Technologie realisiert. Es wird beschrieben, wie dieses generische Multiagentensystem sukzessiv zu einem umfangreichen Simulationssystem für die Prognose von Artikelabverkaufsverhalten ausgebaut wurde.This work is part of the areas Business Intelligence, multiagent-based simulation and probabilistic networks. The goal of this work is the development of a decision support system for category management in the retail domain for optimizing pricing, promotions and sales mix. I will show how to simulate ex ante the sales behaviour of products with probabilistic agents. The basis of the system is a new developed probabilistic holonic multi-agent system (PH-MAS), where the knowledge bases of the agents are extracted by data mining retailers'; real data. The patterns of sale will be encoded into so-called behaviour networks, which will be used for simulating the represented items. We will see how the core of the behaviour networks is realised with extended Bayesian networks. New kinds of evidences — soft and extrapolation evidences — are introduced and concretised. For modelling and simulating global dependencies between item agents a merging algorithm is presented for fusing the probabilistic behaviour networks of the agents into holonic meta networks. Additionally, I will present a concept of a multi-dimensional simulation language (MSL) for arbitrary behaviour networks and other multi-dimensional knowledge representation formalisms. Finally, a self-optimising simulation routine is presented, which converts arbitrary simulation scenarios into a sequence of network configurations for efficient simulation based on behaviour networks. All developed technologies of this work are integrated into the agents of the PH-MAS, which is realised by using the new developed distributed agent framework MASg and the .NET technology. I will show how this generic multi-agent system is successively expanded to a massive simulation system to forecast the sales behaviour of products

    Provenance Management unter Verwendung von Schemaabbildungen mit Annotationen

    Get PDF
    Ziel des Promotionsprojekts ProSA (Provenance Management using Schema Mappings with Annotations) ist die Anwendung und Verallgemeinerung von Techniken des Provenance-Managements im Bereich des Forschungsdatenmanagements unter Verwendung des mit zusätzlichen Provenance-Informationen erweiterten Chase&Backchase.The goal of the PhD project ProSA (Provenance Management using Schema Mappings with Annotations) is to apply and generalize provenance management techniques in the field of research data management using Chase&Backchase enhanced with additional provenance

    Semantic technologies for the domain specific and formal description of time series in databases

    Get PDF
    Messdaten werden zur effizienten Organisation und Weiterverarbeitung in relationalen Datenbanken gespeichert. Die in den letzten Jahren entstandenen Semantic Web Technologien bieten eine hervorragende Basis zur Wissensmodellierung und Beschreibung von Domäneninhalten in Form von Ontologien. Aufgrund der offenen Architektur dieses Ansatzes können leicht fremde Ontologien und Ressourcen mit eingebunden und berücksichtigt werden. Semantic Web Technologien stellen eine formale Modellierungsgrundlage dar. Mittels Reasoning kann deshalb aus Ontologien implizites Wissen abgeleitet werden. In dieser Arbeit werden semantische (Datenbank-) Annotationen und deren Interpretation fokussiert. Sie verknüpfen Datenbanken und das Semantic Web miteinander. Die Annotationen erlauben es, Inhalte von Datenbanken mit Semantic Web Technologien in verschiedenen Nutzungsszenarien zu beschreiben. Außerdem wird für die gemeinsame Behandlung und den Einsatz beider Technologien eine Architektur entwickelt. Auf dieser Basis werden Konzepte zur Visualisierung und Interaktion mit den Annotationen eingeführt. Weiterhin wird deren Einsatz zur formalen Modellierung von Ereignissen mittels Automaten betrachtet, sodass ein Reasoning zur Berechnung durchgeführt werden kann. Mittels einer Implementierung werden die eingeführten Konzepte demonstriert. Die Applikation Semantic Database Browser erlaubt die integrierte Verwendung von Messdaten und deren formaler Beschreibung. Modelle können ausgetauscht und wiederverwendet werden, sodass die Wiederverwendung von Wissen gefördert wird. Anhand des Beispiels von Ereignissen während Autofahrten wird demonstriert, wie auf Basis der formalen Beschreibung Schlussfolgerungen gezogen werden können. So können durch das Schlussfolgern ohne zusätzlichen Aufwand neue Erkenntnisse über auftretende Fahrmanöver generiert werden. Aufgrund des domänenunabhängigen Charakters der skizzierten Lösungsansätze wird gezeigt, dass diese sich leicht auf andere Anwendungsfälle anwenden lassen.Measurement data in form of time series of scientific experiments is stored in relational databases for efficient processing. Complementary, Semantic Web technologies have been developed in the last years for describing domain knowledge in form of ontologies. Due to their open architecture, foreign ontologies and resources can be easily referenced and integrated. Since Semantic Web technologies are based on predicate logic, they are suitable for formal modeling. Therefore, using reasoning implicit knowledge can be derived from ontologies. This work introduces semantic (database) annotations to link databases and ontologies to take advantage of both together by describing database contents with Semantic Web technologies. An architecture is developed for the combined handling and usage of these two technologies, which is designed in respect of scalability of large amounts of measurement data. Based on this architecture, concepts for visualizing and interacting with annotations are introduced. Furthermore, semantic annotations are used for formally modeling events in time series using finite state machines, which are computed using reasoning. An implementation is introduced to demonstrate the feasibility and advantages of the discussed concepts. The presented application Semantic Database Browser allows using semantic database annotations and interactively working with them for integrated handling of formally described measurement data. Formal models can be easily exchanged and reused to support reusability of knowledge and cooperation. By describing measurement data with models, data becomes much easier to understand. Using an example of events during driving, it is demonstrated how formal description can be used for automatic reasoning to generate additional knowledge about driving maneuvers without any additional effort. Because the presented approaches are domain independent, they can be easily adapted for other use cases

    Multikonferenz Wirtschaftsinformatik (MKWI) 2016: Technische Universität Ilmenau, 09. - 11. März 2016; Band I

    Get PDF
    Übersicht der Teilkonferenzen Band I: • 11. Konferenz Mobilität und Digitalisierung (MMS 2016) • Automated Process und Service Management • Business Intelligence, Analytics und Big Data • Computational Mobility, Transportation and Logistics • CSCW & Social Computing • Cyber-Physische Systeme und digitale Wertschöpfungsnetzwerke • Digitalisierung und Privacy • e-Commerce und e-Business • E-Government – Informations- und Kommunikationstechnologien im öffentlichen Sektor • E-Learning und Lern-Service-Engineering – Entwicklung, Einsatz und Evaluation technikgestützter Lehr-/Lernprozess
    corecore