60 research outputs found

    Semantische Informationsintegration - Konzeption eines auf Beschreibungslogiken basierenden Integrationssystems für die Produktentwicklung

    Get PDF
    Aufgrund der Notwendigkeit, unkontrolliert aufkommende Datenfluten zu beherrschen sowie der steigenden Produktkomplexität resultiert der Handlungsbedarf, skalierbare Informationsintegrationslösungen zu finden, die einen effizienten und kontextbezogenen Zugriff auf Wissen unterstützen. Einsatz eines semantischen Integrationskonzepts in der Produktentwicklung erweitert den Wissensbeschaffungsraum des Ingenieurs enorm und ermöglicht die Interoperabilität heterogener Informationssysteme

    A conceptual method for data integration in business analytics

    Get PDF
    Viele Unternehmen funktionieren derzeit in einem schnellen, dynamischen und vor allem unbeständigen Umfeld und wettbewerbsintensiven Markt. Daraus folgt, dass schnelle und faktenbasierende Entscheidungen ein wichtiger Erfolgsfaktor sein können. Basis für solche Entscheidungen sind oft Informationen aus Business Intelligence und Business Analytics. Eine der Herausforderungen bei der Schaffung von hochqualitativer Information für Geschäftsentscheidungen ist die Konsolidierung der Daten, die häufig aus mehrfachen heterogenen Systemen innerhalb eines Unternehmens oder in ein oder mehreren Standorten verteilt sind. ETL-Prozesse (Extraction, Transforming and Loading) sind häufig im Einsatz, um heterogene Daten aus einem oder mehreren Datenquellen in einem Zielsystem zusammenzuführen mit dem Ziel Data Marts oder Date Warehouse zu erstellen. Aufgrund mangelnder allgemeiner Methoden oder Ansätze, um systematisch solche ETL-Prozesse zu bewältigen, und Aufgrund der hohen Komplexität der Integration von Daten aus multiplen Quellen in einer allgemeinen, vereinheitlichten Darstellung, ist es sowohl für Fachleute als auch für die wenige erfahrene Anwender schwierig, Daten erfolgreich zu konsolidieren. Derzeit wird der analytische Prozess oft ohne vordefiniertes Rahmenwerk durchgeführt und basiert eher auf informelles Wissen als auf eine wissenschaftliche Methodik. Das größte Problem mit kommerzieller Software, die den Datenintegrationsprozess inklusive Visualisierung, Wiederverwendung von analytischen Sequenzen und automatischer Übersetzung der visuellen Beschreibung in einem ausführbaren Code unterstützt, ist, dass Metadaten für die Datenintegration generell nur syntaktisches Wissen darstellt. Semantische Informationen über die Datenstruktur sind typsicherweise nur in rudimentärer Form vorhanden und das obwohl sie eine signifikante Rolle bei der Definition des analytischen Modells und der Evaluierung des Ergebnisse spielen. Vor diesem Hintergrund hat Grossmann das “Conceptual Approach for Data Integration for Business Analytics” formuliert. Es zielt darauf hin, die Komplexität der analytischen Prozesse zu reduzieren und Fachkräfte in ihrer Arbeit zu unterstützen, um somit auch den Prozess für weniger erfahrene Anwender in unterschiedlichen Domänen zugänglich zu machen. Das Konzept ist detailliertes Wissen über Daten in Business Analytics, speziell Information über Semantik, zu berücksichtigen. Der Fokus liegt auf die Einbeziehung der strukturierten Beschreibung der Transformationsprozesse im Business Analytics, wo Informationen über Abhängigkeiten und Nebeneffekte von Algorithmen auch inkludiert sind. Darüber hinaus bezieht dieser Ansatz das Meta-Modell Konzept mit ein: es präsentiert ein Rahmenwerk mit Modellierungskonzepte für Datenintegration für Business Analytics. Basierend auf Grossmans Ansatz ist das Ziel dieser Masterarbeit die Entwicklung eines Meta-Model Prototyps, der die Datenintegration für Business Analytics unterstütz. Der Fokus liegt auf dem intellektuellen Prozess der Umwandlung einer theoretischen Methode in einem konzeptuellen Model, das auf ein Rahmenwerk von Modellierungsmethoden angewendet werden kann und welches zu den spezifischen Konzepten für eine bestimmte angewandte Meta-Model Plattform passt. Das Ergebnis ist ein Prototyp, der auf einer generischen konzeptuellen Methode basiert, welche unabhängig von der Ausführbarkeit einer Plattform ist. Darüber hinaus gibt es keine vordefinierte Granularitätsebene und die Modellobjekte sind für die unterschiedlichen Phasen der Datenintegration Prozess wiederverwendbar. Der Prototyp wurde auf der Open Model Plattform eingesetzt. Die Open Model Plattform ist eine Initiative der Universität Wien mit dem Ziel die Verwendung von Modellierungsmethoden zu erweitern und diese durch das Rahmenwerk, welches alle mögliche Modellierungsaktivitäten beinhaltet, für Geschäftsdomäne zur Verfügung zu stellen und nützlich zu machen, um die Zugänglichkeit bei dein Anwendern zu steigern.Today many organizations are operating in dynamic and rapid changing environment and highly competitive markets. Consequently fast and accurate fact-based decisions can be an important success factor. The basis for such decisions is usually business information as a result of business intelligence and business analytics in the corporate associations. One of the challenges of creating high-quality information for business decision is to consolidate the collected data that is spread in multiple heterogeneous systems throughout the organization in one or many different locations. Typically ETL-processes (Extraction, Transforming and Loading) are used to merge heterogeneous data from one or more data sources into a target system to form data repositories, data marts, or data warehouses. Due to the lack of a common methods or approaches to systematically manage such ETL processes and the high complexity of the task of integrating data from multiple sources to one common and unified view, it is difficult for both professionals and less experienced users to successfully consolidate data. Currently the analysis process is often performed without any predefined framework and is rather based on informal basis than a scientific methodology. Hence, for commercial tools that are supporting the data integration process including visualization of the integration, the reuse of analyses sequences and the automatic translation of the visual description to executable code, the major problem is that metadata used for data integration in general is only employed for representation of syntactic knowledge. Semantic information about the data structure is typically only available in a rudimentary form though it plays a significant role in defining the analysis model and the evaluation of the results. With this background Grossmann developed a “Conceptual Approach for Data Integration for Business Analytics”. It aims to support professionals by making business analytics easier and consequently more applicable to less experienced user in different domains. The idea is to incorporate detailed knowledge about the data in business analytics, especially information about semantics. It focuses on the inclusion of a more structured description of the transformation process in business analytics in which information about dependencies and side effects of the algorithms are included. Furthermore the approach incorporates the concept of meta-modelling; it presents a framework including the modelling concepts for data integration for business analytics. The idea of the thesis at hand is to develop a meta-model prototype that supports Data Integration for Business Analytics based on Grossman’s approach. The paper focuses on the intellectual process of transforming the theoretical method into a conceptual model which can be applied to the framework of a modelling methods and which fits to the specific concepts of a meta-model platform used. The result is a prototype based on a generic conceptual method which is execution platform independent, there are no pre-defined granularity levels and the objects of the model are re-usable for the different phases of the data integration process. The prototype is deployed on the Open Model Platform, an initiative started at the University of Vienna that aims to extend the usage of modelling methods and models and to make it more accessible to users by offering a framework including all kinds of modelling activities useful for business applications

    Leitfaden zur Integration eines klinischen Registers in ein existierendes Informationssystem am Beispiel des klinischen Myelomregisters des Universitätsklinikums Heidelberg

    Get PDF
    Klinische Register können die Forschungs- und Versorgungslücke zwischen evidenzbasierten klinischen Studien einerseits und der Alltagssituation andererseits schließen, indem Patienten aus der Versorgungsrealität eingeschlossen und therapeutische Langzeiteffekte, Nebenendpunkte und Begleiterscheinungen beobachtet werden. Eine systematische Planung und ein standardisiertes Vorgehen gelten dabei als wichtige Faktoren für den unmittelbaren und langfristigen Erfolg eines klinischen Registers. Methodische Richtlinien und Handlungsanleitungen hierfür existieren allerdings kaum und vorhandene Konzepte basieren auf der Annahme, dass mit einem neuen klinischen Register auch neue wissenschaftliche Dokumentationen und Infrastrukturen aufzubauen und einzuführen sind. Entsprechend bleiben bestehende Datenbestände und Informationssysteme bislang meist unberücksichtigt. Ausgehend von einer Literaturrecherche und den daraus abgeleiteten Anforderungen an ein klinisches Register und dessen informationstechnische Infrastruktur wurden ein Vorgehensmodell zur systematischen Planung und eine Referenz-IT-Architektur zum Aufbau und Betrieb einer flexiblen und erweiterbaren IT-Infrastruktur entwickelt. Das Vorgehensmodell kann als Registerprotokoll zur einheitlichen, angemessenen und nachvollziehbaren Beschreibung und zur Herleitung von Zielen, Aufgaben und Fragestellungen eines klinischen Registers eingesetzt werden. Die Referenz-IT-Architektur besteht aus fünf Komponenten: einem prolektiven Dokumentationssystem, den vorhandenen Systemen von Versorgung und Forschung, einem Data Warehouse sowie einem Metadatenmanagementsystem. Es werden Entscheidungen hinsichtlich des Zusammenwirkens spezifiziert, die bei Auswahl und Entwicklung getroffen werden sollten, sodass unterschiedliche Implementierungsvarianten möglich sind. Vorgehensmodell und Referenz-IT-Architektur wurden unter besonderer Berücksichtigung der Integration der Anwendungssysteme des klinischen Registers in die vorhandene Informationsinfrastruktur einer klinisch-wissenschaftlichen Versorgungseinrichtung entwickelt. Damit liegt erstmals ein umfassender allgemeiner Leitfaden für alle Entwicklungsphasen eines klinischen Registers und seiner Integrationsaspekte vor. Der entwickelte Leitfaden konnte erfolgreich für die Planung und den Aufbau des neu am Universitätsklinikum Heidelberg einzuführenden klinischen Myelomregisters angewendet werden. Dabei konnte die Eignung von elektronischen Datenerfassungssystemen für die Realisierung eines klinischen Registers systematische bewertet, ein allgemeines Metadatenmanagementsystem umgesetzt und erprobt und ein automatisiertes Verfahren für die Integration strukturierter Informationen aus dem Heidelberger Krankenhausinformationssystem ausgearbeitet und evaluiert sowie die Eignung von Text Mining Verfahren für die Übernahme unstrukturierter Informationen aus Arztbriefen untersucht werden. Die dabei entstandenen Methoden und Werkzeuge sind größtenteils auch für den Aufbau anderer klinischer Register nutzbar. Es kann davon ausgegangen werden, dass klinische Register auch in Zukunft eine wichtige Methode der klinischen Forschung sein werden. Mit dem entwickelten Leitfaden wurde ein Werkzeug geschaffen, das Nutzen und Nachhaltigkeit klinischer Register durch systematische Planung und Integration erhöhen kann

    Anforderungsbasierte Modellierung und Ausführung von Datenflussmodellen

    Get PDF
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert

    Einheitliches Management serviceorientierter Systeme in einer Multi-Provider-Umgebung

    Get PDF
    Die zunehmende Digitalisierung der Geschäfts- und Alltagswelt stellt die heutige Unternehmens-IT vor immer größer werdende Herausforderungen. Die Unternehmen sind gezwungen, ihre Prozesse kontinuierlich zu optimieren und an veränderte Rahmen- und Marktbedingungen anzupassen. Die IT muss mit diesem Wandel Schritt halten. Als ein strategisches IT-Konzept bietet das Cloud-Computing die Möglichkeit, die IT-Landschaft bedarfsorientiert nach dem Baukastenprinzip zusammenzustellen. In den seltensten Fällen wird aber ein einzelner Anbieter über ein passendes Leistungsangebot verfügen, das sämtliche funktionalen und nicht-funktionalen Anforderungen abdeckt. Der Weg hin zu einer Multi-Provider-Umgebung ist somit vorgezeichnet und bereits durch Trends belegt. Allerdings stellt das einheitliche Management einer Multi-Provider-Umgebung, die neben cloudbasierten auch virtuelle und physikalische Umgebungen umfasst, eine Herausforderung dar. Die anforderungsgerechte Bereitstellung und der gütegesicherte Betrieb von Services erfordern den flexiblen Einsatz aller am Verbund beteiligten Ausführungsumgebungen. Im Rahmen dieser Arbeit wird dafür eine Lösung entwickelt. Die Grundlage bildet ein Informationsmodell, das managementrelevante Ressourcen durch Managementobjekte einheitlich repräsentiert. Dazu werden Managementobjektklassen und ihre Beziehungen untereinander festgelegt. Managementobjektklassen verfügen über öffentliche Eigenschaften, die in Form von Managementvariablen modelliert werden. Mit Hilfe von Statusvariablen kann sich der Manager über den Ressourcenzustand informieren, und mit Hilfe von Konfigurationsvariablen kann er auf den Ressourcenzustand einwirken. Das Management einer Multi-Provider-Umgebung erfordert den Einsatz eines Managementsystems, das den fehlerfreien Servicebetrieb sicherstellt. Dazu gilt es, die vom Informationsmodell festgelegten Managementobjekte zur Laufzeit bereitzustellen und zu verwalten. Die Umsetzung wird dadurch erschwert, dass nicht nur eine einzelne Managementarchitektur zum Einsatz kommt, sondern zumeist mehrere. Dies setzt den Einsatz einer Datenstruktur voraus, die zur Informationsintegration verschiedenste Datenquellen anbinden kann. Dadurch lässt sich die Heterogenität überwinden und eine einheitliche Sicht auf die Managementinformationen erzeugen. Zur Gewährleistung der nicht-funktionalen Eigenschaften bedarf es neben der kontinuierlichen Überprüfung der Zieleinhaltung auch des Einsatzes adaptiver Maßnahmen, um den sich abzeichnenden Zielverfehlungen entgegenzuwirken. Hierfür kommen Policy-Regeln zum Einsatz, die die Multi-Provider-Umgebung überwachen und steuern. Im Rahmen eines Anwendungsfalls wird der experimentelle Nachweis erbracht, dass sich nicht-interaktive Services auf Basis des Informationsmodells und der Policy-Regeln in einem Verbund von heterogenen Ausführungsumgebungen flexibel bereitstellen und gütegesichert erbringen lassen

    Semantic Technologies for Manuscript Descriptions — Concepts and Visions

    Get PDF
    The contribution at hand relates recent developments in the area of the World Wide Web to codicological research. In the last number of years, an informational extension of the internet has been discussed and extensively researched: the Semantic Web. It has already been applied in many areas, including digital information processing of cultural heritage data. The Semantic Web facilitates the organisation and linking of data across websites, according to a given semantic structure. Software can then process this structural and semantic information to extract further knowledge. In the area of codicological research, many institutions are making efforts to improve the online availability of handwritten codices. If these resources could also employ Semantic Web techniques, considerable research potential could be unleashed. However, data acquisition from less structured data sources will be problematic. In particular, data stemming from unstructured sources needs to be made accessible to SemanticWeb tools through information extraction techniques. In the area of museum research, the CIDOC Conceptual Reference Model (CRM) has been widely examined and is being adopted successfully. The CRM translates well to Semantic Web research, and its concentration on contextualization of objects could support approaches in codicological research. Further concepts for the creation and management of bibliographic coherences and structured vocabularies related to the CRM will be considered in this chapter. Finally, a user scenario showing all processing steps in their context will be elaborated on

    Bio-Datenbanken

    Get PDF
    Schwerpunktthemen: Integrationsprobleme und Ansätze bei Bio-DB, Gleichheit und Ähnlichkeit, Ähnlichkeitsmaße Topics: Problems, Integration, Similarit

    A Preliminary Study on Methods for Retaining Data Quality Problems in Automatically Generated Test Data

    Get PDF
    Data in an organisation often contains business secrets that organisations do not want to release. However, there are occasions when it is necessary for an organisation to release its data such as when outsourcing work or using the cloud for Data Quality (DQ) related tasks like data cleansing. Currently, there is no mechanism that allows organisations to release their data for DQ tasks while ensuring that it is suitably protected from releasing business related secrets. The aim of this paper is therefore to present our current progress on determining which methods are able to modify secret data and retain DQ problems. So far we have identified the ways in which data swapping and the SHA-2 hash function alterations methods can be used to preserve missing data, incorrectly formatted values, and domain violations DQ problems while minimising the risk of disclosing secrets

    Metadata Exploitation in Large-scale Data Migration Projects

    Get PDF
    The inherent complexity of large-scale information integration efforts has led to the proliferation of numerous metadata capabilities to improve upon project management, quality control and governance. In this paper, we utilize complex information integration projects in the context of SAP application consolidation to analyze several new metadata capabilities, which enable improved governance and control of data quality. Further, we identify key focus areas for shaping future industrial and academic research efforts by investigating certain unaddressed aspects around these capabilities that often negatively impact information integration projects
    corecore