227 research outputs found

    Modellgetriebene O/R-Mapper: Überblick und Vergleich

    Get PDF
    Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien

    Kriterien für die Abbildung von XML-Strukturen auf relationale Datenbanken bezogen auf ein Redaktionssystem

    Get PDF
    Für Anwendungen, die mit XML-Dokumenten arbeiten, kann es aus der Sicht eines Unternehmens sinnvoll sein, die Daten in einer relationalen Datenbank zu speichern. Sollte die Anwendung von sich aus nur mit nativen XML Datenbanken arbeiten und gar keine Anbindung an relationale Datenbanken vorsehen, sind umfassende Untersuchungen notwendig. Vor allem bei Redaktionssystemen, die für den Produktiv-Betrieb eines Unternehmens essentiell sind, darf es zu keinen Beeinträchtigungen durch die Datenhaltung kommen. Redaktionssysteme arbeiten zudem aufgrund ihrer Funktionsvielfalt mit verschieden strukturierten Dokumenten, an die unterschiedliche Anforderungen bestehen. Es müssen also optimale Strukturen für die einzelnen Dokument-Gruppen gefunden werden. Möglichkeiten XML-Dokumente in einer relationalen Datenbank zu speichern gibt es allerdings viele. Sei es ein nativer XML-Datentyp, ein Mapping auf Relationen oder gar ein hybrides Verfahren. Die Wahl der passenden Struktur wird nicht nur durch die Anwendung, die Nutzer und die Datenbanken beeinflusst, sondern auch durch die Struktur und die Nutzungskontexte der XML-Dokumente. Ziel dieser Arbeit ist es, anhand von ermittelten Kriterien, optimale Strukturen für verschiedenartige XML-Dokumente zu finden. Dazu werden neben dem Redaktionssystem, den Datenbanken und den Daten, auch verschiedene Strukturen untersucht. Abgesehen von den Strukturlösungen sollen die Erkenntnisse in dieser Arbeit dabei helfen, die native XML Datenbank des betroffenen Redaktionssystems durch eine relationale Datenbank zu ersetzen

    Eine Modellierungssprache zur Entwicklung effizienter Vorlagen für die klinische Befunddokumentation: Im Fachbereich der Gastroenterologie

    Get PDF
    Die klinische Dokumentation ist ein zentraler Bestandteil der Patientenversorgung. Sie dient der räumlichen und zeitlichen Überbrückung des Kommunikationsbedarfs zwischen den an der Versorgung beteiligten Akteuren. Die Erstellung einer vollständigen und präzi-sen Dokumentation beansprucht einen erheblichen Teil der ärztlichen Arbeitszeit. Diese Zeit zu reduzieren und dabei die Qualität der erfassten Daten zu verbessern gehört zu den technologischen Aufgaben des klinischen Informationssystems. Ziel dieser Arbeit ist die Konzeption einer Modellierungssprache zur Beschreibung von Befundvorlagen für die strukturierte Dokumentation. Darauf aufbauend werden die Möglichkeiten der Integration in konventionelle Informationssysteme beschrieben. Eine Anforderung dieser Arbeit ist es einer breiteren Autorenbasis die Mitgestaltung der Vorlagen zu ermöglichen. Dieses Ziel wurde insbesondere durch eine visuelle Notation sowie ein Konstrukt für die kollaborative Entwicklung der Vorlagen erreicht. Die Beschreibungssprache wurde zyklisch den Anfor-derungen der Klinikärzte und Autoren angepasst. Eine mit der Beschreibungssprache ver-knüpfbare Ontologie ist die Basis für Automatismen und verbessert als semantisches Be-zugssystem die Qualität der erfassten Daten. Das Artefakt ermöglicht zum einen die zeitef-fiziente Erstellung der Befundberichte durch die strukturierte, leitfadengestützte Doku-mentation und zum anderen wird analog zu dem narrativen Befundbericht automatisch ein formales Modell erstellt, dass die Möglichkeiten der Eingabe, Repräsentation und Auswer-tung der Daten erweitert. Im Rahmen der abschließenden Evaluation wurde das Artefakt in ein klinisches Informationssystem mit relationaler Datenbasis integriert. Es konnte ge-zeigt werden, dass durch das entwickelte Artefakt und insbesondere durch die Möglichkei-ten des formalen Modells, beispielsweise die Automatismen, das initiale Ziel einer zeiteffi-zienten Dokumentation erreicht wurde. Darüber hinaus konnte, vor allem durch erweiterte Möglichkeiten der Datenauswertung, die Qualität der Daten und deren Nutzen verbessert werden. Das Artefakt wurde innerhalb der Gastroenterologie evaluiert und kann auf weite-re Fachbereiche, insbesondere der Inneren Medizin übertragen werden

    Big Data und ihre Technologien: Hadoop und NoSQL-DBMS

    Get PDF
    In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.The following Bachelor Thesis deals with Big Data and its related technologies, which are NoSQL and Hadoop. The selection of the topic was made deliberately, because of its actuality as well as its growing importance from a business perspective. Due to ever-growing data, that is available up to 80% in semi-structured form, the IT infrastructure of a company quickly reaches its limits. Exactly at this point Big Data technologies like NoSQL and Hadoop should help to process large amounts of data in order to provide valuable information that was not previously recognized

    Temporale Aspekte und Provenance-Anfragen im Umfeld des Forschungsdatenmanagements

    Get PDF
    Zur Verbesserung der Qualität wissenschaftlicher Arbeiten besteht Interesse an der Rückverfolgbarkeit und Nachnutzung von Forschungsdaten. Die Erhebung von diesen Daten erfolgt einerseits manuell, andererseits automatisiert durch Instrumente und Sensoren der im Forschungsgebiet genutzten Geräte. Das Leibniz-Institut für Ostseeforschung Warnemünde betreibt eine instrumentierte Messplattform (GODESS) zur Untersuchung von physikalischen und chemischen Umweltparametern der Ostsee in verschiedenen Tiefen. Durch den modularen Aufbau und Konfiguration der Plattform ergeben sich Änderungen in den Datenformaten sowie Anpassungen der Auswerte- und Analysefunktionen. Im Kontext von Datenbanken entspricht dies Änderungen des relationalen Datenbankschemas sowie von SQL-Funktionen. In dieser Arbeit wird untersucht, unter welchen Voraussetzungen veränderte SQL-Funktionen auf veränderte Schemata angewendet werden können. Dazu wird im Konzept gezeigt, wie Veränderungen von SQL-Funktionen durch Techniken der temporalen Datenhaltung aufgezeichnet werden können. Das Festhalten und Verfolgen von Schemaänderungen wird zusätzlich skizziert. Danach erfolgt die Untersuchung der Anwendbarkeit von Funktionen auf sich verändernde Schemata sowie die Anwendbarkeit von Funktionen bei Funktionsänderungen. Die Ergebnisse werden zusammenfassend in Form von Tabellen präsentiert. Ferner wird auf Möglichkeiten der automatisierten Kompensation der Änderungen zur Wahrung der weiteren Anwendbarkeit der Funktionen mittels Schemaintegrationstechniken eingegangen. Danach wird der Zusammenhang der Herkunft von Daten und Aspekten der temporalen Datenhaltung beschrieben. Es folgt eine prototypische Umsetzung der Versionierung von SQL-Funktionen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick auf weitere mögliche und weiterführende Themen gegeben.To improve the quality of scientific work it is necessary to trace research data and provide it for a subsequent use. The data is acquired manually as well as automatically, generated with instruments and sensors of the involved devices in the particular scientific discipline. The Leibniz Institute for Baltic Sea Research Warnemünde runs a profiling monitoring station (GODESS) to measure physical and chemical environmental data at several depths of the Baltic Sea. The modular structure and configuration of the platform leads to changes in the data formats and the functions by which the data is analyzed. In the context of databases these changes correspond to changes in the relational schemata and SQL-functions. This thesis analyses the requirements to use changed SQL-functions on changed schemata. For that purpose it will be demonstrated how changes of SQL-functions could be recorded with techniques of temporal data management. Furthermore the recording of relational schema changes will be outlined. The applicability of SQL-functions on changed schemata and the applicability of SQL-functions on changed functions will be analyzed. The results will be summarized and presented in tables. Moreover options to compensate the changes to reuse the function are shown with techniques of schema integration. The link between data provenance and temporal data management will be described. A prototype to record changes of SQL-functions over a period of time is proposed. The thesis will be summarized and provides an outlook of possible future topics and further papers

    Evolution von Ontologien in den Lebenswissenschaften

    Get PDF
    In den Lebenswissenschaften haben sich Ontologien in den letzten Jahren auf breiter Front durchgesetzt und sind in vielen Anwendungs- und Analyseszenarien kaum mehr wegzudenken. So etablierten sich nach und nach immer mehr domänenspezifische Ontologien, z.B. Anatomie-Ontologien oder Ontologien zur Beschreibung der Funktionen von Genen oder Proteinen. Da das Wissen in den Lebenswissenschaften sich rapide ändert und weiterentwickelt, müssen die entsprechenden Ontologien ständig angepasst und verändert werden, um einen möglichst aktuellen Wissensstand zu repräsentieren. Nutzer von Ontologien müssen mit dieser Evolution umgehen können, d.h. um \\\\\\\"Up-to-Date\\\\\\\" zu sein, sollten die aktuellsten Versionen einer Ontologie verwendet werden. Dies ist häufig nur schwer umsetzbar, da die Evolution weitreichende Einflüsse auf existierende Datenbestände, Analyseergebnisse oder Anwendungen haben kann. Innerhalb dieser Dissertation stehen Werkzeuge und Algorithmen zum Umgang mit sich ständig ändernden Ontologien im Bereich der Lebenswissenschaften im Mittelpunkt. Zunächst wird ein generelles Framework für quantitative Evolutionsanalysen eingeführt. Das Framework wird für eine umfassende Analyse der Evolution zahlreicher Ontologien der Lebenswissenschaften verwendet. Die Analysen zeigen, dass alle untersuchten Ontologien stetig verändert (angepasst) werden und ein signifikantes Wachstum aufweisen. Auch für auf Ontologien basierte Mappings, d.h. Verknüpfungen zwischen Datenquellen und Ontologien (Annotation-Mapping) sowie zwischen Ontologien selbst (Ontologie-Mapping), liegen starke und häufige Veränderungen vor. Es besteht somit ein Bedarf, die Evolution von Ontologien in den Lebenswissenschaften und deren Konsequenzen zu unterstützen, d.h. Nutzern von sich ständig ändernden Ontologien angemessene Algorithmen/Werkzeuge bereitzustellen. Die Erkenntnisse aus den durchgeführten Analysen bilden die Basis für die nachfolgenden Arbeiten. Eine immer wiederkehrende Aufgabe im Rahmen der Ontologieevolution besteht in der Bestimmung von Änderungen zwischen zwei Versionen einer Ontologie, d.h. worin besteht der Unterschied und wie hat sich die neuere Version aus der alten Version heraus entwickelt. Das Ergebnis, d.h. der Diff (die Differenz) zwischen den beiden Ontologieversionen, bildet die Basis für weitere Aufgaben wie beispielsweise die Anpassung abhängiger Daten. Innerhalb der Arbeit wird ein neuartiger auf Regeln basierter Algorithmus vorgestellt, welcher den Diff zwischen zwei Ontologieversionen bestimmt. Es werden sowohl einfache wie auch komplexe Änderungen erkannt, was eine kompakte, intuitive und verständliche Diff-Repräsentation garantiert. Es wird theoretisch wie praktisch gezeigt, dass ein vollständiger Diff bestimmt wird, was eine korrekte Migration von Ontologieversionen ermöglicht. Ein weiterer Schwerpunkt der Arbeit liegt in der Bestimmung änderungsintensiver bzw. stabiler Regionen in einer Ontologie. Dazu wird die Notation von Ontologieregionen und zugehörige Metrikern zur Beurteilung ihrer Änderungsintensität (Stabilität) eingeführt. Ein neuartiger automatisierter Algorithmus erlaubt die Bestimmung (in)stabiler Ontologieregionen auf Basis veröffentlichter Ontologieversionen in einem vorgegebenen Zeitraum. Durch erkannte Änderungen zwischen Ontologieversionen und mit Hilfe der Ontologiestruktur werden änderungsintensive bzw. stabile Ontologieregionen erkannt. Die Evaluierung anhand großer Ontologien der Lebenswissenschaften zeigt, dass der Algorithmus in der Lage ist (in)stabile Ontologieregionen automatisiert zu bestimmen. Abschließend wird das webbasierte System OnEX und dessen Versionierungsansatz präsentiert. OnEX ermöglicht einen benutzerfreundlichen und interaktiven Zugang zu Informationen über die Evolution und Änderungen in Ontologien der Lebenswissenschaften. Nutzer können Ontologien aus ihrem Interessengebiet bzgl. Evolution untersuchen, indem sie beispielsweise Änderungen an einer Ontologieversion einsehen, welche in einer Analyse oder Anwendung genutzt werden soll. Der OnEX zugrunde liegende Versionierungsansatz ermöglicht eine skalierbare und speichereffiziente Versionierung großer Ontologien durch die Nutzung von Zeitstempeln. Mit Hilfe des Ansatzes konnten 16 Ontologien mit ca. 700 Versionen seit 2002 versioniert und Nutzern über OnEX für Evolutionsanalysen zugänglich gemacht werden

    System design for distributed applications and models in the planning process

    Get PDF
    Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.The planning process in structural engineering can be characterized by three iterative phases: the phase of distribution of tasks, the phase of parallel working with cooperation among the planners and the phase of merging the results. Available planning software does only support the second phase and the exchange of data via documents. The objective of this thesis is the development of a software architecture that supports the three phases and all types of cooperation (asynchronous, parallel and reciprocal) in principle and integrates existing engineering applications. The common planning material is abstracted as a set of object versions, element versions and their relationships. Elements extend objects with application independent properties, called features. Subsets on the base of features are calculated for the execution of tasks. Therefore new versions of elements and objects are derived and copied into the planners’s private workspace. Already stored versions remain unchanged and can be referred to. Modifications base on operations that ensure the consistency of the versioned model. The system architecture is formally described with mathematical methods. Available information technology is analyzed and used for an implementation concept. The implementation concept is proven by a pilot applicable in the Internet. The implementation is based on the programming language Java, a version control system and a relational database

    Prototypische Implementation einer oBPM-Ausführungsumgebung : basierend auf der NoSQL-Datenbank ArangoDB

    Get PDF
    Das Konzept von Prozessautomatisierungs-Systemen ist bereits seit Jahrzehnten ein fester Bestandteil von Geschäftsorganisationen. Mit den Jahren haben sich anhand verschiedener Einsatzgebiete unterschiedliche Konzepte entwickelt, wie und auf welche Weise Prozessmodelle definiert und in Automatisierungslösungen implementiert werden. Neben den traditionellen control-flow-basierten Prozessmodellen haben sich dokument- und artefakt-zentrische Modellierungskonzepte durchgesetzt. Diese stellen die Dokumente und Artefakte eines Prozesses in den Mittelpunkt und fokussieren sich weniger auf den statischen Control-Flow traditioneller Prozessmodelle. Zu den bereits bestehenden dokument-zentrischen Prozessmodellen hat sich das Konzept des Opportunistic Business Process Modeling (oBPM) dazu gesellt. Im Rahmen dieser Arbeit wird ein Software-Prototyp basierend auf dem Datenbanksystem ArangoDB implementiert, auf dessen Basis oBPM-basierte Prozessmodelle definiert und ausgeführt werden können. Mit Hilfe des umgesetzten Prototypen wird geprüft, inwiefern sich ArangoDB für die Umsetzung eines oBPMSystems eignet hinsichtlich der Performance, Skalierbarkeit und weiteren nichtfunktionalen Anforderungen. Dazu werden in dieser Arbeit in einem ersten Schritt die Anforderungen an ein oBPM-Modellierungs- und Ausführungssystem analysiert und zusammengefasst. In einem nächsten Schritt wird der Funktionsumfang und die Einsatzmöglichkeiten von ArangoDB geprüft, um auf dieser Basis die zu implementierende Datenstruktur zu planen. Danach werden verschiedene Varianten von möglichen Systemarchitekturen evaluiert und miteinander verglichen. Nach Abschluss der Analyse wird die Umsetzung der Implementation aufgezeigt, hinsichtlich der Datenstrukturen und Applikationsschnittstellen. Als letzter Teil dieser Arbeit wird aufgezeigt, wie die umgesetzte Implementation bezüglich der funktionalen Anforderungen, der Performance und der Skalierbarkeit getestet wird. Anhand des in dieser Arbeit implementierten Prototypen kann aufgezeigt werden, dass sich die verwendeten Software-Komponenten, im Speziellen ArangoDB, sehr gut für die Umsetzung eines oBPM-Systems eignen. Alle funktionalen Anforderungen können im Prototypen umgesetzt werden. Vor allem das Multi-Model-Konzept von ArangoDB, welches dokumenten- und graphen-basierte Datenbankkonzepte vereint, eignet sich gut um die in der Modellierung nach oBPM anfallenden Datenstrukturen zu persistieren. Mit Hilfe von Performancetests anhand verschiedener Benutzungsszenarien kann aufgezeigt werden, dass die vom implementierten Prototyp erreichte Performance und Skalierbarkeit nicht für den produktiven Betrieb genügend ist. Die Reaktionszeit des Systems unter hoher Last übersteigt die in den Testszenarien definierten Richtwerten von unter 2 Sekunden beträchtlich. Nichtsdestotrotz kann diese Arbeit aufzeigen, dass die Implementation eines oBPMbasierten Systems zur Modellierung und Ausführung von Prozessen in funktionaler Hinsicht möglich ist und dass sich das Datenbanksystem ArangoDB als zentrale Einheit einer oBPM-Umgebung bewährt

    Digitale Editionen im Spannungsfeld des Medienwechsels: Analysen und Lösungsstrategien aus Sicht der Informatik

    Get PDF
    Im Spannungsfeld des Medienwechsels von der gedruckten zur digitalen Edition wirken komplexe und oft konfligierende Kräfte. Aus der Perspektive der Informatik identifiziert der Autor die Ursprünge und Wechselwirkungen dieser Kräfte, präzisiert sie als wesentliche Konflikte und analysiert sie systematisierend durch Adaption etablierter Konzepte. Gestützt auf diese theoretischen Erkenntnisse leitet er technische Anforderungen an moderne Editionsinfrastrukturen ab, entwickelt innovative Konfliktlösungsstrategien (u.a. mit Hilfe von Blockchain-Technologien) und stellt auf Basis der Revisionssicherheit erstmals eine Methodik für die bewertende Einordnung dieses austarierenden Technikeinsatzes bereit
    corecore