28 research outputs found

    Verfahren zur Verarbeitung von XML-Werten in SQL-Anfrageergebnissen

    Get PDF
    Gemäß der aktuellen Version der SQL-Norm kann ein Anfrageergebnis beliebige XQuery-Sequenzen als Spaltenwerte enthalten. Dies schließt insbesondere auch aus mehreren Sequenzeinträgen bestehende XQuery-Sequenzen ein, deren Knoten mit Typinformationen angereichert sind. Auf die Frage, wie sich derartige (in einem SQL-Anfrageergebnis enthaltene) XQuery-Sequenzen adäquat mit Hilfe eines Anwendungsprogramms verarbeiten lassen, liefert bisher allerdings weder die SQL-Norm noch ein RDBMS-Produkt eine zufriedenstellende Antwort. Zum Schließen dieser Lücke wird in der vorliegenden Arbeit das Verfahren der Sequenzcursor-basierten Verarbeitung eingeführt. Die Grundidee dieses Verfahrens (welches eine angemessene und komfortable Verarbeitung der in einem SQL-Anfrageergebnis enthaltenen XQuery-Sequenzen ermöglicht) besteht darin, mit Hilfe einer neuen Cursorart, den so genannten Sequenzcursorn, in die XQuery-Sequenzen des aktuellen Ergebnistupels einzutauchen, um Sequenzausschnitte zu definieren. Diese Sequenzausschnitte werden dann ins Anwendungsprogramm übertragen und dort lokal verarbeitet. Sofern dabei Änderungen an den Sequenzausschnitten vorgenommen werden, kann das Anwendungsprogramm entscheiden, ob diese Änderungen in die Datenbank (wieder)eingebracht werden sollen

    Personalisierungskonzepte für Digitale Bibliotheken

    Get PDF
    Ein entscheidender Nachteil heutiger Digitaler Bibliotheken Lösungen ist ihr unpersönlicher Charakter. Nutzer einer Digitalen Bibliothek möchten sich aber beispielsweise ihre eigene Sicht auf den Datenbestand definieren, Dokumente annotieren oder informiert werden, wenn sich Änderungen an Datenbeständen ergeben, die für sie von Interesse sind. In dieser Diplomarbeit werden darum Konzepte zur Personalisierung Digitaler Bibliotheken vorgestellt und in Form von Diensten in die Architektur einer bestehenden Digitalen Bibliothek eingefügt. Die Implementierung einiger dieser Dienste schließt die Arbeit ab

    Metadatenverwaltung für Multimedia-Content-Management mit OLAP-Funktionalität

    Get PDF
    Der Hauptschwerpunkt bei der Entwicklung wireless-orientierter, multimedialer Content- Management-Systeme liegt auf der adäquaten Speicherung, Verwaltung und Recherche multimedialer Dokument-Strukturen sowie auf der anwendungsspezifischen Darstellung und Repräsentation dieser Dokumente auf verschiedenen Endgeräten. In diesem Kontext kann die Extensible Markup Language (XML) zur Verbesserung einer großen Bandbreite möglicher Anwendungen beitragen. Im Rahmen dieser Arbeit wird ein Ansatz für eine universelle Metadatenverwaltung zur Steuerung signifikanter Transformations - und Daten-Analyse-Prozesse entwickelt. Dabei wird eine möglichst enge Kopplung von Data Warehouse-Funktionalität (OLAP) mit einer ausgewählten XML-Framework-Architektur angestrebt. Ziel ist ein erweiterter Architektur-Vorschlag, der die Grundlage für zukünftige offene und erweiterbare Multimedia-Content-Management-Systeme bilden kann. Grundlage dieser Architektur ist ein Metadaten-Repository auf der Basis der Resource Description Framework Spezifikation (RDF)

    Ähnlichkeitsbasierte Suche in Geschäftsprozessmodelldatenbanken

    Get PDF
    Die Wiederverwendung von Prozessmodellen bietet sich zur Reduzierung des hohen Modellierungsaufwands an. Allerdings ist das Auffinden von ähnlichen Modellen in großen Modellsammlungen manuell nicht effizient möglich. Hilfreich sind daher Suchmöglichkeiten nach relevanten Modellen, die als Vorlage zur Modellierung genutzt werden können. In dieser Arbeit werden Ansätze beschrieben, um innerhalb von Prozessmodellbibliotheken nach ähnlichen Modellen und Aktivitäten zu suchen

    Erweiterung der ProSA-Pipeline um die Verarbeitung einzelner Schemaevolutionschritte

    Get PDF
    Das Werkzeug ProSA, welches vom Lehrstuhl Datenbank- und Informationssysteme der Universität Rostock entwickelt wurde, bietet verschiedene Möglichkeiten zum Forschungsdatenmanagement an. Mit der Erstellung einer minimalen Teildatenbank soll die Reproduzierbarkeit von Forschungsergebnissen ermöglicht und gleichzeitig der Speicherbedarf reduziert werden. Dabei werden die Forschungsdatenbanken laufend mit neuen Daten erweitert und verändern sich in ihrer Struktur, wodurch die damalige Anfrage oft nicht die selben Ergebnisse liefert oder garnicht erst Ausführbar ist. Ziel dieser Arbeit ist Erweiterung der ProSA-Pipeline zur Implementierung von (Inverse-)Schemaevolutionen. Demnach sollen Änderungen an Datenbanken vorrübergehend Rückgängig gemacht werden, sodass wir die ursprüngliche Datenbank erhalten und die Anfrage erneut stellen können. Dazu sollen bereits implementierte Komponenten wie ChaTEAU und der Invertierer verwendet werden, um die Schemaevolutionsoperatoren anzuwenden und deren Inversen zu bilden. Vorherige Arbeiten der Universität Rostock bilden die Basis für die Grundlagen und das Konzept der Erweiterung

    Aspektorientierte Datenhaltung in Produktkonfiguratoren: Anforderungen, Konzepte und Realisierung

    Get PDF
    Seit Mitte des 20. Jahrhunderts äußert sich der weltweite soziokulturelle Prozess der Individualisierung auch im geänderten Konsumverhalten. Dabei sehen sich Unternehmen zunehmend mit dem Wunsch nach kundenindividuellen Produkten zum Preis eines äquivalenten Massenprodukts konfrontiert. Während durch produktionsspezifische Konzepte wie Modularisierung und Baukastenprinzip zwar eine enorme Variantenvielfalt erreicht werden kann, sind zur Beherrschung der damit verbundenen Komplexität jedoch Produktkonfiguratoren als unterstützende IT-Anwendungssysteme notwendig. Diese werden im ersten Teil der vorliegenden Arbeit eingeführt und klassifiziert. Aufgrund des meist webbasierten Einsatzes von Produktkonfiguratoren müssen sie sich auch den Anforderungen der Globalisierung stellen. Dabei wirken sich die regionalen Unterschiede bezüglich Sprache oder Preispolitik nicht nur auf die Nutzeroberfläche aus, sondern haben auch Einfluss auf die Struktur und Speicherung der Produkte. Zur Gewährleistung von Datenunabhängigkeit ist zudem eine generische und orthogonale Integration jener als funktionale Aspekte bezeichneten Dimensionen erstrebenswert. Hierfür werden im zweiten Teil das Paradigma der aspektorientierten Datenhaltung formuliert und Möglichkeiten zur Persistierung analysiert. Im dritten Teil erfolgt der Entwurf eines allgemeinen Referenzmodells für die aspektorientierte Datenhaltung auf Basis des relationalen Datenmodells aufgrund der hohen Praxisrelevanz für Datenbanksysteme. Darüber hinaus findet auch der Vergleich geeigneter Zugriffstechniken für die Auswertung jener Strukturen im Referenzmodell statt. Abschließend wird die Praxistauglichkeit des definierten Modells unter Beweis gestellt. Dazu erfolgt zunächst die Beschreibung einer prototypischen Implementierung der als Anwendungsbibliothek ausgelegten Zugriffsschicht. Deren Bewertung durch einen umfangreichen Performancetest bescheinigt letztlich ein effizientes Laufzeitverhalten

    Semantic web and context : storage and retrieval of rdf data considering context information

    Get PDF
    Durch das Semantische Web soll es Maschinen ermöglicht werden Metadaten zu verstehen. Hierin steckt ein enormes Potenzial, wodurch sich der Umgang mit dem heutigen Internet grundlegend ändern kann. Das Semantische Web steht jedoch noch am Anfang. Es gilt noch einige offene und strittige Punkte zu klären. Das Fundament des Semantischen Webs wird durch das Resource Description Framework (RDF) gebildet, worauf sich diese Arbeit konzentriert. Hauptziel meiner Arbeit war die Verbesserung der Funktionalität und der Nutzungsfreundlichkeit für RDF-Speicher- und Anfragesysteme. Dabei stand die allgemeine Nutzung für ein Informationsportal oder eine Internetsuchmaschine im Vordergrund. Meine Überlegungen hierzu wurden in dem Speichersystem RDF-Source related Storage System (RDF-S3) und der darauf aufsetzenden Anfragesprache easy RDF Query Language (eRQL) umgesetzt. Insbesondere wurden die folgende Kernpunkte berücksichtigt: • Allgemeine Nutzbarkeit der Anfragesprache, sodass auch unerfahrene Nutzer einfach und schnell Anfragen erstellen können. Um auch von unerfahrenen Nutzern bedient werden zu können, konnte keine komplexe Syntax verwendet werden, wie dies bei den meisten existierenden Anfragesprachen der Fall ist. Es wurde sich daher an Anfragesprachen existierender Suchmaschinen angelehnt. Entsprechend bilden sogenannte Ein-Wort-Anfragen, die den Suchbegriffen entsprechen, eine wichtige Rolle. Um gezieltere Anfragen stellen zu können, sind jedoch die Schemainformationen der gespeicherten Daten sehr wichtig. Hier bietet bereits die RDF Query Language (RQL) viele hilfreiche Kurzschreibweisen, an die sich eRQL anlehnt. • Bereitstellung glaubwürdiger Metadaten, sodass den Anfrageergebnissen vertraut werden kann. Das Semantische Web ist ein verteiltes System, wobei keine Kontrolle auf die Datenquellen ausgeübt werden kann. Den Daten kann daher nicht ohne weiteres vertraut werden. Anders ist dies mit Metadaten, die von eigenen Systemen erzeugt wurden. Man weiß wie sie erzeugt wurden und kann ihnen entsprechend vertrauen. Wichtig ist eine klare Trennung zwischen den Daten und den Metadaten über diese, da sonst eine absichtliche Nachbildung der Metadaten von außen (Suchmaschinen-Spamming) das System unterlaufen kann. Für die Glaubwürdigkeit von Anfrageergebnissen sind vor allem die Herkunft der Daten und deren Aktualität entscheidend. In den umgesetzten Entwicklungen zu dieser Arbeit wurde sich daher auf diese Informationen konzentriert. In RDF-S3 wird die Verknüpfung der RDF-Aussage mit ihren Herkunftsdaten im Speichermodell abgebildet. Dies ermöglicht eine gezielte Ausnutzung dieser Daten in eRQL-Anfragen. Durch den sogenannten Dokumenten-Modus bietet eRQL die Möglichkeit Anfragen auf eine Gruppe von Quellen zu begrenzen oder bestimmte unglaubwürdige Quellen auszuschließen. Auch können die Herkunftsdaten das Anfrageergebniss erweitern und dadurch das Verständnis und die Glaubwürdigkeit für das Ergebnis erhöhen. • Anfrageergebnisse können um ihre Umgebung erweitert werden, sodass sie besser verstanden werden können. Für eRQL-Anfragen besteht die Möglichkeit die Umgebnung zu den Treffern (RDF-Aussagen) mit zu berücksichtigen und im Ergebnis mit anzuzeigen. Dies erhöht das Verständnis für die Ergebnisse. Weiterhin ergeben sich hierdurch neue Möglichkeiten wie das Auffinden von Pfaden zwischen Teilergebnissen einer Anfrage. • Unterstützung und Kombination von Daten- und Schemaanfragen. Mit eRQL werden beide Anfragetypen unterstützt und können sinnvoll miteinander kombiniert werden. Die Einbeziehung der Umgebung ermöglicht für die Kombination von Daten- und Schemaanfragen neue Möglichkeiten. Dabei werden sowohl Daten- als auch Schemaanfragen (oder deren Kombination) durch das Speichermodell von RDF-S3 optimal unterstützt. Weitere nennenswerte Eigenschaften von RDF-S3 und eRQL sind: • Durch die Möglichkeit gezielt einzelne Quellen wieder zu entfernen oder zu aktualisieren, bietet RDF-S3 eine gute Wartbarkeit der gespeicherten Daten. • RDF-S3 und eRQL sind zu 100 % in Java entwickelt, wodurch ihr Einsatz unabhängig vom Betriebssystem möglich ist. • Der Datenbankzugriff erfolgt über JDBC, wobei keine besonderen Eigenschaften für die verwendete RDBMS nötig sind . Dies sorgt für eine hohe Portabilität. RDF-S3 und eRQL wurden als Beispielimplementierungen entwickelt. Für einen produktiven Einsatz sollten die Systeme an die gegebene Hardware-Umgebung und Anwendungsfall angepasst werden. In Kapitel 6 werden Erweiterungen und Änderungsmöglichkeiten genannt, die je nach Situation geprüft werden sollten. Ein noch vorhandenes Problem für einen produktiven Einsatz auf großen Datenmengen ist die aufwendige Berechnung der Umgebungen für Anfrageergebnisse. Die Berechnung von Umgebungen im Vorhinein könnte hier eine Lösung sein, die jedoch durch die Möglichkeit der Einschränkung auf glaubwürdige Quellen erschwert wird.Main goal of my work was to generate a system with improve functionalities to store and retrieve RDF data. In addition the system should be portable and easy to install. As result of my work I implemented a storage system called RDF-S3 and a retrieval language called eRQL. Both are implemented in Java and only require the existance of an relational DBMS. With RDF-S3 I provide the possibility to keep track of the source information. By using context nodes the system can distinguee between triple information coming from outside and the information generated by RDF-S3. This increases the credibility of the system. With eRQL, applications of RDF-S3 can use the source information to concentrate on trusted sources and to get the information where the single triples are coming from, which means he see the external context of the results. Additionally eRQL provides an easy way to see the results in their internal context by including surrounding triples for each hit
    corecore