108 research outputs found

    Metadatenverwaltung für Multimedia-Content-Management mit OLAP-Funktionalität

    Get PDF
    Der Hauptschwerpunkt bei der Entwicklung wireless-orientierter, multimedialer Content- Management-Systeme liegt auf der adäquaten Speicherung, Verwaltung und Recherche multimedialer Dokument-Strukturen sowie auf der anwendungsspezifischen Darstellung und Repräsentation dieser Dokumente auf verschiedenen Endgeräten. In diesem Kontext kann die Extensible Markup Language (XML) zur Verbesserung einer großen Bandbreite möglicher Anwendungen beitragen. Im Rahmen dieser Arbeit wird ein Ansatz für eine universelle Metadatenverwaltung zur Steuerung signifikanter Transformations - und Daten-Analyse-Prozesse entwickelt. Dabei wird eine möglichst enge Kopplung von Data Warehouse-Funktionalität (OLAP) mit einer ausgewählten XML-Framework-Architektur angestrebt. Ziel ist ein erweiterter Architektur-Vorschlag, der die Grundlage für zukünftige offene und erweiterbare Multimedia-Content-Management-Systeme bilden kann. Grundlage dieser Architektur ist ein Metadaten-Repository auf der Basis der Resource Description Framework Spezifikation (RDF)

    Konstruktion geschäftsprozessorientierter operativ-dispositiver Komponentenarchitekturen

    Get PDF
    Geschäftsprozesse bilden die Lösungsverfahren betrieblicher Systeme und gleichzeitig die zentralen Artefakte zur Realisierung der unternehmerischen Ziele. In Zeiten dynamischer Märkte mit intensivem Wettbewerb ist es umso wichtiger, zeitnah auf Veränderungen am Markt sowie Ereignisse in den Prozessen selbst zu reagieren. In der Konsequenz gilt es, die eigenen Geschäftsprozesse stetig zu hinterfragen und Maßnahmen zu deren effizienterer und innovativerer Durchführung abzuleiten. Mit dem geschäftsprozessorientierten Data-Warehouse-System (gpDWH-System) wird ein Konzept vorgestellt, das an dieser Stelle ansetzt. Entscheidungsrelevante Ablaufdaten werden sowohl auf Aufgabenträgerebene angeboten als auch in den Kontext der betrieblichen Leistungserstellung auf Aufgabenebene eingeordnet. Ein Geschäftsprozess kann damit umfassend aus unterschiedlichen Perspektiven analysiert werden. Abgeleitete prozessbezogene Maßnahmen als Reaktion auf Ereignisse im Markt- und Kundenverhalten sind schließlich mit unterschiedlichem Zeitverzug zu realisieren. Das Spektrum kann vom kurzfristigen, automatisierten steuernden Eingreifen in eine Prozessinstanz bis hin zur mittelfristigen Anpassung der Prozessstrukturen reichen. Es wird eine Referenzarchitektur vorgeschlagen, die zu diesem Zweck operative und dispositive Anwendungssysteme über das gpDWH-System integriert. Der Herausforderung der stetigen Anpassung von Geschäftsprozessen und damit der zugehörigen Anwendungssysteme wird zum einen durch die Grundsätze der Komponentenorientierung begegnet. Zum anderen wird ein Datenschema für gpDWH-Systeme vorgeschlagen, das als stabil im Falle sich verändernder Prozesse angesehen werden kann. Zur Anwendung in betrieblichen Szenarien sowie zur Unterstützung des Entwicklers wird eine Entwicklungsmethodik mit Berücksichtigung von Referenzarchitektur und Datenschema bereitgestellt. Als Grundlage dienen dabei das etablierte Semantische Objektmodell (SOM) sowie das Semantische Data-Warehouse-Modell (SDWM). Die resultierende Methodik ist jedoch auch unabhängig von diesen Ansätzen gültig und anwendbar. Die Konzeption operativer und dispositiver Anwendungssysteme, deren Integration sowie Entwicklung stellen komplexe Tätigkeiten dar. Zur Beherrschung dieser Komplexität folgt die gestaltungsorientierte Arbeit der durchgängigen Metapher von Angebot und Nachfrage. Anhand dieser werden Teilsysteme gebildet und jeweils auf Aufgaben- und Aufgabenträgerebene beschrieben. Zur Demonstration und zum Nachweis von Referenzarchitektur, Datenschema und Entwicklungsmethodik dient eine durchgehende Fallstudie zur Vermietung von Elektrofahrzeugen

    Unternehmensweite Daten- und Informationsmodellierung

    Get PDF
    Diese Arbeit behandelt das Thema „Unternehmensweite Daten- und Informationsmodellierung“. Nach einer kurzen Einführung in die Grundlagen der Modellierung und der Darstellung der Besonderheiten der Daten in einem Data Warehouse, werden das Multidimensionale Datenmodell und seine strukturellen Anomalien beschrieben. Darauf aufbauend werden Anforderungen zusammengestellt, die ein konzeptioneller Modellierungsansatz für die adäquate Darstellung multidimensionaler Daten erfüllen muss. Anschließend werden verschiedene Modellierungsmethoden vorgestellt und bewertet. Die Umsetzung des multidimensionalen Modells in einem Informationssystem wird anhand des Datenmodells des SAP Business Content beschrieben. Den Abschluss bildet die Auswertung einer Umfrage zu diesem Thema

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können

    Web-basierte Atlanten als Instrumente zur Lösung raumbezogener Problemstellungen. Ein generisches Informationsmodell als semantische Brücke zwischen Daten und Diensten

    Get PDF
    Die Arbeit beschreibt Konzeption, Entwicklung, Aufbau und Betrieb eines generischen Informationsmodells in der Verwaltung der Stadt Köln. Das Modell ist praxiserprobt und in der Fachwelt bekannt. Einige Komponenten beginnen, sich als Standard für Geoinformationssysteme durchzusetzen. In seiner Gesamtheit ist das Modell einzigartig. Über Lizenzen findet es Verbreitung in Städten und Unternehmen. Teile waren immer wieder Richtungsgeber und Schrittmacher der technologischen Entwicklung. Der Verfasser, nach Konzeption, Entwicklung und Aufbau des Modells nun mit den nicht minder schwierigen Alltäglichkeiten des Betriebs befasst, schaut visionär voraus. Er sieht zusätzlich zur technischen Weiterentwicklung die Öffnung des bisher verwaltungsinternen Informationsmodells nach außen als erstrebenswert an. Informationsbeteiligung wäre nicht nur ein auch politikwirksames Zeichen modernen Verwaltungsmanagements, sondern sicherlich auch ein willkommener Beitrag zur wohlverstandenen Informationsgesellschaft. Ein generisches Informationsmodell kann flexibel auf raumbezogene Informations-wünsche reagieren. Allein Geodaten reichen dazu aber nicht aus; sie sind um Sach-daten aus den Verwaltungsverfahren zu ergänzen. Erst dadurch ist es möglich, die umfangreichen Datenschätze einer Kommunalverwaltung in Werte umzusetzen und für vielfältige geographische Fragestellungen zu nutzen. Als Grundlage des als Semantic Data Dictionary bezeichneten Informationsmodells war ein raumbezogenes Data Warehouse zu konzipieren, zu realisieren und aufzu-bauen. Das Besondere daran ist die Verbindung eines Spatial Data Warehouse mit einem Business Data Warehouse. Das bedeutet nicht nur die Verknüpfung von Geo- und Sachdaten für Raumanalysen, sondern auch die Zusammenführung komplexer Wertschöpfungsprozesse für eine integrierte Informationsproduktion. Der Nutzer hat dadurch Zugriff auf laufend aktuelle Sachdaten für beliebige räumliche Strukturen. Die aus unterschiedlichen Quellen zusammengeführten und verdichteten Informationen werden auf der Basis einer modernen IT-Architektur als raum-bezogene Dienste im Sinne von Spatial Business Intelligence bereitgestellt. Das dahinter stehende Content Management System ermöglicht den Aufbau und die Pflege von raumbezogenen Diensten, aber auch die schnelle Reaktion auf neue Informationszusammenstellungen und unterstützt dabei Verfahren zur Informations-gewinnung. Die als Web Services angebotenen Atlanten ermöglichen dem Nutzer unterschiedliche Sichten auf Struktur, Inhalt, Funktionalität und Sprache und damit eine neue Dimension sachbezogener Raumanalysen. Am Beispiel ausgewählter Indikatoren wird der gesamte innovative Produktions-prozess von den Verwaltungsdaten über die Datenmodellierung im Data Warehouse und die Informationsmodellierung bis zu interaktiven Atlanten im Web aufgezeigt. Dazu werden Sachdaten aus unterschiedlichen Quellen kleinräumig aufbereitet und analysiert. Die Grundlagendaten und die daraus abgeleiteten Ergebnisse sind in verschiedenen Planungsatlanten nutzbar. Dieses Wertschöpfungsnetzwerk ist auf andere raumbezogene Problemstellungen übertragbar

    Agile data warehousing to support process monitoring

    Get PDF
    Heutige Geschäftsprozesse nehmen ständig an Komplexität zu. Hiermit einhergehend werden die Anpassung und Optimierung einzelner Teilprozesse oder des Gesamtprozesses nötig. Gleichzeitig können über alle Bereiche eines Prozesses hinweg Daten gesammelt werden, welche durch Analyse diese Anpassung und Optimierung ermöglichen. Hierfür müssen die anfallenden Daten dauerhaft gespeichert und bereitgestellt werden. Dies geschieht in Form von Data Warehouses. Da die Erstellung und Wartung dieser Data Warehouse Strukturen teuer und zeitaufwändig ist, werden Versuche unternommen, die hierfür nötigen Arbeiten zu minimieren bzw. zu automatisieren. In dieser Arbeit wird, aufbauend auf Praxisanforderungen und bisherigen Ansät- zen, zur automatisierten Prozessüberwachung ein Konzept für die Erzeugung eines agilen Data Warehouses entwickelt. Dies erfordert die automatisierte Erstellung und Einrichtung der für ein Data Warehouse nötigen Strukturen sowie deren automatische Anpassung bei Veränderung der Umgebungsbedingungen. Zusätzlich müssen Möglichkeiten für das Befüllen dieser Strukturen mit Daten geschaffen werden. Hierfür werden zwei Komponenten entwickelt, welche alle benötigten Data Warehouse Strukturen erzeugen und diese mit Hilfe eines BI-Servers bereitstellen. Hierbei werden Datenbankschemata, OLAP-Schemata sowie ETL-Prozesse automatisiert erzeugt. Das entwickelte Konzept wird in einen Gesamtprozess integriert, welcher eine Business Intelligence Lösung als Software-As-A-Service-Lösung ermöglicht

    Anfrageoptimierung in Data Warehouses durch Verwendung voraggregierter Views

    Get PDF
    In der vorliegenden Diplomarbeit wird ein Verfahren vorgestellt, mit dem Aggregatanfragen an ein relational verwaltetes Data Warehouse optimiert werden. Mittels voraggregierter Relationen, welche das Ergebnis von Aggregatanfragen sind und materialisierte Views genannt werden, werden Anfragen an das Data Warehouse analysiert und umgeschrieben. Dafür müssen Metadaten über die Views vorliegen, die in einem umgesetzten Relationenschema verwaltet werden. Darüber hinaus wird eine Kostenfunktion definiert, mit der entschieden wird, welche materialisierte View zur Optimierung verwendet werden soll. Weiterhin wird ein Verfahren erläutert, mit dem materialisierte Views bei Änderungen der Daten des Data Warehouses aktualisiert werden. The diploma thesis presents a technique for optimizing aggregation-queries to relational data warehouses. With the use of preaggregated relations, which are the results of former aggregation-queries and named as materialized views, queries to data warehouses are analyzed and reformulated. Therefore metadata are needed, which are stored in an implemented relation-schema. Furthermore a cost function is defined, that determines the materialized view used for optimization. A maintenance technique for updating materialized views after changing data of the data warehouse is also presented

    Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop

    Get PDF
    Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt
    corecore