30 research outputs found

    Konzeption einer Komponentenarchitektur für prozessorientierte OLTP- & OLAP-Anwendungssysteme

    Get PDF
    Prozessorientierte Data-Warehouse-Systeme (DWH-Systeme) stellen, im Vergleich zu klassischen DWH-Systemen, neben entscheidungsunterstützenden Daten zum Ergebnis von Geschäftsprozessen auch Daten zu deren Ablauf bereit. Sie sind dabei auf zwei wesentliche Szenarien ausgerichtet: Das erste Szenario hat die Bereitstellung multidimensionaler, prozessbezogener Daten zum Ziel, mit denen die Gestaltung von Prozessen unterstützt werden kann. Das zweite Szenario hat die Datenbereitstellung und die Entscheidungsfindung mit niedriger Latenz zum Ziel. Es ist auf steuernde Maßnahmen in laufenden Prozessinstanzen ausgerichtet. Zur Unterstützung beider Szenarien wird im vorliegenden Beitrag ein Architekturkonzept für prozessorientierte OLTP- & OLAP-Anwendungssysteme, auf der Basis von Komponenten, vorgeschlagen. Das Architekturkonzept berücksichtigt dabei neben der Realisierung der Funktionen eines prozessorientierten DWH-Systems auch deren Integration mit Funktionen operativer Teilsysteme sowie Funktionen zur automatisierten Entscheidungsfindung. Weitere im Architekturkonzept berücksichtigte Anforderungen sind die zeit- und bedarfsgerechte Informationsversorgung heterogener Nutzergruppen sowie die flexible Anpassbarkeit an Veränderungen in Geschäftsprozessen

    Kooperativ verteiltes Data Warehouse : ein Architekturansatz für eine ganzheitliche Datenhaltung in der Hochschulverwaltung

    Full text link
    Effizienzsteigerungen in der öffentlichen Verwaltung ist der Bereich über den sich die öffentliche Hand hohe Einsparungen erhofft. Dies und die Verbesserung von Forschung und Lehre wird auch in der Hochschulverwaltung thematisiert. Für Entscheidungen auf den verschiedenen Hierarchiestufen müssen benötigte Daten von Informationssystemen bereitgestellt werden. Die vorliegende Arbeit trägt Anforderungen an ein solches System zusammen und leitet daraus ein Datenhaltungskonzept ab, das in einem integrierten Ansatz sowohl die Anforderungen des Controllings einerseits sowie der Hochschulverwaltung und -steuerung andererseits berücksichtigt

    Overcoming Semantical Heterogeneity in Multiple Data Warehouse Systems

    Get PDF
    Der bedarfsorientierte Zugriff auf ein konsolidiertes Berichtswesen stellt für betriebliche Organisationen einen entscheidenden Erfolgsfaktor dar, um einen Informationsvorsprung gegenüber ihren Wettbewerbern erzielen zu können. Data-Warehouse-Systeme (DWH-Systeme) dienen dazu, Entscheidungsträgern die für ihre aktuelle Aufgabe relevanten Informationen rechtzeitig und in geeigneter Form zur Verfügung zu stellen. In der Praxis existieren jedoch multiple DWH-Systeme, die vor allem auf Ebene der Datenschemata sowie der zugrunde liegenden Terminologien eine starke Heterogenität aufweisen. Inkonsistenzen zwischen den generierten Berichten sowie eine divergente Interpretation der Berichtsergebnisse sind die Folge. Der Aufbau eines konsolidierten Berichtswesens ist daher nur mit nachträglichem, manuellem Abstimmungsaufwand möglich. Die vorliegende Arbeit widmet sich insbesondere dem durch multiple DWH-Systeme offerierten Informationsangebot. Mithilfe der im Semantic Web etablierten Technologie Resource Description Framework (RDF) und der Web Ontology Language (OWL) wird ein Rahmen zur semantisch reichhaltigen Beschreibung von DWH-Metadaten geschaffen. Derartig ausgezeichnete Metadaten unterschiedlicher DWH-Systeme werden anschließend in einer semantischen Homogenisierungsschicht (sHGS) zusammengeführt. Mit diesem Hilfsmittel können Beziehungen zwischen multiplen DWH-Systemen identifiziert und deren semantische Heterogenität überwunden werden.The demand-oriented access to consolidated reporting systems represents a critical success factor for operating organisations in order to achieve an informational advantage over their competitors. Data warehouse systems (DWH systems) provide decision-makers with information relevant to their current task in due time and form. In practice, however, a multitude of highly heterogeneous DWH systems exist which particularly vary in terms of applied data schemata and underlying terminologies. Inconsistencies between the generated reports of those systems as well as a diverging interpretation of the report results are therefore immediate consequences. As a result, the construction of a consolidated reporting system inevitably demands additional manual alignment effort. The thesis at hand is especially dedicated to information provided by multiple DWH systems. By means of the technologies of the Resource Description Framework (RDF) and the Web Ontology Language (OWL), which are established in the area of the semantic web, a framework is created to describe DWH metadata in a semantically comprehensive way. The metadata of different DWH systems marked in such a way are finally brought together in a semantic level of homogenisation (sHGS). With this tool, semantic relations between multiple DWH systems can be easily identified and their semantic heterogeneity can be overcome

    A Process for Identifying Predictive Correlation Patterns in Service Management Systems

    Get PDF
    By using the remote functions of a modern IT service management system infrastructure, it is possible to analyze huge amounts of logfile data from complex technical equipment. This enables a service provider to predict failures of connected equipment before they happen. The problem most providers face in this context is finding a needle in a haystack - the obtained amount of data turns out to be too large to be analyzed manually. This report describes a process to find suitable predictive patterns in log files for the detection of upcoming critical situations. The identification process may serve as a hands-on guide. It describes how to connect statistical means, data mining algorithms and expert domain knowledge in the domain of service management. The process was developed in a research project which is currently being carried out within the Siemens Healthcare service organization. The project deals with two main aspects: First, the identification of predictive patterns in existing service data and second, the architecture of an autonomous agent which is able to correlate such patterns. This paper summarizes the results of the first project challenge. The identification process was tested successfully in a proof of concept for several Siemens Healthcare products

    Literature Survey of Performance Benchmarking Approaches of BPEL Engines

    Get PDF
    Despite the popularity of BPEL engines to orchestrate complex and executable processes, there are still only few approaches available to help find the most appropriate engine for individual requirements. One of the more crucial factors for such a middleware product in industry are the performance characteristics of a BPEL engine. There exist multiple studies in industry and academia testing the performance of BPEL engines, which differ in focus and method. We aim to compare the methods used in these approaches and provide guidance for further research in this area. Based on the related work in the field of performance testing, we created a process engine specific comparison framework, which we used to evaluate and classify nine different approaches that were found using the method of a systematical literature survey. With the results of the status quo analysis in mind, we derived directions for further research in this area

    Steuerungsinstrumente für Hochschulen

    Get PDF
    Das Ende der Gründungsphase der Fakultät Wirtschafts- und Sozialwissenschaften mit der Integration der bis dahin selbstständigen Hamburger Universität für Wirtschaft und Politik (HWP) sowie der bisherigen Fachbereiche Wirtschaftswissenschaften und Sozialwissenschaften der Universität Hamburg war Anlass zu einem wissenschaftlichen Symposium zur Hochschulgovernance mit hochkarätiger Besetzung. Ziel war es, unterschiedliche Management-Modelle, vor allem aus dem europäischen Ausland, einander gegenüberzustellen und diese sowohl aus einer erfahrungsbasierten Leitungsperspektive als auch unter wissenschaftlich-analytischen Sichtweisen zu analysieren und zu bewerten. Ein besonderer Aspekt lag auf dem für alle Universitäten relevanten Spannungsverhältnis von Zentralität und Dezentralität. Die gehaltenen Vorträge werden in diesem Band dokumentiert.On occation of the end of the founding phase of the Faculty of Economics and Social Sciences with the integration of the formerly independent Hamburg University of Economics and Politics (HWP) as well as the former Faculties of Economics and Social Sciences of the University of Hamburg, a scientific symposium on university governance with a top-class cast was held. The aim was to compare different management models, especially from other European countries, and to analyse and evaluate them from an experience-based management perspective as well as from a scientific-analytical point of view. A special aspect was the tension between centrality and decentralisation, which is relevant for all universities. The lectures are documented in this volume

    A Service Description Framework for Service Ecosystems

    Get PDF
    Recently, service orientation has strongly influenced the way enterprise applications are built. Service ecosystems, which provide means to trade services between companies like goods, are an evaluation of service orientation. To allow service ordering, discovering, selection, and consumption, a common way to describe services is a necessity. This paper discusses existing approaches to describe certain service aspects. Finally, a Service Description Framework for service ecosystems is proposed and exemplified

    Symbolic Object Code Analysis

    Get PDF
    Current software model checkers quickly reach their limit when being applied to verifying pointer safety properties in source code that includes function pointers and inlined assembly. This paper introduces an alternative technique for checking pointer safety violations, called Symbolic Object Code Analysis (SOCA), which is based on bounded symbolic execution, incorporates path-sensitive slicing, and employs the SMT solver Yices as its execution and verification engine. Extensive experimental results of a prototypic SOCA Verifier, using the Verisec suite and almost 10,000 Linux device driver functions as benchmarks, show that SOCA performs competitively to current source-code model checkers and that it also scales well when applied to real operating systems code and pointer safety issues. SOCA effectively explores semantic niches of software that current software verifiers do not reach

    The COCOMO-Models in the Light of the Agile Software Development

    Get PDF
    Aufwandsschätzungen sind wichtig, um ökonomische und strategische Entscheidungen in der Softwareentwicklung treffen zu können. Verschiedene Veröffentlichungen propagieren das Constructive Cost Model (COCOMO) als ein algorithmisches Kostenmodell, basierend auf Formeln mit objektiven Variablen für Schätzungen in der klassischen Softwareentwicklung (KS). Arbeiten aus der agilen Softwareentwicklung (AS) verweisen auf den Einsatz von erfahrungsbasierten Schätzmethoden und von subjektiven Variablen. Aufgrund der schwachen Operationalisierung im agilen Kontext sind Aussagen über konkrete Ursache- und Wirkungszusammenhänge schwer zu treffen. Hinzu kommt der einseitige Fokus der klassischen und agilen Untersuchungen auf den eigene Forschungsbereich, der nach sich zieht, dass eine Verwendung von Variablen aus COCOMO in der AS unklar ist. Wenn hierzu Details bekannt wären, könnten operationalisierte Variablen aus COCOMO auch in der AS eingesetzt werden. Dadurch wird es möglich, in einer wissenschaftlichen Untersuchung eine Konzeptionierung von konkreten kausalen Abhängigkeiten vorzunehmen – diese Erkenntnisse würden wiederum eine Optimierung des Entwicklungsprozesses erlauben. Zur Identifikation von Variablen wird dazu eine qualitative und deskriptive Arbeit mit einer Literaturrecherche und einer Auswertung der Quellen durchgeführt. Erste Ergebnisse zwischen beiden Welten zeigen dabei sowohl Unterschiede als auch Gemeinsamkeiten. Eine Vielzahl von Variablen aus COCOMO kann in der AS verwendet werden. Inwieweit dies möglich ist, ist von den objektiven und subjektiven Anteilen der Variablen abhängig. Vertreter mit erfahrungsbasiertem Hintergrund wie Analyst Capability (ACAP) und Programmer Capability (PCAP) lassen sich aufgrund von Übereinstimmungen mit personenbezogenen Merkmalen gut in die AS übertragen. Parallel dazu sind Variablen aus dem Prozess- und Werkzeugumfeld weniger gut transferierbar, da konkret die AS einen Fokus auf solche Projektmerkmale ablehnt. Eine Weiterverwendung von Variablen ist damit grundsätzlich unter der Berücksichtigung von gegebenen Rahmenbedingungen möglich.Effort estimations are important in order to make economic and strategic decisions in software development. Various publications propagate the Constructive Cost Model (COCOMO) as an algorithmic cost model, based on formulas with objective variables for estimations in classical software development (KS). Papers from agile software development (AS) refers to the use of experience-based estimation methods and subjective variables. Due to the weak operationalization in an agile context, statements about concrete cause and effect relationships are difficult to make. In addition, there is the one-sided focus of classical and agile investigations on their own research field, which suggests that the use of variables from COCOMO in the AS is unclear. If details were available, operational variables from COCOMO could also be used in the AS. This makes it possible to carry out a conceptualization of concrete causal dependencies in a scientific investigation - these findings in turn would allow an optimization of the development process. To identify variables, a qualitative and descriptive work with a literature research and an evaluation of the sources is carried out. First results between the two worlds show both differences and similarities. A large number of variables from COCOMO can be used in the AS. This is possible depending on the objective and subjective proportions of the variables. Variables with an experience-based background, such as Analyst Capability (ACAP) and Programmer Capability (PCAP), can be well transferred to the AS by matching personal characteristics. At the same time, variables from the process and tool environment are less easily transferable, because AS specifically rejects a focus on such project features. A re-use of variables is thus possible under consideration of given conditions

    ARCHITECTURE CONCEPTS FOR VALUE NETWORKS IN THE SERVICE INDUSTRY

    Get PDF
    Value networks are one of the main forms of value creation today. Suppliers, manufacturers and customers form a dynamic collaboration structure. Networks and companies alike are always subject to external and internal influences which require changes in the way things are done. To make sure that the required changes take their intended effect, they have to be implemented on all levels of the enterprise architecture (EA). Research with respect to EA in value networks in the service industry (VNSI) is only in its beginnings. To understand the state of the art, we analyzed 88 papers with respect to the architecture layers in VNSI. Since we base on the fact that a successful introduction of change, e.g. new IT solutions, requires a holistic view on EA, we analyzed the papers according to their covering of the different levels of an EA. Our hypothesis is that most of the papers only cover very specific aspects without positioning their proposed solution in a holistic context. We propose a reference model based on a literature review as well as the results of the paper analysis. This reference model allows for a positioning of solutions in a holistic context and with that adds to a better basis for implementing change in VNSI
    corecore