266 research outputs found

    Process mining auf Basis expliziter Semantikdefinitionen

    Get PDF

    Business Process Management 2015 : Status quo und Best Practices «Prozessintelligenz»

    Get PDF
    Mehr als 40 Prozent der Unternehmen nutzen keine operativen Prozessdaten, um die Durchlaufzeiten oder Kosten ihrer Prozesse effektiv zu überwachen. Dennoch geben mehr als 60 Prozent der Unternehmen an, mit Prozessmanagement ihre Effizienz steigern zu wollen. Dies zeigt die Studie «Business Process Management 2015» der ZHAW School of Management and Law (SML). Die Ergebnisse wurden heute am BPM Symposium in Winterthur vorgestellt und mit einem breiten Fachpublikum aus Praxis und Wissenschaft diskutiert. Grundlage für die digitale Transformation: Die Studie untersucht, wie und in welchem Ausmass Unternehmen das Standardrepertoire des Geschäftsprozessmanagements in Richtung Prozessintelligenz erweitern. Prozessintelligenz schliesst die Lücke zum operativen Geschäft und liefert eine neue Perspektive auf das Management der Geschäftsprozesse. Dabei konzentriert sie sich auf die Informationen, die in den operativen Prozessen entstehen und gebraucht werden und ist somit eine wesentliche Grundlage für die aktuell viel diskutierte digitale Transformation von Unternehmen. Um Prozesse besser verstehen, steuern und optimieren zu können, werden Methoden und Werkzeuge des Geschäftsprozessmanagements (BPM) und der Business Intelligence (BI) kombiniert. Wertvolle Erfahrungen aus der Praxis: Für die Studie wurden in einer Online-Befragung über 80 Unternehmen zum Status quo ihrer «Prozessintelligenz» befragt. Ein Praxisworkshop diente als Rahmen, um Erfolgsmuster aus fünf Fallstudien bei Roche, AXA Winterthur, der St. Galler Kantonalbank sowie den Städten Lausanne und Konstanz zu identifizieren. Der Softwarehersteller Axon Ivy und SBB Immobilien haben im Rahmen einer Studienpartnerschaft mit dem Institut für Wirtschaftsinformatik der SML und dem Institut für Prozesssteuerung der HTWG Konstanz wertvolle Praxiserfahrungen beigesteuert. Das Resultat ist eine Momentaufnahme der strategischen, analytischen und praktischen Fähigkeiten, Methoden und Werkzeuge, mit denen Organisationen ihre Geschäftsprozesse gestalten, ausführen, überwachen und fortlaufend weiterentwickeln

    «Prozessintelligenz» : Gegenstand und Ziele der Studie

    Get PDF
    «Intelligente Prozesse, «intelligentes Prozessmanagement», «iBPM» sind Schlagworte, die in erster Linie eingesetzt werden, um Technologien zu vermarkten. Die Begriffe lassen viel Raum für Interpretation und Assoziationen. Können Unternehmen den Hype ignorieren oder bietet «Prozessintelligenz» die Chance, das Prozessmanagement aus einem anderen Blickwinkel zu betrachten und weiterzuentwickeln? Doch was ist Prozessintelligenz? Welche Lösungsansätze, Erfahrungen und Erfolgsmuster gibt es bereits in Unternehmen? Welche Methoden und Werkzeuge kommen zum Einsatz, um Prozesse «intelligenter» zu machen? Diesen Fragen hat sich die Business-Process-Management-Studie 2015 gestellt, mit der das Institut für Wirtschaftsinformatik der Zürcher Hochschule für Angewandte Wissenschaften School of Management and Law seit 2011 regelmässig Status quo und Best Practices im deutschsprachigen Raum erhebt

    From Algorithmic Computing to Autonomic Computing

    Get PDF
    In algorithmic computing, the program follows a predefined set of rules – the algorithm. The analyst/designer of the program analyzes the intended tasks of the program, defines the rules for its expected behaviour and programs the implementation. The creators of algorithmic software must therefore foresee, identify and implement all possible cases for its behaviour in the future application! However, what if the problem is not fully defined? Or the environment is uncertain? What if situations are too complex to be predicted? Or the environment is changing dynamically? In many such cases algorithmic computing fails. In such situations, the software needs an additional degree of freedom: Autonomy! Autonomy allows software to adapt to partially defined problems, to uncertain or dynamically changing environments and to situations that are too complex to be predicted. As more and more applications – such as autonomous cars and planes, adaptive power grid management, survivable networks, and many more – fall into this category, a gradual switch from algorithmic computing to autonomic computing takes place. Autonomic computing has become an important software engineering discipline with a rich literature, an active research community, and a growing number of applications.:Introduction 5 1 A Process Data Based Autonomic Optimization of Energy Efficiency in Manufacturing Processes, Daniel Höschele 9 2 Eine autonome Optimierung der Stabilität von Produktionsprozessen auf Basis von Prozessdaten, Richard Horn 25 3 Assuring Safety in Autonomous Systems, Christian Rose 41 4 MAPE-K in der Praxis - Grundlage für eine mögliche automatische Ressourcenzuweisung, in der Cloud Michael Schneider 5

    Matching process generated business data and survey data : the case of KombiFiD in Germany

    Get PDF
    "In Germany, process-generated data and survey data on firms are collected by different data producers. Each data producer provides access for researchers to its data, but the combination of datasets from different producers is not possible at the moment. A new project (KombiFiD) aims to overcome this limitation: firm data collected by the German Statistical Offices, the Deutsche Bundesbank and the Federal Employment Agency will be linked for the first time. The project aims are twofold: to gauge the possibilities of linking selected datasets beyond the limits of individual labour market data producers and to provide a combined dataset to science, thereby creating new research opportunities. In the following we describe the project, the selected data-sets and explain potential matching problems. In this context we address e.g. the advantages and disadvantages of survey and process generated data and some challenges we expect within the project." (Author's abstract, IAB-Doku) ((en))Datengewinnung, prozessproduzierte Daten, amtliche Statistik, Unternehmen, Wirtschaftsstatistik, IAB-kombinierte Firmendaten

    Entwicklung eines ontologie-basierten Kostenmodells für Produktneuentwicklungen

    Get PDF
    Mit der vorliegenden Masterarbeit wird die Kosten- und Zeitermittlung eines Neuproduktes in der Entwicklungsphase betrachtet. Dabei liegt der Fokus auf den Fertigungskosten und -zeiten, auf den Komponenten eines Produktes sowie bei der Einzelfertigung. In diesem Kontext wird ein Kostenmodell entwickelt. Dieses zeichnet sich dadurch aus, dass es die Produktinformationen aus einem Wissensgraphen bezieht. Das Modell selbst entspricht einem integrierten Ansatz im Sinne der Kombination einer intuitiven und analogischen Methode. Dabei ist eine analytische Methode indirekt durch die Berücksichtigung der Kosten- und Zeitstruktur integriert. Folglich wird im ersten Teil des Kostenmodells das neuentwickelte Bauteil mit bereits gefertigten Bauteilen verglichen. Im zweiten Teil werden sowohl für das neue Bauteile als auch für die ähnlichsten Bauteile, die im ersten Teil definiert worden sind, die Kosten und Zeiten mithilfe einer Regressionsmethode ermittelt. Im letzten und dritten Teil werden mithilfe eines Korrekturfaktors die Ergebnisse des zweiten Teils entsprechend der Genauigkeit der Regressionsmethode für die ähnlichsten Bauteile angepasst. Das entwickelte Kostenmodell wird mithilfe eines Testdatensatzes evaluiert. Dabei kann die entwickelte Methode gute Ergebnisse erzielen

    Prozessdatenintegration und -transformation für die systemübergreifende Visualisierung von Arbeitsabläufen

    Get PDF
    Die integrierte Visualisierung systemübergreifender Prozesse wird für Unternehmen immer wichtiger. Voraussetzung ist, dass die Informationen zu Prozessen von allen Systemen einheitlich und in integrierter Form vorliegen. Aufgrund der Verteilung von Prozessdaten auf mehrere Systeme ergeben sich zumeist syntaktische und semantische Heterogenitäten, weshalb sich für die Prozessdatenintegration zahlreiche Herausforderungen stellen. Diese Arbeit identifiziert und kategorisiert auftretende Probleme und zeigt Lösungsansätze auf. Darauf basierend wird eine Architektur für eine Komponente entwickelt, die die Lösungen umsetzt und es wird an einem konkreten Beispiel die Transformation eines Prozessmodells demonstriert. Ausgangspunkt für die Zusammenführung der Prozessdaten, an der sich die Problemidentifikation und -kategorisierung orientiert, sind heterogene Datenquellen. Deren Daten müssen zunächst angepasst werden, bevor die Prozesse der einzelnen Systeme auf ein vorgegebenes Metamodell abgebildet und die so entstandenen Prozessfragmente in einen Gesamtprozess eingegliedert werden. Nachdem das statische Prozessmodell erstellt ist, müssen noch Laufzeitdaten integriert werden. Dabei ist zu beachten, dass sich durch die vorangegangenen Schritte das Prozessmodell geändert haben kann. Nach Identifizierung der wesentlichen Probleme und Aufgaben wird eine Architektur entwickelt, die berücksichtigt, dass nicht alle Systeme gleich viele Daten bereitstellen und somit mehrere Vorgehensweisen für die Abbildung der Prozessfragmente auf das vorgegebene Metamodell nötig sind. Zum Schluss werden als Beispiel zwei Modelle des ARIS-Toolsets auf ein vorgegebenes Metamodell abgebildet und es wird gezeigt, wie man die Modelle automatisch mit Hilfe impliziter Informationen aus dem Prozessmodell semantisch anreichern kann

    Auf dem Weg zum vertrauensvollen, unternehmensübergreifenden automatisierten Datenaustausch von Maschinen – Identifikation von schützenswertem Wissen im Zeitalter von Industrie 4.0

    Get PDF
    Der unternehmensübergreifende Datenaustausch in der Welt von Industrie 4.0 birgt für Unternehmen immense Potenziale. So können Unternehmen wertvolles Wissen über den Einsatz ihrer Produkte gewinnen und ihren Kunden innovative Dienstleistungen anbieten. Umgekehrt können Kunden die Produkte zielgerichteter einsetzen, wenn sie beispielsweise Produktions- und Materialdetails kennen. Doch dabei möchte kein Unternehmen für sich geschäftskritisches Wissen an einen Partner im Wertschöpfungsnetzwerk freigeben. Zu groß ist das Risiko, Einblicke in beispielsweise Forschungs- und Entwicklungsergebnisse zu gewähren oder dem Kunden eine Kostenkalkulation aufgrund des genauen Prozessablaufes zu ermöglichen. Es ergibt sich die Frage, welche Daten bedenkenlos ausgetauscht werden können und in welchen Daten implizit wertvolles Wissen enthalten ist. Aus diesem Grund stellt der vorliegende Beitrag ein Vorgehensmodell zur Identifikation von schützenswertem Wissen vor dem Hintergrund des unternehmensübergreifenden automatisierten Datenaustauschs von Maschinen über Netzwerkplattformen vor. Mit Hilfe des Modells lassen sich Daten und Wissen analysieren und auf Basis der Schutzbedarfe und enthaltenen Potenziale einstufen. Ein möglichst umfangreicher unternehmensübergreifender Datenaustausch bei möglichst geringem Verlust von Know-how soll ermöglicht werden. Anschließend wird die Erprobung des Modells im Rahmen eines Anwendungsbeispiels vorgestellt und ein Ausblick gegeben

    Phillips Curve or wage curve? : evidence from West Germany: 1980-2004

    Get PDF
    "This paper reconsiders the West German wage curve using the employment statistics of the Federal Employment Services of Germany (Bundesanstalt für Arbeit) over the period 1980-2004. This updates the earlier study by Baltagi and Blien (1998) by 15 years for a more disaggregated 326 regions of West Germany. It is based on a random sample of 417,426 individuals drawn from the population of employees whose establishments are required to report to the social insurance system. We find that the wage equation is highly autoregressive but far from unit root. This means that this wage equation is not a pure Phillips curve, nor a static wage curve, and one should account for wage dynamics. This in turn leads to a smaller but significant unemployment elasticity of -0.02 up to -0.03 rather than the -0.07 reported in the static wage curve results reported by Baltagi and Blien (1998)." (Author's abstract, IAB-Doku) ((en))Arbeitslosenquote, Lohnhöhe, regionaler Arbeitsmarkt, Lohnkurve, IAB-Beschäftigtenstichprobe, Phillipskurve, Westdeutschland, Bundesrepublik Deutschland
    corecore