AKWI - Anwendungen und Konzepte der Wirtschaftsinformatik (E-Journal)
Not a member yet
    91 research outputs found

    Human-Machine Collaboration in Decision-Making

    Get PDF
    The use of ML-based decision support systems in business-related decision-making processes is a proven approach for companies to increase process performance and quality. To a certain extent, machines are capable of reproducing the cognitive abilities of humans in specific domains. In order to leverage the resulting potential, synergistic human-machine collaboration (HMC) is becoming increasingly important for companies. However, orchestrating HMC is dependent on a set of framework conditions that determine the success of the collaboration. This study examines the research question of how to utilize the concept of collaborative intelligence (CI) to enhance decision-making processes while using machine learning (ML) -based data prediction. The purpose is to identify success factors in the development, design, and implementation of an ML-based predictive analytics solution to orchestrate HMC in decision-making processes. These success factors state recommendations for companies to fulfil the necessary framework conditions for synergetic HMC orchestration. In total, five success factors were identified that represent a combination of theoretical findings and empirical insights. At the same time, further research needs were uncovered, which point out starting points for future research projects in the field of HMC.  The use of ML-based decision support systems in business-related decision-making processes is a proven approach for companies to increase process performance and quality. To a certain extent, machines are capable of reproducing the cognitive abilities of humans in specific domains. In order to leverage the resulting potential, synergistic human-machine collaboration (HMC) is becoming increasingly important for companies. However, orchestrating HMC is dependent on a set of framework conditions that determine the success of the collaboration. This study examines the research question of how to utilize the concept of collaborative intelligence (CI) to enhance decision-making processes while using machine learning (ML) -based data prediction. The purpose is to identify success factors in the development, design, and implementation of an ML-based predictive analytics solution to orchestrate HMC in decision-making processes. These success factors state recommendations for companies to fulfil the necessary framework conditions for synergetic HMC orchestration. In total, five success factors were identified that represent a combination of theoretical findings and empirical insights. At the same time, further research needs were uncovered, which point out starting points for future research projects in the field of HMC.

    Konzeption und Implementierung eines flexiblen Lagerdashboards für SAP EWM mit Microsoft Power BI

    Get PDF
    Kennzahlen nehmen heute in Unternehmen eine sehr große Rolle ein und dienen oft als Grundlage für Entscheidungen, sowohl strategisch, taktisch und operativ. Hierzu gehören auch die intralogistischen Abläufe, deren ständige Verbesserung zu signifikanten Wettbewerbsvorteilen führen kann. Durch die fortgeschrittene Digitalisierung ist die Erfassung der intralogistischen Prozesse mittlerweile auf einem sehr hohen Niveau. Ermöglicht wird das durch den Einsatz starker ERP-Systeme, wie z.B. SAP EWM. Diese nahezu  unerschöpfliche Datenverfügbarkeit bietet großes Potential zur Auswertung, Steuerung und Optimierung der intralogistischen Prozesse. Diese Arbeit hat zum Ziel, diese Datenverfügbarkeit und deren komplexe Interdependenzen mithilfe eines Lagerdashboards zu entzerren und derart zu visualisieren, dass daraus gewonne Erkenntnisse das Lagerwesen sinnvoll unterstützen. Kern der Aufgabe ist somit die Visualisierung relevanter Daten aus SAP EWM mit MS Power BI und deren Übergabe mittels OData zwischen den beiden Anwendungen.  Kennzahlen nehmen heute in Unternehmen eine sehr große Rolle ein und dienen oft als Grundlage für Entscheidungen, sowohl strategisch, taktisch und operativ. Hierzu gehören auch die intralogistischen Abläufe, deren ständige Verbesserung zu signifikanten Wettbewerbsvorteilen führen kann. Durch die fortgeschrittene Digitalisierung ist die Erfassung der intralogistischen Prozesse mittlerweile auf einem sehr hohen Niveau. Ermöglicht wird das durch den Einsatz starker ERP-Systeme, wie z.B. SAP EWM. Diese nahezu  unerschöpfliche Datenverfügbarkeit bietet großes Potential zur Auswertung, Steuerung und Optimierung der intralogistischen Prozesse. Diese Arbeit hat zum Ziel, diese Datenverfügbarkeit und deren komplexe Interdependenzen mithilfe eines Lagerdashboards zu entzerren und derart zu visualisieren, dass daraus gewonne Erkenntnisse das Lagerwesen sinnvoll unterstützen. Kern der Aufgabe ist somit die Visualisierung relevanter Daten aus SAP EWM mit MS Power BI und deren Übergabe mittels OData zwischen den beiden Anwendungen.

    Implementierung eines Visualisierungskonzepts für die grafische Darstellung von Daten und Informationen innerhalb des Controllings

    Get PDF
    In jedem Unternehmen werden Daten produziert und genutzt. Speziell im Controlling werden durch Daten und Informationen wichtige strategische, operative und taktische Entscheidungen getroffen, die weitreichende Folgen haben können. Umso wichtiger ist es, dass die Daten und die daraus abgeleiteten Informationen richtig verarbeitet, verstanden und kommuniziert werden. Visualisierungen können dabei helfen, aber auch verwirren, wenn sie unsachgemäß eingesetzt werden. Deshalb ist es sinnvoll, sich bei der Verwendung von Visualisierungen an Gestaltungsrichtlinien zu halten. (...) Das Ziel der Bachelorarbeit ist es, einen Leitfaden für die Erstellung von Visualisierungen zu verfassen. Dazu werden Empfehlungen aus der Literatur herangezogen. Die Umsetzung des Leitfadens wird anhand von zwei Softwarebeispielen, Microsoft Power BI und Tableau, überprüft. In jedem Unternehmen werden Daten produziert und genutzt. Speziell im Controlling werden durch Daten und Informationen wichtige strategische, operative und taktische Entscheidungen getroffen, die weitreichende Folgen haben können. Umso wichtiger ist es, dass die Daten und die daraus abgeleiteten Informationen richtig verarbeitet, verstanden und kommuniziert werden. Visualisierungen können dabei helfen, aber auch verwirren, wenn sie unsachgemäß eingesetzt werden. Deshalb ist es sinnvoll, sich bei der Verwendung von Visualisierungen an Gestaltungsrichtlinien zu halten. (...) Das Ziel der Bachelorarbeit ist es, einen Leitfaden für die Erstellung von Visualisierungen zu verfassen. Dazu werden Empfehlungen aus der Literatur herangezogen. Die Umsetzung des Leitfadens wird anhand von zwei Softwarebeispielen, Microsoft Power BI und Tableau, überprüft.

    Konzeption und Aufbau einer Trainingsinfrastruktur für virtuelle Sensoren

    Get PDF
    Im Rahmen des Forschungsprojekt KI-VISOPRO (Entwicklung KI-basierter virtueller Sensoren zur Prozesssteuer-ung) wurde ein Sensorsystem entwickelt, welches komplexe Prozessgrößen bestimmen kann, die mit herkömmli-chen Sensoren nicht trivial messbar sind. Hierzu wurde ein Ansatz der künstlichen Intelligenz gewählt, der dem supervised Deep Learning zuzuordnen ist. Ein essenzieller Bestandteil des Projektes ist der Aufbau und die Inbe-triebnahme eines Demonstrators zum strukturierten Sammeln der Prozess- und Sensordaten mittels eines Enterprise Ressource Planning (ERP) System. Die ermittelten Prozessgrößen können dabei auch wieder in den Prozess und das ERP System zurückgespielt werden und dort zur Prozesssteuerung oder der Optimierung von Prozessschritten und -parametern verwendet werden.Im Rahmen des Forschungsprojekt KI-VISOPRO (Entwicklung KI-basierter virtueller Sensoren zur Prozesssteuer-ung) wurde ein Sensorsystem entwickelt, welches komplexe Prozessgrößen bestimmen kann, die mit herkömmli-chen Sensoren nicht trivial messbar sind. Hierzu wurde ein Ansatz der künstlichen Intelligenz gewählt, der dem supervised Deep Learning zuzuordnen ist. Ein essenzieller Bestandteil des Projektes ist der Aufbau und die Inbe-triebnahme eines Demonstrators zum strukturierten Sammeln der Prozess- und Sensordaten mittels eines Enterprise Ressource Planning (ERP) System. Die ermittelten Prozessgrößen können dabei auch wieder in den Prozess und das ERP System zurückgespielt werden und dort zur Prozesssteuerung oder der Optimierung von Prozessschritten und -parametern verwendet werden

    Projekt Management Office - Ein Vorgehensmodell für die organisatorische Implementierung in KMUs

    Get PDF
    Ein verstärktes Projektaufkommen stellt heutige Unternehmen häufig vor die Herausforderung, Projekte innerhalb eines vorgegebenen Zeitrahmens erfolgreich abzuschließen. Um diesen Herausforderungen strukturiert entgegenzuwirken, ist eine Priorisierung von Projekten notwendig, wobei Ansätze eines Multiprojektmanagements verwendet werden können. Für die Umsetzung des Multiprojektmanagements sowie der Standardisierung des Projektmanagements wird zumeist eine separate Abteilung in Unternehmen geschaffen, sodass eine unternehmensweite Projektplanung- und Steuerung umgesetzt werden kann. Diese Abteilung wird oft Projekt Management Office genannt und umfasst ferner die Aufgabe der strategischen Ausrichtung der aufkommenden Projekte. Die Einführung eines Projekt Management Offices ist firmenspezifisch zu gestalten, kann jedoch mittels vordefinierter Konzepte unterstützt werden. Dahingehend wird in diesem Artikel ein Vorgehensmodell zur organisatorischen Implementierung eines Projekt Management Offices in KMUs entwickelt und dessen Anwendung am Beispiel eines Softwareentwicklungsunternehmens beschrieben, das ein professionelles Einzelprojektmanagement sowie ein standardisiertes Projektportfoliomanagement etabliert.Ein verstärktes Projektaufkommen stellt heutige Unternehmen häufig vor die Herausforderung, Projekte innerhalb eines vorgegebenen Zeitrahmens erfolgreich abzuschließen. Um diesen Herausforderungen strukturiert entgegenzuwirken, ist eine Priorisierung von Projekten notwendig, wobei Ansätze eines Multiprojektmanagements verwendet werden können. Für die Umsetzung des Multiprojektmanagements sowie der Standardisierung des Projektmanagements wird zumeist eine separate Abteilung in Unternehmen geschaffen, sodass eine unternehmensweite Projektplanung- und Steuerung umgesetzt werden kann. Diese Abteilung wird oft Projekt Management Office genannt und umfasst ferner die Aufgabe der strategischen Ausrichtung der aufkommenden Projekte. Die Einführung eines Projekt Management Offices ist firmenspezifisch zu gestalten, kann jedoch mittels vordefinierter Konzepte unterstützt werden. Dahingehend wird in diesem Artikel ein Vorgehensmodell zur organisatorischen Implementierung eines Projekt Management Offices in KMUs entwickelt und dessen Anwendung am Beispiel eines Softwareentwicklungsunternehmens beschrieben, das ein professionelles Einzelprojektmanagement sowie ein standardisiertes Projektportfoliomanagement etabliert

    Automatisierung des Aufbaus flexibler Infrastrukturen analytischer Systeme in Cloud-Umgebungen

    Get PDF
    Die in den Unternehmen vorkommenden Anwendungsfälle von Datenauswertungen weisen eine große Vielfalt auf. Als Konsequenz wachsen kontinuierlich die Anzahl und die Funktionsvariabilität von Softwaresystemen, die diese Aufgaben unterstützen. Der gemeinsame Einsatz dieser Softwareteile führt zu komplexen und verschiedenartigen Architekturen, deren Realisierung einen immensen Aufwand erfordert. Außer klassischen Data-Warehouse-Systemen (DWH) finden sich seit einiger Zeit auch Big-Data-Anwendungen in der analysebezogenen IT-Landschaft von Unternehmen. Die Vielfalt und Komplexität dieser Architekturen behindert, verlangsamt und verteuert die Erprobung neuer und innovativer Zusammensetzungen aus analystischen Systemen im Rahmen von Proof-of-Concept-Studien. Im Rahmen dieser Arbeit ist es trotz des breiten Spektrums an Architekturvarianten analytischer Systeme gelungen, mit Hilfe des Infrastructure-as-Code (IaC)-Ansatzes ein gesamtheitliches  Konzept für die Aufbauautomatisierung in mehreren Cloud-Umgebungen zu entwicklen und seine Realisierbarkeit anhand eines Prototyps nachzuweisen. Sowohl die klassischen DWH als auch die unterschiedlichen Arten von Big-Data-Anwendungen lassen sich zu einer sie umfassenden mehrschichtigen Referenzarchitektur vereinen. Die Hauptbestandteile dieser Architektur sind ein Data Lake für die Rohdaten, SQL- und NoSQL-DBMS, ETL-Werkzeuge, Big-Data-Processing-Engines sowie Datenanalyse- und Visualisierungswerkzeuge.Die in den Unternehmen vorkommenden Anwendungsfälle von Datenauswertungen weisen eine große Vielfalt auf. Als Konsequenz wachsen kontinuierlich die Anzahl und die Funktionsvariabilität von Softwaresystemen, die diese Aufgaben unterstützen. Der gemeinsame Einsatz dieser Softwareteile führt zu komplexen und verschiedenartigen Architekturen, deren Realisierung einen immensen Aufwand erfordert. Außer klassischen Data-Warehouse-Systemen (DWH) finden sich seit einiger Zeit auch Big-Data-Anwendungen in der analysebezogenen IT-Landschaft von Unternehmen. Die Vielfalt und Komplexität dieser Architekturen behindert, verlangsamt und verteuert die Erprobung neuer und innovativer Zusammensetzungen aus analystischen Systemen im Rahmen von Proof-of-Concept-Studien. Im Rahmen dieser Arbeit ist es trotz des breiten Spektrums an Architekturvarianten analytischer Systeme gelungen, mit Hilfe des Infrastructure-as-Code (IaC)-Ansatzes ein gesamtheitliches  Konzept für die Aufbauautomatisierung in mehreren Cloud-Umgebungen zu entwicklen und seine Realisierbarkeit anhand eines Prototyps nachzuweisen. Sowohl die klassischen DWH als auch die unterschiedlichen Arten von Big-Data-Anwendungen lassen sich zu einer sie umfassenden mehrschichtigen Referenzarchitektur vereinen. Die Hauptbestandteile dieser Architektur sind ein Data Lake für die Rohdaten, SQL- und NoSQL-DBMS, ETL-Werkzeuge, Big-Data-Processing-Engines sowie Datenanalyse- und Visualisierungswerkzeuge

    Ein funktionaler Vergleich der SAP Analytics Cloud und Microsoft Power BI zur Verwendung im Bereich People Analytics bei Vitesco Technologies

    Get PDF
    Aufgrund leistungsbedingter Einschränkungen durch die aktuelle Business-Intelligence-Software PowerBI vergleicht die People-Analytics-Abteilung von Vitesco Technologies diese mit der Alternativsoftware SAP Analytics Cloud. Daf¨ur wurden zun¨achst aktuelle Herausforderungen im People-Analytics-Umfeld identifiziert und basierend darauf Vergleichskriterien erarbeitet. Als Vergleichsmodell kommt das Kano-Modell zum Einsatz. Die durchgef¨uhrteEvaluation favorisiert aus funktionaler Sicht einen Umstieg auf die SAP Analytics Cloud, identifiziert allerdings eine Reihe an Herausforderungen, die einen sofortigen Wechsel einschr¨anken. Zu diesen geh¨oren sowohl die Verf¨ugbarkeit als auch die Qualit¨at der HR-Daten.Many companies, including Vitesco Technologies’ People Analytics department, are using Business Intelligence (BI) solutions to distinguish upcoming trends and support strategic decision making. Utilizing BI-Software has expanded beyond finance and controlling departments. Cross-department utilization and acceptance along with trends like Cloud Computing and Big Data becoming the new norm, have shaken the BI software landscape. Solutions that were implemented in the past cannot always cope with these new developments. Therefore, especially specific BI application areas like People Analytics need regular software re-evaluations. This article briefly highlights the characteristics of Cloud Business Intelligence, identifies new challenges for People Analytics and proposes a BI software comparison model based on technical capabilities to be used within People Analytics at Vitesco Technologies. Following, the current software - Power BI - will be compared to the cloud-based SAP Analytics Cloud. Conclusively a recommendation for a future People Analytics BI software setup will be given

    Vergleichende Bewertung von Data-Warehouse-Landschaften in der Cloud am Beispiel von Microsoft Azure Synapse Analytics und Snowflake

    Get PDF
    Die Welt befindet sich in einem zunehmend rapiden gesellschaftlichen Wandel. Vieles soll schneller, virtueller und digitaler werden. Zur Entscheidungsunterstützung greifen viele Unternehmen auf Data-Warehouse-Landschaften in der Cloud zurück, um große Datenmengen zu analysieren. Die zentralen Merkmale des Cloud-Computings, wie die Skalierbarkeit, tragen zu einer effizienten Entscheidungsfindung bei. Die adäquate Auswahl einer Cloud-Datenplattform-Lösung stellt eine Herausforderung für Unternehmen dar.  Das Untersuchungsziel der Bachelorarbeit ist die Konzeption einer Bewertungsmatrix zur fundierten Auswahl einer Cloud-Datenplattform-Lösung. Am Beispiel der Gegenüberstellung des PaaS-Produkts Azure Synapse Analytics von Microsoft (MS) und des SaaS-Produkts Snowflake ist zu eruieren, welche Lösung in Bezug auf die beleuchteten Anforderungen am besten geeignet ist

    Design und Implementierung einer modernen „State of the Art“ SAP S/4HANA-Cloud-Anwendung mit einer Benutzeroberfläche basierend auf SAP Fiori

    Get PDF

    Standardisation of automated ordering processes with Peppol using the example of the Friedhelm Loh Group

    No full text

    78

    full texts

    91

    metadata records
    Updated in last 30 days.
    AKWI - Anwendungen und Konzepte der Wirtschaftsinformatik (E-Journal) is based in Switzerland
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇