7 research outputs found

    Anwedungen und Techniken zur Analyse großer Datenbestände : Tagungsband zur AKWI-Fachtagung am 11. bis 12.09.2008 an der Hochschule Niederrhein

    Get PDF
    Mit dem Vorliegen großer Datenbestände steigen natürlich auch die Wünsche und Anforderungen zur Analyse dieser Daten. Aus diesen Gründen widmet sich die AKWI Tagung 2008 mit den hier dokumentierten Beiträgen und Diskussionen diesem Thema unter dem Titel: Herausforderungen an die Wirtschaftsinformatik: Anwendungen und Techniken zur Analyse großer Datenbestände. Mit dem analytischen Customer Relationship Management (CRM) wird von Frick und Iversen das Ziel verfolgt, die Analyse der verfügbaren Informationen für die Kundenbedürfnisse einzusetzen. Das kann beträchtlich die Qualität der Kundenbeziehungen verbessern. Es erfordert aber auch eine Weiterqualifizierung aller Beteiligten. Das Supply Chain Management (SCM) dient zur Unternehmensübergreifenden Betrachtung und Modifikation der Geschäftsprozesse. Die ständige Weiterentwicklung der Geschäftsprozesse in den Unternehmen erfordert auch permanent Anpassung bei den davon in der Supply Chain betroffenen Unternehmen. Die Erweiterung der klassischen Sichtweise der Kostenfunktion im Rahmen der Produktionsplanung um die Einfuhrzollproblematik wird von Szymanski mit einem Ansatz zur Optimierung der Supply Chain mit mathematischen Optimierungsmodellen aufgezeigt. Die Gründe dafür liegen in den immer globaleren Gegebenheiten der Beschaffungs-, Produktions- und Distributionslogistik. Für die umfangreichen Aufgaben im Umgang mit den Enterprise Ressource Planning (ERP) Systemen und deren Implementierung werden heute entsprechende Tools benötigt. Von SAP wird dafür der SAP Solution Manager angeboten. Von Frick und Lankes wird der SAP Solution Manager als ein Projektmanagement Werkzeug eingesetzt. Unternehmen jeder Größenordnung sehen sich zunehmend mit der Herausforderung konfrontiert, die betrieblichen Daten für die unterschiedlichsten Zielsetzungen zur Verfügung zu stellen. Neben den betrieblichen Anforderungen rücken hier aber auch die Änderung der Abgabenordnung (AO) und damit der Datenzugriff durch die Finanzbehörden, die Einhaltung von Compliance Richtlinien und damit das Erkennen von Unterschlagungshandlungen als auch die Bestätigung der Ordnungsmäßigkeit des Jahresabschlusses durch die Wirtschaftsprüfer immer stärker in den Fokus der digitalen Aufbereitung von Unternehmensdaten. Wirtschaftsprüfer, Interne Revisoren und Betriebsprüfer der Finanzverwaltung haben die gleichen Probleme zu bewältigen, indem sie sich mit einer gewachsenen, heterogenen und durch Firmenzukäufe und Ausgliederungen stetig ändernden IT Infrastruktur auseinander zu setzen haben. Von Herde wird ein Ansatz zur Extraktion betrieblicher Massendaten in ein analysefähiges Format, unabhängig von operativen Systemen, kostengünstig realisiert. Der Umgang mit großen Mengen von Daten, auch aus unterschiedlichen Unternehmensbereichen, einer großen Anzahl von Benutzern erfordert heute ein Data Warehouse mit konsolidierten Daten. Ohne eine ausreichende Konsolidierung, d. h. ohne eine einheitliche Darstellung der Daten, kann keine sinnvolle Auswertung erfolgen. Erst mit einem Data Warehouse können die Mitarbeiter auch erkennen, was das Unternehmen zu speziellen Fragen eigentlich alles weiß. Von Stegemerten wird aufgezeigt, wie aus einer bestehenden Unternehmensstrategie eine Strategie zum Aufbau eines Data Warehouses abgeleitet werden kann und eine Organisationsstruktur beschrieben, die diese Umsetzung gewährleistet. Die Bedeutung des Controllings wird in dem Beitrag von Frank Weymerich mit der Entwicklung eines entsprechenden Cockpits deutlich. Hier werden die für das Controlling nützlichen Informationen in einem individuell bedienbaren Cockpit für die betrieblichen Entscheider sinnvoll zusammengestellt. In allen Beiträgen werden unterschiedliche spezielle Aspekte der Analyse und Organisation großer Datenbestände aus der Sicht der Wirtschaftsinformatik mit dem ihr eigenen Blick auf die Gesamtheit aller Einflussgrößen aufgezeigt

    Datenwirtschaft und Datentechnologie

    Get PDF
    In diesem Open-Access-Buch stehen die wirtschaftliche Verwertung von Daten und die dazu gehörenden technischen und organisatorischen Prozesse und Strukturen in Unternehmen im Fokus. Es behandelt Themen wie Datenmonetarisierung, Datenverträge, Data Governance, Informationssicherheit, Datenschutz und die Vertrauenswürdigkeit von Daten. Seit Jahren wird davon gesprochen, dass „Daten das neue Öl“ sind. Expertinnen und Experten sind sich einig: Das Wertschöpfungspotential von Daten ist enorm und das über fast alle Branchen und Geschäftsfelder hinweg. Und dennoch bleibt ein Großteil dieses Potentials ungehoben. Deshalb nimmt dieser Sammelband konkrete Innovationshemmnisse, die bei der Erschließung des wirtschaftlichen Werts von Daten auftreten können, in den Blick. Er bietet praktische Lösungsansätze für diese Hürden an den Schnittstellen von Ökonomie, Recht, Akzeptanz und Technik. Dazu folgen die Autorinnen und Autoren einem interdisziplinären Ansatz und greifen aktuelle Diskussionen aus der Wissenschaft auf, adressieren praxisnahe Herausforderungen und geben branchenunabhängige Handlungsempfehlungen. Den Leserinnen und Lesern soll eine transparente Informationsbasis angeboten werden und damit die Teilnahme an der Datenwirtschaft erleichtert werden. Dieses Buch richtet sich an Entscheidungsträgerinnen und Entscheidungsträger in Unternehmen sowie an Entwicklerinnen und Entwickler datenbasierter Dienste und Produkte. Der Band ist ebenfalls für Fachkräfte der angewandten Forschung wie auch für interdisziplinär Studierende z.B. der Wirtschaftsinformatik, der technikorientierten Rechtswissenschaft oder der Techniksoziologie relevant

    Datenwirtschaft und Datentechnologie

    Get PDF

    Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop

    Get PDF
    Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt

    Leitfaden zum Datenschutz in medizinischen Forschungsprojekten

    Get PDF
    Das Vertrauen von Patienten und Probanden ist eine unverzichtbare Voraussetzung für den Erfolg medizinischer Forschungsprojekte, die ohne die Erhebung, langfristige Speicherung und Analyse von klinischen Daten und Proben nicht durchgeführt werden können. Medizinische Forschung arbeitet heute überwiegend vernetzt in zunehmend größeren Forschungsverbünden. Entsprechend nimmt auch die Bedeutung von Datenschutz und Datensicherheit immer weiter zu. Die TMF hat bereits 2003 erstmals generische Datenschutzkonzepte für medizinische Forschungsverbünde veröffentlicht. Auf dieser Basis konnten zahlreiche Forschungsprojekte ihre Datenschutzkonzepte schneller erarbeiten und abstimmen. Die dabei gewonnenen Erfahrungen sind in die grundlegende Überarbeitung der generischen Konzepte eingeflossen. So trägt das neue Konzept der Vielschichtigkeit medizinischer Forschungsprozesse durch einen modularen Aufbau Rechnung und wurde zudem in einen umfassenden Leitfaden eingebettet

    Multikonferenz Wirtschaftsinformatik (MKWI) 2016: Technische Universität Ilmenau, 09. - 11. März 2016; Band I

    Get PDF
    Übersicht der Teilkonferenzen Band I: • 11. Konferenz Mobilität und Digitalisierung (MMS 2016) • Automated Process und Service Management • Business Intelligence, Analytics und Big Data • Computational Mobility, Transportation and Logistics • CSCW & Social Computing • Cyber-Physische Systeme und digitale Wertschöpfungsnetzwerke • Digitalisierung und Privacy • e-Commerce und e-Business • E-Government – Informations- und Kommunikationstechnologien im öffentlichen Sektor • E-Learning und Lern-Service-Engineering – Entwicklung, Einsatz und Evaluation technikgestützter Lehr-/Lernprozess

    32. Forum Bauinformatik 2021

    Get PDF
    Das Forum Bauinformatik ist eine jährlich stattfindende Tagung und ein wichtiger Bestandteil der Bauinformatik im deutschsprachigen Raum. Insbesondere Nachwuchswissenschaftlerinnen und -wissenschaftlern bietet es die Möglichkeit, ihre Forschungsarbeiten zu präsentieren, Problemstellungen fachspezifisch zu diskutieren und sich über den neuesten Stand der Forschung zu informieren. Es bietet sich ausgezeichnete Gelegenheit, in die wissenschaftliche Gemeinschaft im Bereich der Bauinformatik einzusteigen und Kontakte mit anderen Forschenden zu knüpfen
    corecore