88 research outputs found

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur UnterstĂĽtzung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können

    Fallstudien zum Einsatz von Business Intelligence in Call Centern

    Get PDF
    Dieser Forschungsbericht untersucht anhand von sechs Fallstudien die konkrete ProzessunterstĂĽtzung in Call Centern durch in operative Anwendungssysteme eingebettete Analytik. Dies umfasst zum einen retrospektive Analysen fĂĽr interne und externe Stakeholder in Form von Reporten als auch Echtzeit-Auswertungen durch grafisch-orientierte Monitor-Darstellungen. Hierbei stehen unter anderem die eingesetzten Anwendungssysteme, das Nutzungsverhalten durch die verschiedenen Call Center-Mitarbeitergruppen und die kennzahlenbasierten Auswertungsinhalte im Vordergrund.:1 Einleitung 2 Fallstudie - B.B.K. Vertriebs- und Kunden-Services GmbH 3 Fallstudie - DIMA Systems AG 4 Fallstudie - Regiocom Sales Service Halle GmbH 5 Fallstudie - TMA Telesmart GmbH 6 Fallstudie - Simon & Focken GmbH 7 Fallstudie - Regiocom GmbH 8 Zusammenfassung der Fallstudien-Ergebniss

    Facilitation of the financing of small and medium-sized enterprises by software-aided planning and controlling systems

    Get PDF
    In den Vorarbeiten dieser Arbeit konnte der Autor feststellen, dass die meisten mittelständischen Unternehmen (KMU) Defizite in der Unternehmensplanung und im Controlling aufweisen. Viele erstellen zwar Mengenplanungen für den Vertrieb oder die Produktionen, die Planung der Kosten erfolgt jedoch meist völlig unabhängig von den geplanten Leistungen. Oft genug werden die Planbilanz, Plan-GuV und der Finanzplan auf Basis der letzten Bilanzdaten erstellt und nicht direkt aus den logisch vorgelagerten Teilplänen abgeleitet. Damit kann die Konsistenz der Plandaten über alle Teilpläne nicht gewährleistet werden. Ein weiterer Mangel ist die Aktualität der Pläne. Die meisten Unternehmen erstellen nur einmal im Jahr einen operativen Plan, der dann nicht mehr überarbeitet wird. In erfolgreichen Unternehmen wurden dagegen zur Steuerung des Unternehmens kurzfristig (monatlich oder Quartal) sogenannte „Rolling Forecasts“, Prognosen oder Erwartungsrechnungen erstellt. Darüber hinaus werden immer wieder Handlungsalternativen mittels Simulationsrechnungen geprüft. Einer der zahlreichen Gründe, dass nach wie vor nur wenige Unternehmen eine professionelle, integrierte Planung durchführen, liegt im hohen, manuellen Aufwand für die Erstellung und Abstimmung der Teilpläne. Daher wird die Planung noch immer in mehr als 80 Prozent der planenden Unternehmen mit Spreadsheets durchgeführt. Der Einsatz moderner und professioneller Planungs- und Controllingsoftware zeigt, dass gegenüber dem Einsatz von Tabellenkalkulationen eine Reduzierung des Aufwandes für die entsprechenden Tätigkeiten von bis zu 70 Prozent erreicht werden kann. Durch die Integration der Unternehmensplanung und das Controlling kann Planungssicherheit durch Schlüssigkeit und Datenkonsistenz aller Pläne garantiert werden – ein Vorteil für die Unternehmen. Darüber hinaus spielen ein integriertes Controlling und Unternehmensplanung bei der Bonitätsbeurteilung von Unternehmen im Rahmen von Ratingverfahren nach Basel II jetzt und in Zukunft eine immer gewichtigere Rolle. Das Fehlen eines solchen Systems kann mitunter in einem schlechteren Rating, was wiederum zu ungünstigeren Kreditkonditionen führt, resultieren. Daher müssen kleine und mittelständische Unternehmen auch diesen Aspekt bei einer möglicherweise anstehenden Finanzierung beachten. Letztlich wird auch das Management sowie dessen Kompetenzen in diesem Zusammenhang analysiert und bewertet, da von ihm ähnliche Wirkungen auf die Bonität ausgehen. Leider sind beide Faktoren einer erfolgreichen Unternehmensführung in kleinen und mittelständischen Unternehmen häufig nicht besonders gut entwickelt. Sowohl beim Management und dessen Kompetenzen sowie auch beim Planungs- und Controlling-system bestehen starke Defizite. Der Autor verfolgt mit der vorliegenden Arbeit das Ziel, die Bedeutung eines softwaregestützten Planungs- und Controllingsystems in Verbindung mit einer angemessenen Managementkompetenz für die Unternehmensfinanzierung aufzuzeigen sowie deren mögliche Wirkungen zu analysieren und hervorzuheben. Im Ergebnis ist der Autor bestrebt, Vorschläge zum Aufbau zukünftiger Controllingsysteme zu erarbeiten sowie die Anforderungen an die Managementkompetenz mittelständischer Unternehmensführungen zu konkretisieren. Zur Erreichung des gesetzten Ziels wird der Autor zu Beginn alle im Rahmen des Themas relevanten Bereiche konkretisieren und ihre Bedeutung für die Arbeit erläutern. Dazu wurden neben der klassischen akademischen Literatur in erster Linie aktuelle Fachartikel sowie zahlreiche fremde Studien verwendet. Zu den angesprochenen Bereichen zählen hier die Gruppe der kleinen und mittelständischen Unternehmen in Deutschland sowie deren Finanzierungsprobleme, der Begriff der Managementkompetenz und der Aufbau von Controllingsystemen bestehend aus zahlreichen Controllinginstrumenten. In den Kapiteln zwei bis vier werden diese bearbeitet. Darauf fundierend wird der Zusammenhang zwischen den genannten Bereichen hergestellt und mit Fokus auf die Zielsetzung der Arbeit erklärt. Bezugnehmend auf die mittelständischen Finanzierungsprobleme werden dann die Anforderungen der Kapitalgeber an das Controlling eines KMU in Kapitel fünf formuliert. Nachdem die Grund-lage zum Verständnis softwaregestützter Planungs- und Controllingsysteme gelegt wurde, stellt der Autor diese im sechsten Kapitel ins Zentrum der Betrachtung. Quasi Top-Down, d.h. vom Groben ins Feine, werden diese Systeme nun in all ihren theoretischen und praktischen Facetten analysiert. Letztendlich soll die Wirkung des Einsatzes dieser Software für die Unternehmen im Hinblick auf die Finanzierungssituation und die Managementkompetenz ersichtlich werden. Zur Erarbeitung von Vorschlägen für den Aufbau künftiger Controllingsysteme ist es erforderlich, diese auch an kommenden Entwicklungen auszurichten. Aus diesem Grund beleuchtet der Autor im siebenten Kapitel Trends und zukünftige Rahmenbedingungen im Mittelstandscontrolling und leitet daraus seine Empfehlungen ab. Besonderes Augenmerk richtet er dabei auf die neuen internationalen Bilanzierungsnormen IFRS for SME sowie die Regelungen der Eigenkapitalunterlegung von Krediten gemäß Basel II. Kapitel acht fasst die gesamte Arbeit noch einmal vollständig mit ihren Ergebnissen zusammen.In the preparatory work of this doctoral thesis the author found out that most small and medium-sized enterprises have shortcomings in their corporate planning and controlling systems. Most of them only prepare target quantities for their sales department or production department, but the planning of costs mostly occurs independent of the planned benefits. Often the budgeted balance sheet, the budgeted income statement or the budgeted finance plan is generated on the basis of the latest facts from the balance sheet and not directly from the logical upstream operational budgets. Therefore the consistency of the planning data in all parts of the plan cannot be assured. A further shortage is that plans are not up to date. Most companies prepare their operational plan only once a year and do not revise it. In contrast, the control of successful firms in contrast is prepared in short periods of time and by “rolling forecasts”, outlooks or forecasts to the end of the year. Beyond it, many alternatives are proved by means of simulations. One of the numerous reasons for not using a professional and integrated planning system is the high effort of preparation and adjustment of these plans. Thus planning is still executed by spreadsheets in more that 80 percent of all firms. The implementation of modern and professional planning and controlling software shows that time and effort can be reduced by up to 70 percent as opposed to spread sheet calculations. Planning reliability and data consistency can be guaranteed by the integration of corporate planning and controlling. Furthermore such a planning and controlling system is relevant for credit rankings in the context of ratings according to Basel II. The absence of such a system can lead to a worse rating result, which in turn leads to bad credit conditions. Finally the quality as well as the competence of the management of a company are analysed and evaluated. Unfortunately none of the factors of successful corporate management, a controlling system and appropriate management competence, are developed very well in small and medium sized enterprises (SME). Both have many deficits. With this paper the author wants to show the relevance of a software aided planning and controlling system in conjunction with appropriate management competence for corporate finance. As a result of his work, the author gives recommendations for the introduction of future controlling systems and specifies the requirements on the management competence of SME. To reach this goal the author starts by concretizing all relevant aspects and their impact for this paper. For this, the academic literature, current professional articles and numerous studies were used. The aspects are the group of small and medium-sized enterprises in Germany as well as their financing difficulties, the term “management competence” and the assembly of a controlling system composed of many controlling instruments. Later the author analyse the requirements of investors and especially creditors on these controlling systems for SME. The main part of this paper deals with all areas of corporate software-aided planning and controlling systems. Finally the effect of the software on the financing situation of a firm is shown. The author closes his thesis by identifying trends in this special software market and presenting further developments of the international accounting standards IAS/IFRS (IFRS for SME) regarding this software type

    Anwendungssystemgestuetztes strategisches Controlling

    Get PDF
    Strategisches Controlling – nur wenige Schlagworte der Betriebswirtschaftslehre zeichnen sich in vergleichbarem Maße durch ein Nebeneinander von großer Beliebtheit und mangelnder inhaltlicher Konkretisierung aus. Es stellt sich somit die Frage, wie eine strategische Controllingkonzeption konkret zu gestalten ist, um für die zahlreichen Problemfelder der strategischen Unternehmensführung Lösungsansätze zu bieten. Christoph Gehrig untersucht in seiner Arbeit darüber hinaus, wie das strategische Controlling durch den Einsatz moderner Anwendungssysteme effizienter gestaltet werden kann. Durch die Analyse des State of the Art des anwendungssystemgestützten strategischen Controllings in deutschen Großunternehmen verbindet die Arbeit sachlich-analytische und empirische Forschung. Das Buch richtet sich an Dozenten und Studenten der Betriebswirtschaftslehre mit den Schwerpunkten Unternehmensführung und Controlling und an Führungskräfte der Unternehmenspraxis, die sich mit der Ausgestaltung eines strategischen Controllings zur Entscheidungsunterstützung des Top-Managements vertiefend befassen

    Digital Intelligence – Möglichkeiten und Umsetzung einer informatikgestützten Frühaufklärung: Digital Intelligence – opportunities and implementation of a data-driven foresight

    Get PDF
    Das Ziel der Digital Intelligence bzw. datengetriebenen Strategischen Frühaufklärung ist, die Zukunftsgestaltung auf Basis valider und fundierter digitaler Information mit vergleichsweise geringem Aufwand und enormer Zeit- und Kostenersparnis zu unterstützen. Hilfe bieten innovative Technologien der (halb)automatischen Sprach- und Datenverarbeitung wie z. B. das Information Retrieval, das (Temporal) Data, Text und Web Mining, die Informationsvisualisierung, konzeptuelle Strukturen sowie die Informetrie. Sie ermöglichen, Schlüsselthemen und latente Zusammenhänge aus einer nicht überschaubaren, verteilten und inhomogenen Datenmenge wie z. B. Patenten, wissenschaftlichen Publikationen, Pressedokumenten oder Webinhalten rechzeitig zu erkennen und schnell und zielgerichtet bereitzustellen. Die Digital Intelligence macht somit intuitiv erahnte Muster und Entwicklungen explizit und messbar. Die vorliegende Forschungsarbeit soll zum einen die Möglichkeiten der Informatik zur datengetriebenen Frühaufklärung aufzeigen und zum zweiten diese im pragmatischen Kontext umsetzen. Ihren Ausgangspunkt findet sie in der Einführung in die Disziplin der Strategischen Frühaufklärung und ihren datengetriebenen Zweig – die Digital Intelligence. Diskutiert und klassifiziert werden die theoretischen und insbesondere informatikbezogenen Grundlagen der Frühaufklärung – vor allem die Möglichkeiten der zeitorientierten Datenexploration. Konzipiert und entwickelt werden verschiedene Methoden und Software-Werkzeuge, die die zeitorientierte Exploration insbesondere unstrukturierter Textdaten (Temporal Text Mining) unterstützen. Dabei werden nur Verfahren in Betracht gezogen, die sich im Kontext einer großen Institution und den spezifischen Anforderungen der Strategischen Frühaufklärung pragmatisch nutzen lassen. Hervorzuheben sind eine Plattform zur kollektiven Suche sowie ein innovatives Verfahren zur Identifikation schwacher Signale. Vorgestellt und diskutiert wird eine Dienstleistung der Digital Intelligence, die auf dieser Basis in einem globalen technologieorientierten Konzern erfolgreich umgesetzt wurde und eine systematische Wettbewerbs-, Markt- und Technologie-Analyse auf Basis digitaler Spuren des Menschen ermöglicht.:Kurzzusammenfassung 2 Danksagung 3 Inhaltsverzeichnis 5 Tabellenverzeichnis 9 Abbildungsverzeichnis 10 A – EINLEITUNG 13 1 Hintergrund und Motivation 13 2 Beitrag und Aufbau der Arbeit 16 B – THEORIE 20 B0 – Digital Intelligence 20 3 Herleitung und Definition der Digital Intelligence 21 4 Abgrenzung zur Business Intelligence 23 5 Übersicht über unterschiedliche Textsorten 24 6 Informetrie: Bibliometrie, Szientometrie, Webometrie 29 7 Informationssysteme im Kontext der Digital Intelligence 31 B1 – Betriebswirtschaftliche Grundlagen der Digital Intelligence 36 8 Strategische Frühaufklärung 37 8.1 Facetten und historische Entwicklung 37 8.2 Methoden 41 8.3 Prozess 42 8.4 Bestimmung wiederkehrender Termini 44 8.5 Grundlagen der Innovations- und Diffusionsforschung 49 B2 – Informatik-Grundlagen der Digital Intelligence 57 9 Von Zeit, Daten, Text, Metadaten zu multidimensionalen zeitorientierten (Text)Daten 59 9.1 Zeit – eine Begriffsbestimmung 59 9.1.1 Zeitliche Grundelemente und Operatoren 59 9.1.2 Lineare, zyklische und verzweigte Entwicklungen 62 9.1.3 Zeitliche (Un)Bestimmtheit 62 9.1.4 Zeitliche Granularität 63 9.2 Text 63 9.2.1 Der Text und seine sprachlich-textuellen Ebenen 63 9.2.2 Von Signalen und Daten zu Information und Wissen 65 9.3 Daten 65 9.3.1 Herkunft 65 9.3.2 Datengröße 66 9.3.3 Datentyp und Wertebereich 66 9.3.4 Datenstruktur 67 9.3.5 Dimensionalität 68 9.4 Metadaten 69 9.5 Zusammenfassung und multidimensionale zeitorientierte Daten 70 10 Zeitorientierte Datenexplorationsmethoden 73 10.1 Zeitorientierte Datenbankabfragen und OLAP 76 10.2 Zeitorientiertes Information Retrieval 78 10.3 Data Mining und Temporal Data Mining 79 10.3.1 Repräsentationen zeitorientierter Daten 81 10.3.2 Aufgaben des Temporal Data Mining 86 10.4 Text Mining und Temporal Text Mining 91 10.4.1 Grundlagen des Text Mining 98 10.4.2 Entwickelte, genutzte und lizensierte Anwendungen des Text Mining 107 10.4.3 Formen des Temporal Text Mining 110 10.4.3.1 Entdeckung kausaler und zeitorientierter Regeln 110 10.4.3.2 Identifikation von Abweichungen und Volatilität 111 10.4.3.3 Identifikation und zeitorientierte Organisation von Themen 112 10.4.3.4 Zeitorientierte Analyse auf Basis konzeptueller Strukturen 116 10.4.3.5 Zeitorientierte Analyse von Frequenz, Vernetzung und Hierarchien 117 10.4.3.6 Halbautomatische Identifikation von Trends 121 10.4.3.7 Umgang mit dynamisch aktualisierten Daten 123 10.5 Web Mining und Temporal Web Mining 124 10.5.1 Web Content Mining 125 10.5.2 Web Structure Mining 126 10.5.3 Web Usage Mining 127 10.5.4 Temporal Web Mining 127 10.6 Informationsvisualisierung 128 10.6.1 Visualisierungstechniken 130 10.6.1.1 Visualisierungstechniken nach Datentypen 130 10.6.1.2 Visualisierungstechniken nach Darstellungsart 132 10.6.1.3 Visualisierungstechniken nach Art der Interaktion 137 10.6.1.4 Visualisierungstechniken nach Art der visuellen Aufgabe 139 10.6.1.5 Visualisierungstechniken nach Visualisierungsprozess 139 10.6.2 Zeitorientierte Visualisierungstechniken 140 10.6.2.1 Statische Repräsentationen 141 10.6.2.2 Dynamische Repräsentationen 145 10.6.2.3 Ereignisbasierte Repräsentationen 147 10.7 Zusammenfassung 152 11 Konzeptuelle Strukturen 154 12 Synopsis für die zeitorientierte Datenexploration 163 C – UMSETZUNG EINES DIGITAL-INTELLIGENCESYSTEMS 166 13 Bestimmung textbasierter Indikatoren 167 14 Anforderungen an ein Digital-Intelligence-System 171 15 Beschreibung der Umsetzung eines Digital-Intelligence-Systems 174 15.1 Konzept einer Dienstleistung der Digital Intelligence 175 15.1.1 Portalnutzung 177 15.1.2 Steckbriefe 178 15.1.3 Tiefenanalysen 180 15.1.4 Technologiescanning 185 15.2 Relevante Daten für die Digital Intelligence (Beispiel) 187 15.3 Frühaufklärungs-Plattform 188 15.4 WCTAnalyze und automatische Extraktion themenspezifischer Ereignisse 197 15.5 SemanticTalk 200 15.6 Halbautomatische Identifikation von Trends 204 15.6.1 Zeitreihenkorrelation 205 15.6.2 HD-SOM-Scanning 207 D – ZUSAMMENFASSUNG 217 Anhang A: Prozessbilder entwickelter Anwendungen des (Temporal) Text Mining 223 Anhang B: Synopsis der zeitorientierten Datenexploration 230 Literaturverzeichnis 231 Selbstständigkeitserklärung 285 Wissenschaftlicher Werdegang des Autors 286 Veröffentlichungen 28

    Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens: Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens

    Get PDF
    Personalisierung ist ein wichtiger Bereich des Internet Marketings, zu dem es wenige experimentelle Untersuchungen mit großen Teilnehmerzahlen gibt. Für den erfolgreichen Einsatz von Empfehlungsverfahren sind umfangreiche Daten über das Käuferverhalten erforderlich. Diesen Problemstellungen nimmt sich die vorliegende Arbeit an. In ihr wird das Shop-übergreifende individuelle Käuferverhalten von bis zu 126.000 Newsletter-Empfängern eines deutschen Online-Bonussystems sowohl mittels ausgewählter Data-Mining-Methoden als auch experimentell untersucht. Dafür werden Prototypen eines Data-Mining-Systems, einer A/B-Test-Software-Komponente und einer Empfehlungssystem-Komponente entwickelt und im Rahmen des Data Minings und durch Online-Feldexperimente evaluiert. Dabei kann für die genannte Nutzergruppe in einem Experiment bereits mit einem einfachen Empfehlungsverfahren gezeigt werden, dass zum einen die Shop-übergreifenden individuellen Verhaltensdaten des Online-Bonus-Systems für die Erzeugung von Empfehlungen geeignet sind, und zum anderen, dass die dadurch erzeugten Empfehlungen zu signifikant mehr Bestellungen als bei der besten Empfehlung auf Basis durchschnittlichen Käuferverhaltens führten. In weiteren Experimenten im Rahmen der Evaluierung der A/B-Test-Komponente konnte gezeigt werden, dass absolute Rabattangebote nur dann zu signifikant mehr Bestellungen führten als relative Rabatt-Angebote, wenn sie mit einer Handlungsaufforderung verbunden waren. Die Arbeit ordnet sich damit in die Forschung zur Beeinflussung des Käuferverhaltens durch Personalisierung und durch unterschiedliche Rabatt-Darstellungen ein und trägt die genannten Ergebnisse und Artefakte bei.:1 Inhalt 1 Einleitung 1 1.1 Stand der Forschung 3 1.2 Forschungsbedarf 6 1.3 Forschungskonzept 8 1.4 Verwendete Methoden 11 1.5 Aufbau der Arbeit 11 2 Theoretische und konzeptionelle Grundlagen 13 2.1 Internethandel, E-Commerce und E-Business 13 2.2 Marketing, Konsumenten- und Käuferverhalten 16 2.2.1 Käuferverhalten bei Rabatt-Angeboten 20 2.3 Internet Marketing 21 2.3.1 Erfolgskontrolle im Internet Marketing 24 2.3.2 Ausgewählte Disziplinen des Internet Marketings 27 2.3.2.1 Affiliate Marketing 28 2.3.2.2 Online-Cashback-Systeme 35 2.3.2.3 E-Mail-Marketing 38 2.4 Personalisierung im Internet Marketing 56 2.4.1 Empfehlungssysteme 59 2.4.2 Bewertung von Empfehlungssystemen 59 2.4.3 Architektur von Empfehlungssystemen 60 2.4.4 Empfehlungssystem-Kategorien 62 2.4.4.1 Hybride Empfehlungssysteme 67 2.4.5 Techniken für Empfehlungsverfahren 69 2.5 Wissensaufbereitung und -entdeckung 89 2.5.1 Datenerhebungsverfahren 89 2.5.1.1 Datenqualität 91 2.5.1.2 Datensicherheit und Datenschutz 92 2.5.2 Knowledge Discovery und Data Mining 94 2.5.2.1 Der Data-Mining-Prozess 96 2.5.2.2 Data-Mining-Problemtypen 98 2.5.2.3 Das Data-Mining-System 100 2.5.3 Das Experiment als Erhebungsdesign 106 2.5.3.1 Anforderungen und Gütekriterien 111 2.5.3.2 Online-Feldexperimente im Marketing 117 2.5.3.3 Auswertungsverfahren 120 2.5.3.4 Theoretische Grundlagen des A/B-Testverfahrens 121 3 Vorgehen 126 3.1 Forschungsdesign 126 3.1.1.1 Ziele und Anforderungen der Andasa GmbH 128 3.1.1.2 Ziele und Anforderungen des Instituts für Angewandte Informatik 129 3.1.2 Design des Informationssystems 130 3.1.2.1 Der Designprozess 131 3.1.3 Konzeption des Software-Systems 133 3.1.4 Evaluation 134 3.2 Datenanalyse 135 3.2.1 Datenbeschaffung 135 3.2.2 Datenaufbereitung 136 3.2.3 Auswahl geeigneter Data-Mining-Methoden 137 3.2.3.1 Auswahl-Kriterien 137 3.2.3.2 Methodenauswahl 140 3.2.4 Erläuterung ausgewählter Data-Mining-Methoden 156 3.2.4.1 Bayes’sche Netze 156 3.2.4.2 Clustering 158 3.2.4.3 Diskriminanzanalyse 158 3.2.4.4 Korrelationsanalyse 159 3.2.4.5 Online Analytical Processing (OLAP) 159 3.2.5 Auswahl geeigneter Data-Mining-Werkzeuge 165 3.2.5.1 Auswahlprozess 165 3.2.5.2 Kriterien 166 3.2.5.3 Werkzeuge zur statistischen Analyse und Visualisierung 168 3.2.5.4 Werkzeuge für Clustering und Diskriminanzanalyse 168 3.2.5.5 Werkzeuge für Online Analytical Processing 169 3.2.5.6 Werkzeuge für Bayes’sche Netze 169 3.3 Untersuchungsdesign 171 3.3.1 Online-Marketing-Instrumente bei Andasa 172 3.3.2 Stimulus-Auswahl 174 3.3.3 Entwurf des Experimentaldesigns 175 4 Umsetzung 180 4.1 Architektur und prototypische Implementation 180 4.1.1 Das Data-Mining-System 180 4.1.2 Der ETL-Prozess 181 4.1.2.1 Datenerhebung 183 4.1.2.2 Datenbereinigung 184 4.1.3 Die A/B-Testumgebung 185 4.1.4 Das Empfehlungssystem 189 4.1.5 Usability-Evaluation 196 4.2 Data Mining 199 4.2.1 Statistische Analyse 200 4.2.2 Anwendung ausgewählter Data-Mining-Methoden 206 4.2.2.1 Clustering 208 4.2.2.2 Klassifikation 213 4.2.2.3 Modellierung als Bayes’sche Netze 214 4.2.3 Ergebnisse und Evaluation 221 4.3 Feldexperimente mit Newslettern 222 4.3.1 Eckdaten der Tests 223 4.3.2 Beispiel-Experimente 224 4.3.3 A/B-Tests Rabattdarstellungen 226 4.3.3.1 Öffnungsrate Prozente vs. Euro 226 4.3.3.2 Klickrate Prozente vs. Euro 227 4.3.3.3 Conversion-Rate Prozente vs. Euro 229 4.3.4 A/B-Test zur Personalisierung 230 4.3.4.1 Auswahl des Empfehlungsverfahrens 230 4.3.4.2 Definition der Kontrollgruppe 231 4.3.4.3 Operative Durchführung 231 4.3.4.4 Auswertung 232 4.3.5 Ergebnisse und Evaluation 236 5 Zusammenfassung und Ausblick 239 6 Anhang 243 6.1 Anhang A Usability-Evaluation 243 6.1.1 Methoden der Usability-Evaluierung 246 6.1.1.1 Usability-Tests und lautes Denken 246 6.1.1.2 Benutzerbefragung 248 6.1.1.3 Feldstudien und Partizipation 250 6.1.1.4 Expertenorientierte (Inspektions-)Methoden 251 6.1.1.5 Formal-analytische Verfahren 252 6.1.1.6 Quantitative Fragebogen 252 6.1.1.7 Verfahrensmodell 259 6.1.1.8 Auswertung 262 6.1.2 Fragebögen 263 6.2 Anhang B Zeitreihenanalyse 281 6.2.1 Klassische Komponentenmodelle 281 6.2.2 Stochastische Prozesse 282 6.2.3 Fourier-Analyse-Methoden (Spektralanalyse) 283 6.3 Anhang C Daten und Programme 286 6.3.1 Technische Daten 286 6.3.1.1 Data Warehouse / Data Mining Server 286 6.3.2 Programm- und Skriptcodes 287 6.3.2.1 R- Skripte 287 6.3.2.2 SQL – Skripte 296 6.3.2.3 C# Code MostRecentLinkInvocationsShopRecommender.cs 314 6.3.3 Daten A/B-Tests 317 6.3.3.1 Übersicht Newsletter 317 6.3.3.2 Mengengerüst Aussendungen 319 6.3.3.3 Shopaufrufe und Besteller 319 6.3.3.4 Darstellungen der Newsletter-Varianten 320 6.3.4 Daten Personalisierung 335 6.4 Abbildungsverzeichnis 338 6.5 Tabellenverzeichnis 343 6.6 Literaturverzeichnis 34

    Designing Cross-Company Business Intelligence Networks

    Get PDF
    Business Intelligence (BI) ist der allgemein akzeptierte Begriff für Methoden, Konzepte und Werkzeuge zur Sammlung, Aufbereitung, Speicherung, Verteilung und Analyse von Daten für Management- und Geschäftsentscheidungen. Obwohl unternehmensübergreifende Kooperation in den vergangenen Jahrzehnten stets an Einfluss gewonnen hat, existieren nur wenige Forschungsergebnisse im Bereich unternehmensübergreifender BI. Die vorliegende Arbeit stellt eine Arbeitsdefinition des Begriffs Cross-Company BI (CCBI) vor und grenzt diesen von gemeinschaftlicher Entscheidungsfindung ab. Auf Basis eines Referenzmodells, das existierende Arbeiten und Ansätze verwandter Forschungsbereiche berücksichtigt, werden umfangreiche Simulationen und Parametertests unternehmensübergreifender BI-Netzwerke durchgeführt. Es wird gezeigt, dass eine Peer-To-Peer-basierte Gestaltung der Netzwerke leistungsfähig und kompetitiv zu existierenden zentral-fokussierten Ansätzen ist. Zur Quantifizierung der Beobachtungen werden Messgrößen geprüft, die sich aus existierenden Konzepten zur Schemaüberführung multidimensionaler Daten sowie Überlegungen zur Daten- und Informationsqualität ableiten oder entwickeln lassen.Business Intelligence (BI) is a well-established term for methods, concepts and tools to retrieve, store, deliver and analyze data for management and business purposes. Although collaboration across company borders has substantially increased over the past decades, little research has been conducted specifically on Cross-Company BI (CCBI). In this thesis, a working definition and distinction from general collaborative decision making is proposed. Based on a reference model that takes existing research and related approaches of adjacent fields into account a peer-to-peer network design is created. With an extensive simulation and parameter testing it is shown that the design proves valuable and competitive to centralized approaches and that obtaining a critical mass of participants leads to improved usefulness of the network. To quantify the observations, appropriate quality measures rigorously derived from respected concepts on data and information quality and multidimensional data models are introduced and validated

    Big Data in der Cloud

    Get PDF
    Seit einigen Jahren wird erwartet, dass die automatisierte Auswertung der kontinuierlich wachsenden öffentlichen und privaten Datenbestände nicht nur den Markt für Informationstechnologie (IT), sondern die Gesellschaft insgesamt hin zu einer digitalen Ökonomie nachhaltig verändert. Big Data steht dabei für Ansätze zur Analyse besonders großer, heterogener Datenmengen, während Cloud Computing die bedarfsgerechte Bereitstellung von IT-Ressourcen über ein Netzwerk beschreibt. Die Kombination dieser beiden Ansätze wird als besonders relevant angesehen, da sie auch kleinen und mittleren Unternehmen, Verwaltungen oder Nichtregierungsorganisationen Zugang zu Big-Data-Analysen eröffnen kann. Einerseits werden große Potenziale beispielsweis in der Medizin, der Logistik und der Verkehrslenkung, der Energieproduktion oder im Katastrophenschutz gesehen, andererseits werden auch große Herausforderungen insbesondere für den Datenschutz thematisiert. Die Vorstudie zeigt, dass Cloud Computing zunehmend an ökonomischer Bedeutung gewinnt. Hingegen befindet sich der Markt für Big-Data-Analysen, auch aufgrund der schwierigen Abgrenzung zu schon existierenden Technologien, noch in seinen Anfängen. Der Überblick zu den Anwendungspotenzialen in den Bedarfsfeldern der Hightech-Strategie belegt die Möglichkeiten in den Bereichen Produktivität, Effizienz und Innovation sowie für Wachstum und Beschäftigung. Herausforderungen werden außer im Datenschutz sowie bei den geistigen Eigentumsrechten auch bei den Geschäftsmodellen deutlich. Abschließend werden Bereiche identifiziert, die einen Handlungs- und Forschungsbedarf aufzeigen. Hierzu gehören Fragen der nötigen Infrastrukturen, der technischen und rechtlichen Sicherheit, der Ausbildung sowie der ökonomischen Wettbewerbsfähigkeit
    • …
    corecore