31 research outputs found

    Von Datenmanagement zu Data Literacy: Informatikdidaktische Aufarbeitung des Gegenstandsbereichs Daten für den allgemeinbildenden Schulunterricht

    Get PDF
    Die Thematisierung von Daten in der Informatik befindet sich seit über einem Jahrzehnt in einem Wandel, der nicht nur technische Neuerungen nach sich zieht, sondern auch eine umfassende Neubetrachtung der Erfassung, Speicherung und Nutzung von Daten verursachte und zur Bildung eines neuen umfassenden Fachgebiets Datenmanagement führte. Die Ausmaße dieser Entwicklung zeigen sich an der zunehmenden Verarbeitung komplexer Daten (Big Data), neuen Möglichkeiten zur Datenverarbeitung und -analyse (z. B. Datenstromsysteme, Data Mining) und nicht zuletzt an der Entstehung einer eigenen Data Science. Neben fachlichen Veränderungen unterliegt aber auch die gesellschaftliche Bedeutung von Daten einem Wandel: Daten stellen nicht mehr nur ein wichtiges und innovatives Thema der Informatik, sondern das zentrale Fundament der digitalen Gesellschaft dar. Auch der Informatikunterricht konzentriert sich seit Jahren eher auf tradierte Aspekte des Fachgebiets, wie Datenbanken und Datenmodellierung, während neuere Themen allenfalls als Unterrichtskontext aufgegriffen werden. Um eine aqäquate Grundlage für den Unterricht zu diesen Themen zu schaffen, die langlebigen Aspekte der fachlichen Entwicklungen zu identifizieren und somit einen zukunftssicheren Informatikunterricht zu ermöglichen, ist eine umfassende informatikdidaktische Aufarbeitung essenziell. Somit eröffnet sich durch diese Veränderungen deutliches Potenzial, nicht nur für die Informatikdidaktik, sondern auch für die Unterrichtspraxis. In dieser Arbeit wird daher der Gegenstandsbereich Daten und insbesondere das Fachgebiet Datenmanagement aus informatikdidaktischer Sicht umfassend aufgearbeitet, mit dem Ziel ein Fundament für die weitere Forschung und die Unterrichtspraxis zu schaffen. Dazu wird das Modell der Didaktischen Rekonstruktion als Forschungsrahmen eingesetzt und das Fachgebiet aus den Perspektiven Fach, Lehrer, Schüler und Gesellschaft untersucht. Als eines der zentralen Ergebnisse wird, basierend auf einem empirisch geprägten Ansatz, ein Modell der Schlüsselkonzepte des Datenmanagements entwickelt. Um den Bogen zu allgemeinbildenden Datenkompetenzen im Sinne einer Data Literacy zu spannen, entsteht außerdem ein Data-Literacy-Kompetenzmodell, das auf Grundlagen des Datenmanagements und der Data Science fundiert wird. Um die praktische Relevanz der Ergebnisse der Arbeit zu unterstreichen, wird auf Basis der gewonnenen Erkenntnisse die Umsetzung von Datenmanagement im Informatikunterricht skizziert. Dazu werden zwei Unterrichtswerkzeuge sowie eine Unterrichtssequenz entwickelt und erprobt. Diese Arbeit schafft somit nicht nur eine Orientierung und Basis für die weitere Forschung im Kontext Daten, sondern sorgt durch die fachliche Klärung des Fachgebiets Datenmanagement auch dafür, dass dessen Kernaspekte greifbarer und klarer erkennbar werden. Sie zeigt exemplarisch, dass auch moderne und komplex erscheinende Themen des Datenmanagements unter Berücksichtigung der zugrundeliegenden Konzepte für den Unterricht geeignet aufbereitet werden können und betont die Relevanz dieser Themen, die in einer digitalen Gesellschaft und im Sinne der Schaffung einer Data Literacy zukünftig einen größeren Stellenwert im Informatikunterricht erlangen müssen

    Wissensextraktion zum datengetriebenen Qualitätsmanagement

    Get PDF
    In der vorliegenden Dissertation werden zwei neue Data Mining Verfahren und Metho-den zur Extraktion von qualitätsrelevantem Wissen vorgestellt und mit Anwendungen aus der Automobilbranche evaluiert. Diese neuartigen Verfahren erlauben es, in Abhän-gigkeit der zugrunde liegenden Datentypen, signifikante Zusammenhänge zwischen qualitätsbeschreibenden und -messenden Daten, die entlang des Wertschöpfungspro-zesses eines Unternehmens für ein Produkt erfasst werden, zu identifizieren

    Zur Motivierung im Informatikunterricht: eine Charakterisierung unterrichtspraktischer Einstiege aus der Perspektive von Lehrenden und Lernenden

    Get PDF
    Motivierungen ermöglichen es, Lernende für Unterrichtsinhalte zu interessieren und zu begeistern. Diese Arbeit untersucht Motivierung im Informatikunterricht anhand von unterrichtspraktischen Einstiegen. In einer explorativ angelegten Studie werden 12 Typen motivierender Unterrichtseinstiege herausgearbeitet, die eine Bandbreite von Themenbereichen des Informatikunterrichts abdecken. Die Typen motivierender Unterrichtseinstiege werden beschrieben, durch Beispiele illustriert und klassifiziert. Die Hauptuntersuchung erfolgt sowohl aus Lehrer- als auch aus Schülerperspektive. Als theoretische Grundlage dient das um eine didaktische Komponente erweiterte ARCS-Modell der Motivierung nach Keller. Mit Hilfe von Vignetten in Text- und Videoform wird eine Charakterisierung der ermittelten Typen anhand ihrer motivierenden Eigenschaften vorgenommen. Dabei können Top-Gruppen nachgewiesen werden, die einzelne Motivierungsfaktoren in besonderer Weise verkörpern. Hervorzuheben ist, dass die Motivierungstypen Aktuelle Sachverhalte erörtern, Entwicklung von Informatiksystemen als Ziel vorgeben und der Kopplungstyp Entwicklung von Informatiksystemen aus dem Alltag als Ziel vorgeben alle untersuchten Motivierungsfaktoren in hoher Ausprägung in sich vereinen (können). Lehrende und Lernende schätzen das Motivierungspotenzial derjenigen Typen als besonders hoch ein, die allgemeinbildende Informatikaspekte verkörpern. Dem Entwickeln von Informatiksystemen aus dem Alltag als vorgegebenes Ziel der Unterrichtseinheit wird von beiden Teilnehmergruppen insgesamt das höchste Motivierungspotenzial beigemessen. Insgesamt kann geschlussfolgert werden, dass Motivierungen im Informatikunterricht erfolgreich auf Schülerinnen und Schüler wirken, wenn sie flexibel mit den Interessen der Jugendlichen arbeiten, sie den Sinn und Zweck der Lernhandlung verkörpern und Möglichkeiten für die Arbeit mit und an Informatiksystemen (er)schaffen

    Probleme beim selbstregulierten Lernen im Studium - Das Wirkungsgefüge von Volition, Trait Procrastination und der Tendenz zur motivationalen Interferenz

    Get PDF
    Die heutigen Anforderungen an Studierende haben das selbstregulierte Lernen zu einer wichtigen Schlüsselqualifikation der Studierenden werden lassen. Es zeigt sich allerdings immer wieder, dass die dafür benötigten volitionalen Strategien bei der Mehrheit der Studierenden nur defizitär vorhanden sind. Zwei Phänomene, die mit diesem Fehlen oder Versagen der Volition in Verbindung gebracht werden können, sind zum einen die Tendenz, die Erledigung von Aufgaben und das Treffen von Entscheidungen, aufzuschieben (Trait Procrastination) sowie zum anderen die Tendenz, bei der Ausführung einer Handlung von Alternativhandlungen abgelenkt zu werden (Tendenz zur motivationalen Interferenz). Beides sind Verhaltensmuster, welche die Effizienz des selbstgesteuerten Lernens, die Qualität der Ergebnisse des Lernens sowie das Wohlbefinden der Studierenden erheblich senken. In dieser Arbeit wurde das Wirkungsgefüge der drei Konstrukte Volition, Trait Procrastination und Tendenz zur motivationalen Interferenz auf das motivationale Interferenzerleben an einer Studierendenstichprobe (

    Management von Datenanalyseprozessen

    Get PDF
    Die vorliegende Arbeit präsentiert eine umfassende, interdisziplinäre Methodik zum Management von Datenanalyseprozessen. Sie betrachtet die Planung, Steuerung und Revision dieser Prozesse und bezieht die Problemspezifikation, die Prozessspezifikation und die Ressourcen- spezifikation ein. Damit gestattet sie eine in Bezug auf die für Datenanalysevorhaben relevanten Modellierungsobjekte vollständige Repräsentation

    Gegenstandslose Ästhetik : Wissen und Erkenntnis im Licht des elektronischen Display

    Get PDF
    Wissen unterscheidet sich in dem Maß vom Glauben, wie sich die Erfahrung als wiederholbar herausstellt. Zwar ist das Wissen keineswegs an eine bestimmte Form der Gesellschaft gebunden. Gleichwohl zeichnet sich die ‘geschichtliche’ Wissensgesellschaft gegenüber der ‘vorgeschichtlichen’ durch die systematische Erzeugung, die Produktion von Wissen aus. Demgemäß gründet die Wissenschaft auf Wiederholbarkeit (Wiederholbarkeit der Beobachtung, Historizität der Erfahrung). Diese stellt das ‘mechanische Paradigma’, das auf Redundanz zielende Prinzip der Erkenntnis dar. Eine grundlegende Voraussetzung für die Wiederholbarkeit ist die Endlichkeit. Die Weisheit, daß niemand zweimal in denselben Fluß steigt, verkündet zunächst nur ein göttliches Gesetz. Der Beweis hierfür, den die Wissenschaft verlangt, um ihn in ein sei es historisches, sei es ein Naturgesetz umformulieren zu können, scheint nachgerade paradox: Er fordert die Reproduzierbarkeit des Einmaligen. Tatsächlich gründet aber jede vernünftige Geschichte auf Wiederholung. Erfahrung muß Anfang und Ende haben, um überhaupt als solche nach- und weitererzählbar zu sein. Das Erfordernis der Endlichkeit führt zwangsläufig zur progressiven dialektischen Ausdifferenzierung der Erfahrungen. An diesem Prozeß der Individuation, der Suche nach dem kleinsten Unteilbaren sind die Medien maßgeblich beteiligt: Als Mittel der Unterscheidung unterstützen sie einerseits die analytische Zergliederung der ursprünglichen Zusammenhänge in begrifflich faßbare, wirklichkeitsgetreu abbildbare Elemente. Dabei tragen sie andererseits als Dispositive der Kunst zur synthetischen Wiederherstellung von ‘Wirklichkeitskonstruktionen’ bei. Wie der Läufer eines Reißverschlusses am einen Ende dasjenige verschränkt, was er am anderen trennt, so funktioniert auch das Medium: ob als Substanz, Schrift oder Sprache bildet es den Hintergrund, das Programm der Indifferenz oder den common sense, ohne die das Unterschiedliche nur als sinnlos und verloren und nicht als Teil eines Ganzes erschiene. Hier liegt jedoch auch das Dilemma des Mediums. Es trägt zwar selbst zur Abschließbarkeit (des Diskurses) bzw. zur Vergegenständlichung (der Wahrnehmung) bei, entzieht sich ihnen aber selbst. Es ist als Vermittelndes, onto-philosophisch gesprochen, überhaupt kein ‘Seiendes’, sondern ein ‘Werdendes’, und dort, wo es greifbar zu werden scheint, nämlich in der Gegenständlichkeit dessen, was es vermittelt, auch stets nur ein vorübergehender Zustand. Konkret gesagt: Wie dieses Buch einerseits endlich ist, stellt es andererseits nur einen Zustand der Schrift dar. Und jeder Versuch, diese Schrift zu beschreiben, führt zu einer anderen Schrift. Die Wahrheit des ‘mechanischen’ Wissens liegt nur scheinbar in der Erklärung des in Frage stehenden Gegenstands. In Wirklichkeit korrespondiert sie mit dessen erschöpfender Beschreibung. Das ‘technische’ Medium ist das Mittel der Beschreibung. Als solches nimmt es die Stellung eines Differenzials ein, das als Schnittstelle im Zwiespalt zwischen dem Einen und dem Allen steht. Die Wahrheit des Gegenstands hängt von den Möglichkeiten des Mediums ab, das Bestimmte - etwa im Rahmen des Diskurses, der Begriffsbildung oder irgendeiner anderen Form der objektiven Darstellung - gegenüber dem Unbestimmten herauszuarbeiten und zu behaupten. Die Wahrheit des Mediums liegt im Medium selbst: Die Schrift läßt sich nicht beschreiben, ohne sie zu verändern. Jede neue Schrift geht aus der alten als Fort-Schrift hervor. Jedes neue Medium entspringt gleichsam der Logik des alten, ohne deshalb jedoch in ihr deshalb schon beschlossen zu sein. Sobald die Tinte getrocknet, das Buch gedruckt, der Abspann gelaufen ist, tritt die Lückenhaftigkeit der Darstellung zutage, die eine Korrektur erfordert, und damit letztlich die Unzulänglichkeit des Mediums, das nach einem neuen verlangt. Wie jeder folgende Satz eine Richtigstellung des vorhergehenden beinhaltet, so folgt umgekehrt aus dem Ungenügen am Authentischen, Identischen des alten das Neue Medium

    Development and verification of causal hypotheses: Design options for an analytic process for the causal justification of goal and measurement systems in the domain of performance management

    Get PDF
    Viele Unternehmen setzen moderne Performance-Management-Konzepte, wie zum Beispiel die Balanced Scorecard, ein. Hierbei werden Ursache-Wirkungs-Vermutungen aufgestellt, um nicht-finanzielle Kennzahlen zu identifizieren und deren Einfluss auf nachgelagerte Finanzkennzahlen abzubilden. Darüber hinaus werden kausale Abhängigkeiten zwischen Maßnahmen und Zielen in Form von Zweck-Mittel-Beziehungen unterstellt. Die hierfür benötigten Kausalhypothesen werden aber nicht systematisch, sondern meist assoziativ und allein auf Basis von Intuition entwickelt. Man verlässt sich auf vage Vermutungen und hypothetische Zusammenhänge, ohne diese zu überprüfen. Dies birgt die Gefahr einer Fehlsteuerung, indem nutzlose, konfliktäre oder sogar schädliche Maßnahmen aus den nur unzureichend begründeten Ziel- und Kennzahlbeziehungen abgeleitet werden. Es stellt sich daher die Frage, wie Unternehmen im Performance-Management ein anderer, systematischerer Umgang mit Ursache-Wirkungs-Beziehungen gelingen kann. Auf welchen Wegen können die benötigten Kausalhypothesen entwickelt und überprüft werden? Um diese Fragen zu beantworten, entwirft diese Arbeit einen generischen Performance-Management-Prozess, der Kausalhypothesen als zentrales Mittel zur ganzheitlichen Gestaltung und Lenkung der betrieblichen Performance nutzt. Daran anknüpfend werden Gestaltungsoptionen für einen Analyseprozess ausgearbeitet, der Kausalhypothesen evidenzbasiert entwickelt und überprüft. Der wesentliche Beitrag dieser Arbeit besteht darin, dass neben der Datenanalyse ein zweiter - und bis dato noch unbeschrittener - Weg zur Kausalanalyse vorgestellt wird: die modellzentrierte Kausalanalyse. Welche Synergien sich aus der Kombination modell- und datenzentrierter Analyseverfahren ergeben, insbesondere mit den Verfahren des On-Line-Analytical-Processing (OLAP) und Data-Minings, wird empirisch am Beispiel eines Sportartikelherstellers gezeigt.Many companies use modern performance management concepts, such as the Balanced Scorecard. These concepts rely on causal assumptions which are established to identify non-financial performance indicators and to reflect their causal impact on downstream financial ratios. In addition, causal relationships between actions and objectives are assumed to justify means-to-an-end relationships. Unfortunately, the required causal hypotheses are not developed systematically and are often solely based on intuition. However, relying on vague assumptions and hypothetical contexts without verifying them is dangerous. It poses the risk of mismanagement by implementing useless and harmful or even conflicting measures which are derived from insufficiently justified causal hypotheses. This raises the question of how companies can succeed in performance management with a better understanding of cause and effect. In which ways can the required causal hypotheses be developed and verified? In order to answer these questions, this thesis creates a generic performance management process which uses causal hypotheses as a central instrument for a holistic design and control of business performance. Furthermore, several design options are elaborated for an analytic process that develops and verifies causal hypotheses for the performance management process. The main contribution of this work is that in addition to data analysis, a second and new way of causal analysis is presented: the model-centered analysis. Finally it is empirically shown how to combine this model-centered approach with data-centered methods, such as On-Line Analytical Processing (OLAP) and data mining, using the example of a sporting goods manufacturer

    Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens: Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens

    Get PDF
    Personalisierung ist ein wichtiger Bereich des Internet Marketings, zu dem es wenige experimentelle Untersuchungen mit großen Teilnehmerzahlen gibt. Für den erfolgreichen Einsatz von Empfehlungsverfahren sind umfangreiche Daten über das Käuferverhalten erforderlich. Diesen Problemstellungen nimmt sich die vorliegende Arbeit an. In ihr wird das Shop-übergreifende individuelle Käuferverhalten von bis zu 126.000 Newsletter-Empfängern eines deutschen Online-Bonussystems sowohl mittels ausgewählter Data-Mining-Methoden als auch experimentell untersucht. Dafür werden Prototypen eines Data-Mining-Systems, einer A/B-Test-Software-Komponente und einer Empfehlungssystem-Komponente entwickelt und im Rahmen des Data Minings und durch Online-Feldexperimente evaluiert. Dabei kann für die genannte Nutzergruppe in einem Experiment bereits mit einem einfachen Empfehlungsverfahren gezeigt werden, dass zum einen die Shop-übergreifenden individuellen Verhaltensdaten des Online-Bonus-Systems für die Erzeugung von Empfehlungen geeignet sind, und zum anderen, dass die dadurch erzeugten Empfehlungen zu signifikant mehr Bestellungen als bei der besten Empfehlung auf Basis durchschnittlichen Käuferverhaltens führten. In weiteren Experimenten im Rahmen der Evaluierung der A/B-Test-Komponente konnte gezeigt werden, dass absolute Rabattangebote nur dann zu signifikant mehr Bestellungen führten als relative Rabatt-Angebote, wenn sie mit einer Handlungsaufforderung verbunden waren. Die Arbeit ordnet sich damit in die Forschung zur Beeinflussung des Käuferverhaltens durch Personalisierung und durch unterschiedliche Rabatt-Darstellungen ein und trägt die genannten Ergebnisse und Artefakte bei.:1 Inhalt 1 Einleitung 1 1.1 Stand der Forschung 3 1.2 Forschungsbedarf 6 1.3 Forschungskonzept 8 1.4 Verwendete Methoden 11 1.5 Aufbau der Arbeit 11 2 Theoretische und konzeptionelle Grundlagen 13 2.1 Internethandel, E-Commerce und E-Business 13 2.2 Marketing, Konsumenten- und Käuferverhalten 16 2.2.1 Käuferverhalten bei Rabatt-Angeboten 20 2.3 Internet Marketing 21 2.3.1 Erfolgskontrolle im Internet Marketing 24 2.3.2 Ausgewählte Disziplinen des Internet Marketings 27 2.3.2.1 Affiliate Marketing 28 2.3.2.2 Online-Cashback-Systeme 35 2.3.2.3 E-Mail-Marketing 38 2.4 Personalisierung im Internet Marketing 56 2.4.1 Empfehlungssysteme 59 2.4.2 Bewertung von Empfehlungssystemen 59 2.4.3 Architektur von Empfehlungssystemen 60 2.4.4 Empfehlungssystem-Kategorien 62 2.4.4.1 Hybride Empfehlungssysteme 67 2.4.5 Techniken für Empfehlungsverfahren 69 2.5 Wissensaufbereitung und -entdeckung 89 2.5.1 Datenerhebungsverfahren 89 2.5.1.1 Datenqualität 91 2.5.1.2 Datensicherheit und Datenschutz 92 2.5.2 Knowledge Discovery und Data Mining 94 2.5.2.1 Der Data-Mining-Prozess 96 2.5.2.2 Data-Mining-Problemtypen 98 2.5.2.3 Das Data-Mining-System 100 2.5.3 Das Experiment als Erhebungsdesign 106 2.5.3.1 Anforderungen und Gütekriterien 111 2.5.3.2 Online-Feldexperimente im Marketing 117 2.5.3.3 Auswertungsverfahren 120 2.5.3.4 Theoretische Grundlagen des A/B-Testverfahrens 121 3 Vorgehen 126 3.1 Forschungsdesign 126 3.1.1.1 Ziele und Anforderungen der Andasa GmbH 128 3.1.1.2 Ziele und Anforderungen des Instituts für Angewandte Informatik 129 3.1.2 Design des Informationssystems 130 3.1.2.1 Der Designprozess 131 3.1.3 Konzeption des Software-Systems 133 3.1.4 Evaluation 134 3.2 Datenanalyse 135 3.2.1 Datenbeschaffung 135 3.2.2 Datenaufbereitung 136 3.2.3 Auswahl geeigneter Data-Mining-Methoden 137 3.2.3.1 Auswahl-Kriterien 137 3.2.3.2 Methodenauswahl 140 3.2.4 Erläuterung ausgewählter Data-Mining-Methoden 156 3.2.4.1 Bayes’sche Netze 156 3.2.4.2 Clustering 158 3.2.4.3 Diskriminanzanalyse 158 3.2.4.4 Korrelationsanalyse 159 3.2.4.5 Online Analytical Processing (OLAP) 159 3.2.5 Auswahl geeigneter Data-Mining-Werkzeuge 165 3.2.5.1 Auswahlprozess 165 3.2.5.2 Kriterien 166 3.2.5.3 Werkzeuge zur statistischen Analyse und Visualisierung 168 3.2.5.4 Werkzeuge für Clustering und Diskriminanzanalyse 168 3.2.5.5 Werkzeuge für Online Analytical Processing 169 3.2.5.6 Werkzeuge für Bayes’sche Netze 169 3.3 Untersuchungsdesign 171 3.3.1 Online-Marketing-Instrumente bei Andasa 172 3.3.2 Stimulus-Auswahl 174 3.3.3 Entwurf des Experimentaldesigns 175 4 Umsetzung 180 4.1 Architektur und prototypische Implementation 180 4.1.1 Das Data-Mining-System 180 4.1.2 Der ETL-Prozess 181 4.1.2.1 Datenerhebung 183 4.1.2.2 Datenbereinigung 184 4.1.3 Die A/B-Testumgebung 185 4.1.4 Das Empfehlungssystem 189 4.1.5 Usability-Evaluation 196 4.2 Data Mining 199 4.2.1 Statistische Analyse 200 4.2.2 Anwendung ausgewählter Data-Mining-Methoden 206 4.2.2.1 Clustering 208 4.2.2.2 Klassifikation 213 4.2.2.3 Modellierung als Bayes’sche Netze 214 4.2.3 Ergebnisse und Evaluation 221 4.3 Feldexperimente mit Newslettern 222 4.3.1 Eckdaten der Tests 223 4.3.2 Beispiel-Experimente 224 4.3.3 A/B-Tests Rabattdarstellungen 226 4.3.3.1 Öffnungsrate Prozente vs. Euro 226 4.3.3.2 Klickrate Prozente vs. Euro 227 4.3.3.3 Conversion-Rate Prozente vs. Euro 229 4.3.4 A/B-Test zur Personalisierung 230 4.3.4.1 Auswahl des Empfehlungsverfahrens 230 4.3.4.2 Definition der Kontrollgruppe 231 4.3.4.3 Operative Durchführung 231 4.3.4.4 Auswertung 232 4.3.5 Ergebnisse und Evaluation 236 5 Zusammenfassung und Ausblick 239 6 Anhang 243 6.1 Anhang A Usability-Evaluation 243 6.1.1 Methoden der Usability-Evaluierung 246 6.1.1.1 Usability-Tests und lautes Denken 246 6.1.1.2 Benutzerbefragung 248 6.1.1.3 Feldstudien und Partizipation 250 6.1.1.4 Expertenorientierte (Inspektions-)Methoden 251 6.1.1.5 Formal-analytische Verfahren 252 6.1.1.6 Quantitative Fragebogen 252 6.1.1.7 Verfahrensmodell 259 6.1.1.8 Auswertung 262 6.1.2 Fragebögen 263 6.2 Anhang B Zeitreihenanalyse 281 6.2.1 Klassische Komponentenmodelle 281 6.2.2 Stochastische Prozesse 282 6.2.3 Fourier-Analyse-Methoden (Spektralanalyse) 283 6.3 Anhang C Daten und Programme 286 6.3.1 Technische Daten 286 6.3.1.1 Data Warehouse / Data Mining Server 286 6.3.2 Programm- und Skriptcodes 287 6.3.2.1 R- Skripte 287 6.3.2.2 SQL – Skripte 296 6.3.2.3 C# Code MostRecentLinkInvocationsShopRecommender.cs 314 6.3.3 Daten A/B-Tests 317 6.3.3.1 Übersicht Newsletter 317 6.3.3.2 Mengengerüst Aussendungen 319 6.3.3.3 Shopaufrufe und Besteller 319 6.3.3.4 Darstellungen der Newsletter-Varianten 320 6.3.4 Daten Personalisierung 335 6.4 Abbildungsverzeichnis 338 6.5 Tabellenverzeichnis 343 6.6 Literaturverzeichnis 34

    Wissensentdeckung im Kontext der Produktionssimulation

    Get PDF
    Klassische Simulationsstudien im Kontext von Produktionssystemen zielen üblicherweise darauf ab, typische, vorab definierte Fragestellungen zu beantworten. Wirkzusammenhänge, die über diesen definierten Projektrahmen hinausgehen, bleiben eventuell unentdeckt. Mit steigender Rechenleistung und der Verfügbarkeit von Big-Data-Infrastrukturen entstehen neue Möglichkeiten zur Durchführung groß angelegter Simulationsstudien, um das Verhalten des Modells möglichst vollständig abzudecken und auszuwerten. Dies wird allgemein als Data Farming bezeichnet. In diesem Buch wird die Methode des Data Farming für die Wissensentdeckung in Produktionssimulationen weiterentwickelt. Dazu wird ein Konzept ausgearbeitet, welches die Auswahl geeigneter Experimentdesignmethoden, die Anwendung und Ausgestaltung von geeigneten Data-Mining-Verfahren sowie Visualisierungs- und Interaktionsmethoden beinhaltet. Das Konzept wird dann in insgesamt vier Fallstudien angewendet.Discrete simulation is an important and established method for the investigation of the dynamic behavior of complex production and logistic systems. Simulation is therefore an essential tool for planning, operating, and controlling those systems, for example in the automotive or semiconductor industries. In this context, typical simulation studies aim at answering pre-defined questions about these systems. This is often accompanied by the simulation and analysis of a few pre-defined scenarios. Relations and effects outside of those predefined project scopes may therefore remain undiscovered. On the other hand, with increasing computing power and the general availability of big data infrastructures, new possibilities arise for carrying out very large bandwidths of simulation experiments in order to cover the behavior of the model as completely as possible and analyze the output data in an automated way. This is generally referred to as data farming. The goal of this work was to transfer and enhance the concept of data farming for the application on knowledge discovery in manufacturing simulations. For this purpose, a holistic concept was created for finding unknown, hidden, and useful knowledge in massive amounts of simulation data. The concept contains the selection of suitable experiment design methods, the application and elaboration of suitable data mining methods in an appropriate and targeted analysis process, as well as the definition of suitable visualization and interaction methods for an iterative and user-focused analysis of large amounts of simulation output data. Furthermore, the concept was prototypically implemented in an integrated software framework. The applicability of the concept was shown and validated in four case studies including two academic and two real-world case studies.Die diskrete Simulation stellt eine wichtige und etablierte Methode zur Untersuchung des dynamischen Verhaltens von komplexen Produktions- und Logistiksystemen dar. Sie ist daher zur Planung, Steuerung und Kontrolle solcher Systeme unerlässlich, beispielsweise in der Automobilindustrie oder in der Halbleiterfertigung. Klassische Simulationsstudien zielen in diesem Kontext üblicherweise darauf ab, typische, vorab definierte Fragestellungen zu beantworten. Dies geht oftmals einher mit der Simulation und Analyse einiger weniger vorab definierter Szenarien. Wirkzusammenhänge, die über diesen definierten Projektrahmen hinausgehen, bleiben daher eventuell unentdeckt. Auf der anderen Seite erwachsen mit steigender Rechenleistung und der allgemeinen Verfügbarkeit von Big-Data-Infrastrukturen neue Möglichkeiten zur Durchführung von sehr großen Bandbreiten von Simulationsexperimenten, um das Verhalten des Modells möglichst vollständig abzudecken und automatisiert auszuwerten. Dies wird allgemein als Data Farming bezeichnet. Ziel dieser Arbeit war es, die Methode des Data Farming für die Nutzung zur Wissensentdeckung in Produktionssimulationen zu übertragen und weiterzuentwickeln. Dazu wurde ein ganzheitliches Konzept ausgearbeitet, um unbekannte, versteckte und potenziell nützliche Wirkzusammenhänge in großen Mengen von Simulationsdaten entdecken zu können. Das Konzept beinhaltet hierzu die Auswahl geeigneter Experimentdesignmethoden, die Anwendung und Ausgestaltung von geeigneten Data-Mining-Verfahren in einem dafür zweckmäßigen und zielgerichteten Analyseprozess sowie die Definition geeigneter Visualisierungs- und Interaktionsmethoden zur iterativen, anwenderorientierten Analyse großer Mengen von Simulationsdaten. Darüber hinaus wurde das Konzept in einem ganzheitlichen Softwareframework prototypisch implementiert. Die Anwendbarkeit des Konzeptes wurde anhand von vier Fallstudien aufgezeigt und validiert. Die Fallstudien beinhalteten hierbei zwei akademische Laborstudien sowie zwei Industrieanwendungsfälle

    Strategic Media Venturing: eine empirische Analyse des Einsatzes von Corporate Venture Capital in der Medienbranche

    Get PDF
    Die vorliegende Dissertationsschrift untersucht den strategischen Einsatz von Corporate Venture Capital (CVC) durch Medien-, Telekommunikations-, Internet und Unterhaltungselektronikunternehmen als Reaktion auf die sich wandelnde und konvergierende Unternehmensumwelt. Hierzu wird zunächst auf Grundlage der ressourcenorientierten Perspektiven des strategischen Managements ein theoretischer Ordnungsrahmen für das CVC-Management geschaffen, bevor eine systematische Datenanalyse der CVC Investmentaktivitäten entlang des Cross-Industry Standard Process for Data Mining durchgeführt wird. Dabei identifiziert die Arbeit mehrere branchenspezifische Unterschiede und Gemeinsamkeiten, welche anhand der generellen Branchenentwicklung sowie den branchenspezifischen Charakteristiken erläutert werden. Damit zeigt die Arbeit die Relevanz und Etablierung von CVC als strategische Unternehmensmaßnahme zum Umgang mit den durch die Digitalisierung entstehenden Chancen und Herausforderungen.Media organizations operate in a high-velocity business environment. Emerging technologies allow new market entrants to blur established market and industry boundaries, which leads to increased competition between established media firms (print, TV, radio, etc.) and between old media firms and new competitors from such related industries as telecommunication, internet technology, and consumer electronics. Often, these new competitors use technology developments to create new media businesses. In summary, media firms need to overcome their often technology-averse behavior and search continually for new opportunities and innovative ideas to able about to respond to the challenges and threats of a technology-driven and converging industry. As a reaction to the high-velocity environments that they are in, incumbents of the telecommunications, internet technology, media and entertainment, and consumer electronics (TIME) industry have increased their corporate venture capital (CVC) activities. However, despite this practical relevance, the venturing activities of TIME incumbents have not yet been analyzed systematically and are, therefore, poorly understood. Furthermore, the strategic management perspective of CVC is a neglected topic within past research. To close this gap, the author relies on previous research of CVC, dynamic capabilities, and the resource-based view of a firm, to develop a theoretical framework for the management of CVC activities. Based on this outline, the author conducted a systemic analysis of TIME incumbents’ CVC activities, by analyzing 3,145 transactions of 68 TME incumbents, between 2002 and 2015, describing and comparing their annual CVC activities. Besides identifying several differences and commonalities between the TIME sectors, the author detected sector-specific CVC investment strategies to deal with the challenges and opportunities of a technology-driven industry. Thus, this thesis highlights the entrepreneurial behavior of TIME incumbents through their annual activities and adds to the theoretical underpinning of CVC, by combining CVC and strategic management literature.Die zunehmend digitale Wettbewerbslandschaft ist gekennzeichnet durch steigende Komplexität, kontinuierlichem Wandel, verschwimmende Branchengrenzen, erhöhter Wettbewerbsintensität sowie die daraus resultierenden unsicheren Entwicklungsprognosen. Besonders die durch technologische Veränderungen stark getriebene Medienbranche steht hierdurch vor weitreichenden strukturellen und betrieblichen Herausforderungen. So lösen die technologischen Entwicklungen die ‚Gatekeeper‘-Funktion traditioneller Medienunternehmen auf und erhöhen die Wettbewerbsintensität sowohl zwischen den Unternehmen traditioneller Mediengattungen (Publishing, TV, Radio etc.) als auch zwischen etablierten Medienunternehmen und neuen Wettbewerbsteilnehmern aus den Branchen Telekommunikation, Unterhaltungselektronik und Internettechnologie. Dabei sind es häufig diese neuen Wettbewerber, die die technologischen Veränderungen nutzen und neue Geschäftsmodelle innerhalb der Medienbranche etablieren. Als Reaktion auf diese hochdynamische und konvergierende Unternehmensumwelt haben Medienunternehmen sowie ihre Wettbewerber aus den verwandten Industrien zur Erschließung und Verteidigung von Geschäftspotenzialen neue Corporate Venture Capital (CVC) Einheiten gegründet bzw. bestehende CVC-Aktivitäten intensiviert. Trotz dieser praktischen Relevanz von CVC haben vorherige Forschungsarbeiten vor allem die CVC-Aktivitäten von Medienunternehmen kaum betrachtet. Des Weiteren wurde – trotz des empirischen Nachweises, dass strategische Zielsetzungen Treiber von CVC-Aktivitäten sind – die strategische Managementperspektive von CVC in der wissenschaftlichen Forschung vernachlässigt. Die vorliegende Dissertationsschrift trägt zur Schließung dieser Forschungslücken bei indem zum einen auf Grundlage der ressourcenorientierten Perspektiven des strategischen Managements ein theoretischer Ordnungsrahmen für das CVC-Management geschaffen und zum anderen eine systematische Datenanalyse der CVC-Investmentaktivitäten entlang des Cross-Industry Standard Process for Data Mining durchgeführt wird. Ergebnis der Analyse ist, neben dem Aufdecken mehrerer branchenspezifischer Unterschiede und Gemeinsamkeiten, die Identifikation branchenspezifischer Investmentstrategien zum Umgang mit den durch die Digitalisierung entstehenden Chancen und Herausforderungen
    corecore