17 research outputs found

    Digital Intelligence – Möglichkeiten und Umsetzung einer informatikgestützten Frühaufklärung: Digital Intelligence – opportunities and implementation of a data-driven foresight

    Get PDF
    Das Ziel der Digital Intelligence bzw. datengetriebenen Strategischen Frühaufklärung ist, die Zukunftsgestaltung auf Basis valider und fundierter digitaler Information mit vergleichsweise geringem Aufwand und enormer Zeit- und Kostenersparnis zu unterstützen. Hilfe bieten innovative Technologien der (halb)automatischen Sprach- und Datenverarbeitung wie z. B. das Information Retrieval, das (Temporal) Data, Text und Web Mining, die Informationsvisualisierung, konzeptuelle Strukturen sowie die Informetrie. Sie ermöglichen, Schlüsselthemen und latente Zusammenhänge aus einer nicht überschaubaren, verteilten und inhomogenen Datenmenge wie z. B. Patenten, wissenschaftlichen Publikationen, Pressedokumenten oder Webinhalten rechzeitig zu erkennen und schnell und zielgerichtet bereitzustellen. Die Digital Intelligence macht somit intuitiv erahnte Muster und Entwicklungen explizit und messbar. Die vorliegende Forschungsarbeit soll zum einen die Möglichkeiten der Informatik zur datengetriebenen Frühaufklärung aufzeigen und zum zweiten diese im pragmatischen Kontext umsetzen. Ihren Ausgangspunkt findet sie in der Einführung in die Disziplin der Strategischen Frühaufklärung und ihren datengetriebenen Zweig – die Digital Intelligence. Diskutiert und klassifiziert werden die theoretischen und insbesondere informatikbezogenen Grundlagen der Frühaufklärung – vor allem die Möglichkeiten der zeitorientierten Datenexploration. Konzipiert und entwickelt werden verschiedene Methoden und Software-Werkzeuge, die die zeitorientierte Exploration insbesondere unstrukturierter Textdaten (Temporal Text Mining) unterstützen. Dabei werden nur Verfahren in Betracht gezogen, die sich im Kontext einer großen Institution und den spezifischen Anforderungen der Strategischen Frühaufklärung pragmatisch nutzen lassen. Hervorzuheben sind eine Plattform zur kollektiven Suche sowie ein innovatives Verfahren zur Identifikation schwacher Signale. Vorgestellt und diskutiert wird eine Dienstleistung der Digital Intelligence, die auf dieser Basis in einem globalen technologieorientierten Konzern erfolgreich umgesetzt wurde und eine systematische Wettbewerbs-, Markt- und Technologie-Analyse auf Basis digitaler Spuren des Menschen ermöglicht.:Kurzzusammenfassung 2 Danksagung 3 Inhaltsverzeichnis 5 Tabellenverzeichnis 9 Abbildungsverzeichnis 10 A – EINLEITUNG 13 1 Hintergrund und Motivation 13 2 Beitrag und Aufbau der Arbeit 16 B – THEORIE 20 B0 – Digital Intelligence 20 3 Herleitung und Definition der Digital Intelligence 21 4 Abgrenzung zur Business Intelligence 23 5 Übersicht über unterschiedliche Textsorten 24 6 Informetrie: Bibliometrie, Szientometrie, Webometrie 29 7 Informationssysteme im Kontext der Digital Intelligence 31 B1 – Betriebswirtschaftliche Grundlagen der Digital Intelligence 36 8 Strategische Frühaufklärung 37 8.1 Facetten und historische Entwicklung 37 8.2 Methoden 41 8.3 Prozess 42 8.4 Bestimmung wiederkehrender Termini 44 8.5 Grundlagen der Innovations- und Diffusionsforschung 49 B2 – Informatik-Grundlagen der Digital Intelligence 57 9 Von Zeit, Daten, Text, Metadaten zu multidimensionalen zeitorientierten (Text)Daten 59 9.1 Zeit – eine Begriffsbestimmung 59 9.1.1 Zeitliche Grundelemente und Operatoren 59 9.1.2 Lineare, zyklische und verzweigte Entwicklungen 62 9.1.3 Zeitliche (Un)Bestimmtheit 62 9.1.4 Zeitliche Granularität 63 9.2 Text 63 9.2.1 Der Text und seine sprachlich-textuellen Ebenen 63 9.2.2 Von Signalen und Daten zu Information und Wissen 65 9.3 Daten 65 9.3.1 Herkunft 65 9.3.2 Datengröße 66 9.3.3 Datentyp und Wertebereich 66 9.3.4 Datenstruktur 67 9.3.5 Dimensionalität 68 9.4 Metadaten 69 9.5 Zusammenfassung und multidimensionale zeitorientierte Daten 70 10 Zeitorientierte Datenexplorationsmethoden 73 10.1 Zeitorientierte Datenbankabfragen und OLAP 76 10.2 Zeitorientiertes Information Retrieval 78 10.3 Data Mining und Temporal Data Mining 79 10.3.1 Repräsentationen zeitorientierter Daten 81 10.3.2 Aufgaben des Temporal Data Mining 86 10.4 Text Mining und Temporal Text Mining 91 10.4.1 Grundlagen des Text Mining 98 10.4.2 Entwickelte, genutzte und lizensierte Anwendungen des Text Mining 107 10.4.3 Formen des Temporal Text Mining 110 10.4.3.1 Entdeckung kausaler und zeitorientierter Regeln 110 10.4.3.2 Identifikation von Abweichungen und Volatilität 111 10.4.3.3 Identifikation und zeitorientierte Organisation von Themen 112 10.4.3.4 Zeitorientierte Analyse auf Basis konzeptueller Strukturen 116 10.4.3.5 Zeitorientierte Analyse von Frequenz, Vernetzung und Hierarchien 117 10.4.3.6 Halbautomatische Identifikation von Trends 121 10.4.3.7 Umgang mit dynamisch aktualisierten Daten 123 10.5 Web Mining und Temporal Web Mining 124 10.5.1 Web Content Mining 125 10.5.2 Web Structure Mining 126 10.5.3 Web Usage Mining 127 10.5.4 Temporal Web Mining 127 10.6 Informationsvisualisierung 128 10.6.1 Visualisierungstechniken 130 10.6.1.1 Visualisierungstechniken nach Datentypen 130 10.6.1.2 Visualisierungstechniken nach Darstellungsart 132 10.6.1.3 Visualisierungstechniken nach Art der Interaktion 137 10.6.1.4 Visualisierungstechniken nach Art der visuellen Aufgabe 139 10.6.1.5 Visualisierungstechniken nach Visualisierungsprozess 139 10.6.2 Zeitorientierte Visualisierungstechniken 140 10.6.2.1 Statische Repräsentationen 141 10.6.2.2 Dynamische Repräsentationen 145 10.6.2.3 Ereignisbasierte Repräsentationen 147 10.7 Zusammenfassung 152 11 Konzeptuelle Strukturen 154 12 Synopsis für die zeitorientierte Datenexploration 163 C – UMSETZUNG EINES DIGITAL-INTELLIGENCESYSTEMS 166 13 Bestimmung textbasierter Indikatoren 167 14 Anforderungen an ein Digital-Intelligence-System 171 15 Beschreibung der Umsetzung eines Digital-Intelligence-Systems 174 15.1 Konzept einer Dienstleistung der Digital Intelligence 175 15.1.1 Portalnutzung 177 15.1.2 Steckbriefe 178 15.1.3 Tiefenanalysen 180 15.1.4 Technologiescanning 185 15.2 Relevante Daten für die Digital Intelligence (Beispiel) 187 15.3 Frühaufklärungs-Plattform 188 15.4 WCTAnalyze und automatische Extraktion themenspezifischer Ereignisse 197 15.5 SemanticTalk 200 15.6 Halbautomatische Identifikation von Trends 204 15.6.1 Zeitreihenkorrelation 205 15.6.2 HD-SOM-Scanning 207 D – ZUSAMMENFASSUNG 217 Anhang A: Prozessbilder entwickelter Anwendungen des (Temporal) Text Mining 223 Anhang B: Synopsis der zeitorientierten Datenexploration 230 Literaturverzeichnis 231 Selbstständigkeitserklärung 285 Wissenschaftlicher Werdegang des Autors 286 Veröffentlichungen 28

    Deskription und Inferenz: methodologische Konzepte in der Statistik und Ă–konometrie

    Full text link
    'Ausgehend von dem wissenschaftstheoretischen Ansatz Thomas S. Kuhns, wird die historische Entwicklung zentraler Leitvorstellungen der theoretischen Statistik und Ökonometrie bis zur Gegenwart rekonstruiert. Dabei zeigt sich wider Erwarten, daß die Statistik und in ihrer Folge die Ökonometrie keinen kumulativen Fortschrittsprozeß durch Falsifikation von Theorien durchlaufen haben. Konkurrierende Systeme erlangten statt dessen paradigmatischen Charakter und wurden immer wieder zu logisch nicht zu rechtfertigenden Einheiten verschmolzen. Dies gilt beispielsweise für solch grundlegende Kategorien wie den Wahrscheinlichkeitsbegriff oder die statistische Inferenz ebenso wie für den Stellenwert der Modellkonstruktion. Aus der hier vorgelegten Analyse folgt zweierlei: Zum einen wird in Anlehnung an die 'Frankfurter Schule' der Statistik eine stärkere Hinwendung der empirisch-historischen Forschung zur Deskription als eigenständigem Erkenntnisziel gefordert. Zum anderen zeigt sich die Überlegenheit des bayesianischen gegenüber dem 'klassischen' inferenzstatistischen Ansatz. Statistische Parameter sollten nicht als real existierende Konstanten, sondern als idealtypische, zeitvariable Konstrukte aufgefaßt werden. Wenn damit das primäre Interesse nicht dem Testen von Hypothesen, sondern der empirischen Analyse von Modellen gilt, dann bedeutet dies für die quantitative Forschung auch einen neuen methodischen Zugang zur historischen Wirklichkeit.' (Autorenreferat

    Imag(in)ing social networks

    Get PDF
    Rahmen Als kulturelle Leitmetapher reüssiert der Netzwerkbegriff heute im Zusammenspiel mit einer spezifischen Vorstellung: als Leitbild ist sie geprägt von Bildern, die Geflechte aus Knoten und Linien zeigen, von der Darstellung möglicher Epidemien, über Verflechtungen der Finanzmärkte bis zu Freundschafts- und Terrornetzwerken. Ob historische Studien, Gegenwartsanalysen oder Zukunftsszenarien, Erkenntnis- oder Kontrollinstrumente, die Techniken zur Erzeugung solcher Netzwerkdiagramme aus Annahmen, Erhebungsdaten oder Simulationen bauen auf gemeinsamen ästhetischen aber auch methodischen Traditionen auf. Seit den 1930er Jahren wird wissenschaftlich an der soziometrischen Vermessung und Darstellung von sozialen Strukturen gearbeitet, mit voranschreitender Digitalisierung und neuen Möglichkeiten der Informationsvisualisierung konnte ein Forschungsbereich entstehen, der mächtige Analyseinstrumente für komplexe soziale Zusammenhänge bereitstellt: Im Rahmen der Sozialen Netzwerkanalyse werden neben neuen mathematischen Methoden auch neuartige visuelle Darstellungstechniken und Interpretationsformen entwickelt. Ziele Das Projekt zielt darauf ab, Einblick in den Entstehungskontext von wissenschaftlichen Visualisierungen sozialer Netzwerke als Soziogramme zu erlangen. Sowohl die metaphorischen und sinnlichen Dimensionen der Bildakte, als auch die vielfältigen Objektivierungsstrategien am und durch das Medium der Netzwerkvisualisierung sollen von der wissenschaftlichen Praxis her beleuchtet werden. In den Blick rücken sodann ihre Performanzen als kulturspezifische Metaphern, Bilder und Modelle („imagining“) und die operativen Strategien der Sichtbarmachungen und Materialisationen („imaging“). Theoretisches und methodisches Vorgehen Die Studie orientiert sich weniger an bildwissenschaftlichen Theorien als an wissenschaftssoziologischen Ansätzen, insbesondere an Laborstudien und praxeographischen Studien, welche Wissen in die es hervorbringenden Praktiken eingebettet untersucht. Die Herausarbeitung der Handhabungen der wissenschaftlichen Bilder erfolgte auf Basis von teilnehmenden Beobachtungen in einem netzwerkanalytischen Labor, Interviews und Feedback- Befragungen, und Literaturrecherchen, sowie durch aktive Partizipation im Feld, etwa durch Vorträge und Diskussionen bei einschlägigen Konferenzen, und durch Teilnahme an Lehrveranstaltungen und Workshops zwischen 2006 und 2009. Zum Einsatz kam also ein Set aus Methoden einschließlich diskursanalytischen Kodierungs- und Auswertungsinstrumenten und ethnographischen Vorgehensweisen. Resultate Netzwerkvisualisierungen werden in der Forschungspraxis als Werkzeug, Argument und Evidenzmittel eingesetzt. Sie sind Indikatoren für die Datengüte, Exploratorien, Triangulationswerkzeuge, Kommunikationsmittel und erzeugen somit das, was sie analysieren. Die Herstellung von Wissen erscheint demnach als Gestaltungsprozess. Die Arbeit an den Diagrammen erfordert diverse Formen der Zusammenarbeit und des Wissenstransfers, die Expertise der Bildherstellung und -gestaltung muss oftmals extern beigeholt werden. Der Wille zur Gestaltung weist über die Maximierung der Lesbarkeit und die Reduktion der interpretativen Flexibilität hinaus, im Forschungsprozess mit seinen Aufmerksamkeitsökonomien kommen epistemische Bilder auch zeitgenössisch stilgerecht zum Einsatz. Ein historischer Exkurs zum zeichnerischen Entwerfen von sozialen Strukturen beleuchtet die Kulturtechnik des Knoten-Linien-Diagramms und stellt die Herausbildung der damit einhergehenden Blickkonventionen vor. Die Beobachtungen der kulturellen und körperlichen Dimensionen der wissenschaftlichen Evidenzerzeugung mittels Bildern weisen diese als ästhetische Praktiken aus. Körperlichkeit wird nicht als Automatismus ausgeblendet, sondern ist im Zusammenwirken mit instrumenteller Vermittlung sowohl als Medium, als auch als Maßstab der wissenschaftlichen Objektivierung zu begreifen. Diskussion Der epistemologisch prekäre Status der Netzwerkvisualisierungen – in der wissenschaftlichen Ausbildung wird deren Herstellung meist vernachlässigt, in der Vermittlung wird deren aufwändige Gestaltung als Informationsvisualisierung oftmals als manipulativ empfunden – kann für deren reflexive Thematisierung als Wahrnehmungs- und Gestaltungstechniken sozialer Realitäten herangezogen werden. Das Zeichnen von sozialen Strukturen birgt das Potential multiple Perspektiven auf das Soziale zu kultivieren und gesellschaftliche Selbstbeschreibungen und Leitbilder kritisch aufzubrechen. Gestaltungskompetenz sollte demnach explizit als notwendiger Bestandteil epistemischer Praktiken etabliert werden

    Historische Sozialforschung: Identifikation, Organisation, Institution

    Full text link
    Im Mittelpunkt des vorliegenden Buches steht die Darstellung von Aufgaben und Leistungen des Zentrums für Historische Sozialforschung (ZHSF) in Vergangenheit, Gegenwart und Zukunft. Das ZHSF erbringt in institutionalisierter Form seit 1987 umfassende Infrastrukturleistungen für die Historische Sozialforschung; in der Entwicklung spiegelt sich daher exemplarisch auch die Entwicklung der Historischen Sozialforschung in der Bundesrepublik Deutschland in den zurückliegenden Jahren wider. 'Institution und Funktion' der Historischen Sozialforschung lassen sich nicht hinreichend verstehen, ohne 'Identifikation und Definition' sowie 'Organisation und Diffusion' zumindest als institutionellen Hintergrund in den Blick zu nehmen. Folgende Punkte werden in diesem Kontext näher betrachtet: (1) Wissenschaftlicher Standort; (2) Forschungsstrategie; (3) Geschichte, Aufgaben und Struktur; (4) Forschungsfeld und Klientel; (5) Beratungs- und Datenservice; (6) Software; (7) Historische Statistik; (8) Publikationen; (9) Lehre und Forschung. (psz

    Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens: Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens

    Get PDF
    Personalisierung ist ein wichtiger Bereich des Internet Marketings, zu dem es wenige experimentelle Untersuchungen mit großen Teilnehmerzahlen gibt. Für den erfolgreichen Einsatz von Empfehlungsverfahren sind umfangreiche Daten über das Käuferverhalten erforderlich. Diesen Problemstellungen nimmt sich die vorliegende Arbeit an. In ihr wird das Shop-übergreifende individuelle Käuferverhalten von bis zu 126.000 Newsletter-Empfängern eines deutschen Online-Bonussystems sowohl mittels ausgewählter Data-Mining-Methoden als auch experimentell untersucht. Dafür werden Prototypen eines Data-Mining-Systems, einer A/B-Test-Software-Komponente und einer Empfehlungssystem-Komponente entwickelt und im Rahmen des Data Minings und durch Online-Feldexperimente evaluiert. Dabei kann für die genannte Nutzergruppe in einem Experiment bereits mit einem einfachen Empfehlungsverfahren gezeigt werden, dass zum einen die Shop-übergreifenden individuellen Verhaltensdaten des Online-Bonus-Systems für die Erzeugung von Empfehlungen geeignet sind, und zum anderen, dass die dadurch erzeugten Empfehlungen zu signifikant mehr Bestellungen als bei der besten Empfehlung auf Basis durchschnittlichen Käuferverhaltens führten. In weiteren Experimenten im Rahmen der Evaluierung der A/B-Test-Komponente konnte gezeigt werden, dass absolute Rabattangebote nur dann zu signifikant mehr Bestellungen führten als relative Rabatt-Angebote, wenn sie mit einer Handlungsaufforderung verbunden waren. Die Arbeit ordnet sich damit in die Forschung zur Beeinflussung des Käuferverhaltens durch Personalisierung und durch unterschiedliche Rabatt-Darstellungen ein und trägt die genannten Ergebnisse und Artefakte bei.:1 Inhalt 1 Einleitung 1 1.1 Stand der Forschung 3 1.2 Forschungsbedarf 6 1.3 Forschungskonzept 8 1.4 Verwendete Methoden 11 1.5 Aufbau der Arbeit 11 2 Theoretische und konzeptionelle Grundlagen 13 2.1 Internethandel, E-Commerce und E-Business 13 2.2 Marketing, Konsumenten- und Käuferverhalten 16 2.2.1 Käuferverhalten bei Rabatt-Angeboten 20 2.3 Internet Marketing 21 2.3.1 Erfolgskontrolle im Internet Marketing 24 2.3.2 Ausgewählte Disziplinen des Internet Marketings 27 2.3.2.1 Affiliate Marketing 28 2.3.2.2 Online-Cashback-Systeme 35 2.3.2.3 E-Mail-Marketing 38 2.4 Personalisierung im Internet Marketing 56 2.4.1 Empfehlungssysteme 59 2.4.2 Bewertung von Empfehlungssystemen 59 2.4.3 Architektur von Empfehlungssystemen 60 2.4.4 Empfehlungssystem-Kategorien 62 2.4.4.1 Hybride Empfehlungssysteme 67 2.4.5 Techniken für Empfehlungsverfahren 69 2.5 Wissensaufbereitung und -entdeckung 89 2.5.1 Datenerhebungsverfahren 89 2.5.1.1 Datenqualität 91 2.5.1.2 Datensicherheit und Datenschutz 92 2.5.2 Knowledge Discovery und Data Mining 94 2.5.2.1 Der Data-Mining-Prozess 96 2.5.2.2 Data-Mining-Problemtypen 98 2.5.2.3 Das Data-Mining-System 100 2.5.3 Das Experiment als Erhebungsdesign 106 2.5.3.1 Anforderungen und Gütekriterien 111 2.5.3.2 Online-Feldexperimente im Marketing 117 2.5.3.3 Auswertungsverfahren 120 2.5.3.4 Theoretische Grundlagen des A/B-Testverfahrens 121 3 Vorgehen 126 3.1 Forschungsdesign 126 3.1.1.1 Ziele und Anforderungen der Andasa GmbH 128 3.1.1.2 Ziele und Anforderungen des Instituts für Angewandte Informatik 129 3.1.2 Design des Informationssystems 130 3.1.2.1 Der Designprozess 131 3.1.3 Konzeption des Software-Systems 133 3.1.4 Evaluation 134 3.2 Datenanalyse 135 3.2.1 Datenbeschaffung 135 3.2.2 Datenaufbereitung 136 3.2.3 Auswahl geeigneter Data-Mining-Methoden 137 3.2.3.1 Auswahl-Kriterien 137 3.2.3.2 Methodenauswahl 140 3.2.4 Erläuterung ausgewählter Data-Mining-Methoden 156 3.2.4.1 Bayes’sche Netze 156 3.2.4.2 Clustering 158 3.2.4.3 Diskriminanzanalyse 158 3.2.4.4 Korrelationsanalyse 159 3.2.4.5 Online Analytical Processing (OLAP) 159 3.2.5 Auswahl geeigneter Data-Mining-Werkzeuge 165 3.2.5.1 Auswahlprozess 165 3.2.5.2 Kriterien 166 3.2.5.3 Werkzeuge zur statistischen Analyse und Visualisierung 168 3.2.5.4 Werkzeuge für Clustering und Diskriminanzanalyse 168 3.2.5.5 Werkzeuge für Online Analytical Processing 169 3.2.5.6 Werkzeuge für Bayes’sche Netze 169 3.3 Untersuchungsdesign 171 3.3.1 Online-Marketing-Instrumente bei Andasa 172 3.3.2 Stimulus-Auswahl 174 3.3.3 Entwurf des Experimentaldesigns 175 4 Umsetzung 180 4.1 Architektur und prototypische Implementation 180 4.1.1 Das Data-Mining-System 180 4.1.2 Der ETL-Prozess 181 4.1.2.1 Datenerhebung 183 4.1.2.2 Datenbereinigung 184 4.1.3 Die A/B-Testumgebung 185 4.1.4 Das Empfehlungssystem 189 4.1.5 Usability-Evaluation 196 4.2 Data Mining 199 4.2.1 Statistische Analyse 200 4.2.2 Anwendung ausgewählter Data-Mining-Methoden 206 4.2.2.1 Clustering 208 4.2.2.2 Klassifikation 213 4.2.2.3 Modellierung als Bayes’sche Netze 214 4.2.3 Ergebnisse und Evaluation 221 4.3 Feldexperimente mit Newslettern 222 4.3.1 Eckdaten der Tests 223 4.3.2 Beispiel-Experimente 224 4.3.3 A/B-Tests Rabattdarstellungen 226 4.3.3.1 Öffnungsrate Prozente vs. Euro 226 4.3.3.2 Klickrate Prozente vs. Euro 227 4.3.3.3 Conversion-Rate Prozente vs. Euro 229 4.3.4 A/B-Test zur Personalisierung 230 4.3.4.1 Auswahl des Empfehlungsverfahrens 230 4.3.4.2 Definition der Kontrollgruppe 231 4.3.4.3 Operative Durchführung 231 4.3.4.4 Auswertung 232 4.3.5 Ergebnisse und Evaluation 236 5 Zusammenfassung und Ausblick 239 6 Anhang 243 6.1 Anhang A Usability-Evaluation 243 6.1.1 Methoden der Usability-Evaluierung 246 6.1.1.1 Usability-Tests und lautes Denken 246 6.1.1.2 Benutzerbefragung 248 6.1.1.3 Feldstudien und Partizipation 250 6.1.1.4 Expertenorientierte (Inspektions-)Methoden 251 6.1.1.5 Formal-analytische Verfahren 252 6.1.1.6 Quantitative Fragebogen 252 6.1.1.7 Verfahrensmodell 259 6.1.1.8 Auswertung 262 6.1.2 Fragebögen 263 6.2 Anhang B Zeitreihenanalyse 281 6.2.1 Klassische Komponentenmodelle 281 6.2.2 Stochastische Prozesse 282 6.2.3 Fourier-Analyse-Methoden (Spektralanalyse) 283 6.3 Anhang C Daten und Programme 286 6.3.1 Technische Daten 286 6.3.1.1 Data Warehouse / Data Mining Server 286 6.3.2 Programm- und Skriptcodes 287 6.3.2.1 R- Skripte 287 6.3.2.2 SQL – Skripte 296 6.3.2.3 C# Code MostRecentLinkInvocationsShopRecommender.cs 314 6.3.3 Daten A/B-Tests 317 6.3.3.1 Übersicht Newsletter 317 6.3.3.2 Mengengerüst Aussendungen 319 6.3.3.3 Shopaufrufe und Besteller 319 6.3.3.4 Darstellungen der Newsletter-Varianten 320 6.3.4 Daten Personalisierung 335 6.4 Abbildungsverzeichnis 338 6.5 Tabellenverzeichnis 343 6.6 Literaturverzeichnis 34

    Soziales Kapital in Organisationen: eine tauschtheoretische Studie

    Full text link
    "Noch vor einer Generation war der Begriff der Organisation gleichbedeutend mit Statik, Verläßlichkeit, Hierarchie und disziplinierter Produktivität. Die neuen Leitbegriffe der Managementpraxis lauten dagegen Dynamik, Flexibilität, Team und emanzipierte Interaktivität. 'Netzwerk' lautet die Parole der Organisationstheorie, die das neue Leitbild des Organisierens erfassen soll. Hier wird vorgeschlagen, Netzwerke als soziales Kapital der Individuen wie der Organisation zu interpretieren. Theoretisch und empirisch werden Kommunikationsnetze gleichgestellter Organisationsmitglieder analysiert. Die lateralen Kommunikationsbeziehungen interessieren als exemplarisches Erkenntnisobjekt zur Erprobung einer bestimmten thematischen Sichtweise - der sozio-ökonomischen Tauschtheorie - in Verbindung mit einem spezifischen methodischen Instrument - der sozialen Netzwerkanalyse." (Autorenreferat

    Raumbezogenes Monitoring als Aufgabe eines integrierten kommunalen Informationsmanagements. Konzept, Methodik und Grenzen

    Get PDF
    Urbanisierung ist eine prägende Entwicklung unserer Zeit. Aber die enge Verflechtung demographischer, sozialer und wirtschaftlicher Veränderungen sowie ungleiche Teilhabechancen können die Stabilität von Städten durch die räumliche Konzentration von benachteiligenden Faktoren gefährden. Dies stellt die Stadtregionen vor große Herausforderungen. Stadtverwaltungen können diesen Herausforderungen mit einer aktiven Stadtentwicklungspolitik unter dem Leitbild der “integrierten Stadtentwicklung” begegnen. Ein wichtiges Element dieses Planungsansatzes ist eine angemessene Informationsgrundlage. In dieser Dissertation wird ein Monitoringsystem vorgestellt, mit dem im Kontext einer integrierten Stadtentwicklungsplanung eine solche Informationsgrundlage bereitgestellt werden kann. Mit dem Monitoring werden raumbezogene Daten über die Gesamtstadt und städtischen Teilräume auf verschiedenen räumlichen Aggregationsebenen zur Unterstützung von stadtplanerischen Entscheidungen aufbereitet und den verschiedenen Entscheidern zur Verfügung gestellt. Die Arbeit beinhaltet die Entwicklung eines Rahmenkonzepts für ein raumbezogenes Monitoringsystem sowie die Erarbeitung einer Methodik zur Stadtentwicklungsbeobachtung basierend auf zusammengesetzten Indizes. Mit dem Rahmenkonzept wird der Versuch unternommen, ein geschlossenes Konzept für ein raumbezogenes Monitoringsystem vorzulegen, in dem nicht nur Aspekte des Informationsangebots, sondern auch Überlegungen zur Gestaltung eines Monitoring-Informationssystems sowie zu steuerungs- und umsetzungsbezogenen Aspekten zusammengeführt werden. Abschließend werden die Grenzen des methodischen Ansatzes an einem empirischen Beispiel diskutiert
    corecore