55 research outputs found

    Visual Analytics im Kontext der Daten- und Analysequalität am Beispiel von Data Mashups

    Get PDF
    Viele Prozesse und Geschäftsmodelle der Gegenwart basieren auf der Auswertung von Daten. Durch Fortschritte in der Speichertechnologie und Vernetzung ist die Akquisition von Daten heute sehr einfach und wird umfassend genutzt. Das weltweit vorhandene Datenvolumen steigt exponentiell und sorgt für eine zunehmende Komplexität der Analyse. In den letzten Jahren fällt in diesem Zusammenhang öfter der Begriff Visual Analytics. Dieses Forschungsgebiet kombiniert visuelle und automatische Verfahren zur Datenanalyse. Im Rahmen dieser Arbeit werden die Verwendung und die Ziele von Visual Analytics evaluiert und eine neue umfassendere Definition entwickelt. Aus dieser wird eine Erweiterung des Knowledge Discovery-Prozesses abgeleitet und verschiedene Ansätze bewertet. Um die Unterschiede zwischen Data Mining, der Visualisierung und Visual Analytics zu verdeutlichen, werden diese Themengebiete gegenübergestellt und in einem Ordnungsrahmen hinsichtlich verschiedener Dimensionen klassifiziert. Zusätzlich wird untersucht, inwiefern dieser neue Ansatz im Hinblick auf Daten- und Analysequalität eingesetzt werden kann. Abschließend wird auf Basis der gewonnenen Erkenntnisse eine prototypische Implementierung auf Basis von FlexMash, einem an der Universität Stuttgart entwickelten Data Mashup-Werkzeug, beschrieben. Data Mashups vereinfachen die Einbindung von Anwendern ohne technischen Hintergrund und harmonieren daher ausgezeichnet mit Visual Analytics

    Konzeption und Realisierung einer webbasierten Lernumgebung für die Signal- und Mustererkennung

    Get PDF
    Abstract The present paper concentrates on a learning software for signal and pattern recognition which is flexible in use and practically oriented. The main goal of such software is to organize and realize virtual, web-based practical trainings. In order to achieve this goal, a concept for a web and browser-based learning environment called "Virtual Laboratory for Signal and Pattern Recognition" (vPSM) is developed and prototyped within the framework of this paper. The main focus of the present paper is developing a concept for and implementing a prototype of interactive and virtual devices which can be used to hold practical trainings, for self-study based on self-controlled and explorative learning, and to enhance lectures. A learning environment for signal and pattern recognition is conceptualized based on the fundamental learning theory, on the essentials of computer supported learning environments, on the state-of-the-art analysis, on the field specific demands, and on the current situation of the institute. Special attention is given to the didactics, to various structural aspects regarding topic distribution, and to the order in which the topics are to be worked on. The primary focus here is placed upon conceptualizing the virtual devices, the different user actions, and the tasks. The absolute mark of quality for learning and for a learning environment is that the learning objects are interactive. This factor is decisive for developing and implementing especially the interactive devices. The learning environment is augmented by the availability of learning content to supplement lectures and exercises, by interactive experimental surroundings, by a collection of exercises and information, and by help systems. At the same time, various interfaces are available to implement results from continuing scientific work. By integrating the computer algebra system "Mathematica" via a Java-API, a powerful tool for mathematical operations and for creating manifold types of presentations (auditory, visual) is also available. When the technical realization is described, an insight is given into the technologies used, into the database based functions (role and task concept), and into the integration of the mathematical tools. The present paper concludes with a discussion regarding the obtained results and the considerations regarding the further development of the learning environment vPSM.Die vorliegende Arbeit stellt sich der Herausforderung nach einer flexibel einsetzbaren, praxisverbundenen Lehrsoftware für die Signal- und Mustererkennung mit dem Kernanliegen, die Organisation und Durchführung eines virtuellen, webbasierten Praktikums zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein Konzept für eine web- und browserbasierte Lernumgebung „Virtuelles Praktikum für die Signal- und Mustererkennung" (vPSM) entwickelt und prototypisch realisiert. Im Zentrum der Arbeit stand die Konzeption und prototypische Implementierung von interaktiven Bedienelementen – den virtuellen Geräten, die sich kontextunabhängig sowohl für die Durchführung von Praktika, für das Selbststudium - auf der Basis selbstgesteuerten, explorierenden Lernens - und zur Ergänzung der Lehrveranstaltungen einsetzen lassen. Ausgehend von den lerntheoretischen Grundlagen, den Grundlagen computerunterstützter Lernumgebungen, der „State-of-the-Art"-Analyse, den fachspezifischen Anforderungen und der aktuellen Ausgangssituation am Fachgebiet wurde ein Konzept für eine Lernumgebung für die Signal- und Musterkennung entwickelt. Dabei wurde speziell auf die didaktische Konzeption, verschiedene Strukturierungskonzepte bezüglich der thematischen Stoffaufteilung und bezüglich der Bearbeitungsabfolge eingegangen. Ein besonderes Augenmerk wurde auf die Konzeption der virtuellen Geräte, die verschiedenen Nutzeraktionsformen und die Aufgabenkonzeption gelegt. Bei der Entwicklung und Implementierung, speziell der interaktiven Geräte, war ausschlaggebend, dass die Interaktivität der Lernobjekte ein entscheidendes Qualitätskriterium des Lernens bzw. einer Lernumgebung ist. Ergänzt wird die Lernumgebung durch die Bereitstellung vorlesungs- und übungsergänzender Lehrinhalte, interaktiver Experimentierumgebungen, Aufgaben- und Informationssammlungen und Hilfesysteme. Sie stellt gleichzeitig vielfältige Schnittstellen zur Verfügung, um Ergebnisse aus weiterführenden wissenschaftlichen Arbeiten zu implementieren. Durch die Integration des Computer-Algebra-Systems Mathematica über eine Java-API steht ein mächtiges Werkzeug für die mathematischen Operationen und die Erzeugung verschiedenster Präsentationsmöglichkeiten (auditiv, visuell) zur Verfügung. In Zusammenhang mit der Beschreibung der technischen Realisierung wird ein Einblick in die verwendeten Technologien, die datenbankbasierten Funktionen (Rollen- und Aufgabenkonzept) und die Integration der mathematischen Werkzeuge gegeben. Mit einer Diskussion der erreichten Ergebnisse und Überlegungen zu Weiterentwicklungen der Lernumgebung vPSM schließt die Arbeit ab

    Wissensentdeckung im Kontext der Produktionssimulation

    Get PDF
    Klassische Simulationsstudien im Kontext von Produktionssystemen zielen üblicherweise darauf ab, typische, vorab definierte Fragestellungen zu beantworten. Wirkzusammenhänge, die über diesen definierten Projektrahmen hinausgehen, bleiben eventuell unentdeckt. Mit steigender Rechenleistung und der Verfügbarkeit von Big-Data-Infrastrukturen entstehen neue Möglichkeiten zur Durchführung groß angelegter Simulationsstudien, um das Verhalten des Modells möglichst vollständig abzudecken und auszuwerten. Dies wird allgemein als Data Farming bezeichnet. In diesem Buch wird die Methode des Data Farming für die Wissensentdeckung in Produktionssimulationen weiterentwickelt. Dazu wird ein Konzept ausgearbeitet, welches die Auswahl geeigneter Experimentdesignmethoden, die Anwendung und Ausgestaltung von geeigneten Data-Mining-Verfahren sowie Visualisierungs- und Interaktionsmethoden beinhaltet. Das Konzept wird dann in insgesamt vier Fallstudien angewendet.Discrete simulation is an important and established method for the investigation of the dynamic behavior of complex production and logistic systems. Simulation is therefore an essential tool for planning, operating, and controlling those systems, for example in the automotive or semiconductor industries. In this context, typical simulation studies aim at answering pre-defined questions about these systems. This is often accompanied by the simulation and analysis of a few pre-defined scenarios. Relations and effects outside of those predefined project scopes may therefore remain undiscovered. On the other hand, with increasing computing power and the general availability of big data infrastructures, new possibilities arise for carrying out very large bandwidths of simulation experiments in order to cover the behavior of the model as completely as possible and analyze the output data in an automated way. This is generally referred to as data farming. The goal of this work was to transfer and enhance the concept of data farming for the application on knowledge discovery in manufacturing simulations. For this purpose, a holistic concept was created for finding unknown, hidden, and useful knowledge in massive amounts of simulation data. The concept contains the selection of suitable experiment design methods, the application and elaboration of suitable data mining methods in an appropriate and targeted analysis process, as well as the definition of suitable visualization and interaction methods for an iterative and user-focused analysis of large amounts of simulation output data. Furthermore, the concept was prototypically implemented in an integrated software framework. The applicability of the concept was shown and validated in four case studies including two academic and two real-world case studies.Die diskrete Simulation stellt eine wichtige und etablierte Methode zur Untersuchung des dynamischen Verhaltens von komplexen Produktions- und Logistiksystemen dar. Sie ist daher zur Planung, Steuerung und Kontrolle solcher Systeme unerlässlich, beispielsweise in der Automobilindustrie oder in der Halbleiterfertigung. Klassische Simulationsstudien zielen in diesem Kontext üblicherweise darauf ab, typische, vorab definierte Fragestellungen zu beantworten. Dies geht oftmals einher mit der Simulation und Analyse einiger weniger vorab definierter Szenarien. Wirkzusammenhänge, die über diesen definierten Projektrahmen hinausgehen, bleiben daher eventuell unentdeckt. Auf der anderen Seite erwachsen mit steigender Rechenleistung und der allgemeinen Verfügbarkeit von Big-Data-Infrastrukturen neue Möglichkeiten zur Durchführung von sehr großen Bandbreiten von Simulationsexperimenten, um das Verhalten des Modells möglichst vollständig abzudecken und automatisiert auszuwerten. Dies wird allgemein als Data Farming bezeichnet. Ziel dieser Arbeit war es, die Methode des Data Farming für die Nutzung zur Wissensentdeckung in Produktionssimulationen zu übertragen und weiterzuentwickeln. Dazu wurde ein ganzheitliches Konzept ausgearbeitet, um unbekannte, versteckte und potenziell nützliche Wirkzusammenhänge in großen Mengen von Simulationsdaten entdecken zu können. Das Konzept beinhaltet hierzu die Auswahl geeigneter Experimentdesignmethoden, die Anwendung und Ausgestaltung von geeigneten Data-Mining-Verfahren in einem dafür zweckmäßigen und zielgerichteten Analyseprozess sowie die Definition geeigneter Visualisierungs- und Interaktionsmethoden zur iterativen, anwenderorientierten Analyse großer Mengen von Simulationsdaten. Darüber hinaus wurde das Konzept in einem ganzheitlichen Softwareframework prototypisch implementiert. Die Anwendbarkeit des Konzeptes wurde anhand von vier Fallstudien aufgezeigt und validiert. Die Fallstudien beinhalteten hierbei zwei akademische Laborstudien sowie zwei Industrieanwendungsfälle

    Wissensbasierte Prozesskonfiguration im Bauwesen

    Get PDF
    Das Ziel der Prozesskonfiguration besteht darin, typische Bauprozesse wie Planungsprozesse, Ausführungsprozesse, Steuerungs- und Entscheidungsprozesse zu unterstützen. Infolgedessen bilden die Prozesse und der Einsatz von Prozessmodellen für verschiedene Aufgabenbereiche im Bauwesen die Grundlage für die computerunterstützte Bearbeitung von Bauvorhaben. Die Bauprozessmodelle werden meistens in einer semi-formalen Sprache dargestellt. Das erlaubt die weitere Formalisierung zum Zweck der intelligenten Konfiguration der Prozesse. Das bedeutet, dass die Prozesse auf Basis des formal beschriebenen Prozesswissens konfiguriert, zusammengestellt und instanziiert werden können. Solche Prozesse sind besonders aktuell im Bereich des Risikomanagements, das in den letzten Jahren im Bauwesen an Bedeutung gewonnen hat. Die Prozesse sollen bei der Suche nach einem alternativen Ablauf im Fall einer Prozessstörung ad-hoc konfiguriert und zur Verfügung gestellt werden. Dies kann semi-automatisch mit Einsatz wissensbasierter Methoden realisiert werden. Die Prozesse im Bauwesen bergen diverse spezielle Eigenschaften in sich, die die Problematik der typischen Konfigurationsvorgehensweise sichtbar werden lassen. Wesentliche Merkmale der Bauprozesse sind der durchgängige Informationsfluss und der hohe Kommunikationsbedarf zwischen allen Beteiligten im Bauprojekt. Das impliziert Anforderungen an eine effektive Interoperabilität innerhalb des Bauprojekts. In einem signifikant großen Projekt wie beispielsweise dem Flughafenbau, bei dem sich die Baustelle auf tausenden Hektar Fläche erstreckt und mehrere Dutzende Baufirmen involviert sind, die über unterschiedliche Software und Baudatenmodelle und Standards verfügen, ist die Koordination sowie ein effektiver Informationsaustausch und als Folge die Prozesskonfiguration gravierend erschwert. Dementsprechend spielt die Anwendung einer übergeordneten Struktur, die die Heterogenität der verteilten Umgebung einkapselt, eine bedeutende Rolle. Des Weiteren bringt ein ontologiebasierter Ansatz wesentliche Vorteile bei der Betrachtung der existierenden Problematik. Ontologie ist eine explizite, formale Spezifikation einer gemeinsamen Konzeptualisierung (Gruber 1993). Darunter kann eine konzeptuelle Formalisierung von Wissensbereichen und Begriffssystemen verstanden werden. Mittels Ontologie kann Wissen verteilt werden, was eine verbesserte Interoperabilität in komplexen Systemen mit vielen heterogenen Ressourcen, wie beispielsweise Bauwesensystemen, gewährleistet. Anwendungsbereiche der Ontologie sind Kommunikation und Repräsentation sowie Wiederverwendung von Wissen. Die Ontologie wird in der Regel in Form einer Taxonomie dargestellt. Solche Konstrukte ermöglichen es, Struktur in ein heterogenes Umfeld zu bringen. So kann eine allgemeine bereichsübergreifende Ontologie, eine Top-Level Ontology, eine übergeordnete Baustruktur gut abbilden. Potenziell ermöglicht eine Ontologie die Analyse des Domänenwissens auf semantischer Basis, wie Schlussfolgerung, Konsistenzprüfung und gezielte Suche. Die Flexibilität bei der Konfiguration wird durch die regelbasierte Anwendung unterstützt. Darüber hinaus können intelligente Lösungen durch Anwendung verschiedener Baustrategien, die den Prozessablauf optimieren, erzielt werden. Die Prozesse, Ontologien und Regeln können verschiedene Arten von Wissen abbilden und als Kombination eine effiziente, wissensbasierte Prozesskonfiguration ermöglichen. Der Schwerpunkt dieser Arbeit liegt auf dem Schließen der Prozesskonfigurationslücke, in dem eine Kombination aus Prozessen, Prozesskonfiguration, Ontologien und Regeln präsentiert wird. Dabei zählt zu den wichtigsten Beiträgen der Arbeit, Interoperabilität innerhalb des Bauprojekts voran zu bringen, eine unternehmensübergreifende, übergeordnete ontologische Struktur für die effektive Zusammenarbeit in den verteilten Bauumgebungen zu erarbeiten und eine intelligente Prozesskonfiguration und -rekonfiguration zu gewährleisten

    2020

    Get PDF

    Qualitative und quantitative Inhaltsanalyse. Digital und automatisiert. Eine anwendungsorientierte Einführung mit empirischen Beispielen und Softwareanwendungen

    Get PDF
    Das Buch bietet für Einsteiger*innen Erklärungen darüber, wie eine geeignete qualitative oder quantitative inhaltsanalytische Methode abhängig von a) Forschungsinteresse und b) Datenumfang ausgewählt wird. Teil 1 definiert Auswertungstechniken und zeigt Möglichkeiten und Grenzen sozialwissenschaftlicher Inhaltsanalysen auf. Teil 2 stellt digital unterstützte und teilautomatisierte Techniken, Teil 3 die automatisierten Techniken Korrespondenzanalyse, Sentiment Analyse und Topic Modeling vor. Alle Einführungen erfolgen mit Beispielen und Softwareanwendungen (AntConc, MAXQDA, Python, RStudio oder VosViewer). (DIPF/Orig.

    Jahresbericht 2009 der Fakultät für Informatik

    Get PDF
    corecore