25 research outputs found

    Improving Context Recognition In Ubiquitous Computing Environments

    Get PDF
    Ziel dieser Arbeit ist es, kontextverarbeitende Anwendungen einer ubiquitären Informationsumgebung, systematisch umzustrukturieren und zu erweitern, so dass eine signifikante Verbesserung in der Erkennung von Kontexten erreicht werden kann. Dazu wurde das Konzept des systematischen Kontextmanagements eingeführt, das eine neue Schicht innerhalb kontextverarbeitender Systeme bildet. Voraussetzung für effiziente Qualitätssicherungsmechanismen ist eine systematische und formale Ausgestaltung der Repräsentation, Verarbeitung und Kommunikation von Kontexten. Ein solches formales Modell einer ubiquitären Informationsumgebung wurde hier eingeführt. Es bildet die Grundlage des Qualitätsmanagements für Kontexte. Der zentrale Beitrag dieser Arbeit ist ein Qualitätsmanagementsystem für Kontexte auf der Basis von Kontextattributen. Attribute sind dabei allgemeine Eigenschaften von Kontextdaten, welche von der semantischen Bedeutung, die Kontexte für die Anwendungen einer ubiquitären Informationsumgebung haben, unabhängig sind. Das vorgestellte Modell definiert vier solche Attribute: das Kontextalter, die räumliche Herkunft des Kontextes, die Verlässlichkeit der Kontextinformation und die informationelle Abhängigkeit von Kontexten. Für jedes dieser Attribute werden konkrete Algorithmen und Verfahren eingeführt, welche die quantitative Beurteilung der Qualität einer Kontextinformation erlauben. Diese werden innerhalb der neu eingeführten Kontextmanagementschicht in einem Qualitätsfilter umgesetzt. Durch die Filterkomponente erhalten alle Artefakte die Möglichkeit, dynamisch die eingehenden Kontexte auf der Basis ihrer Qualitätsmaße zu filtern und so ihre eigene Dienstqualität zu verbessern. Im Ergebnis konnte, durch das hier vorgestellte Kontextmanagementsystem, eine Verbesserung der Erkennungsrate von Artefakten einer ubiquitären Informationsumgebung um bis zu 48% nachgewiesen werden.The goal of this work was to gain a significant improvement of context recognition rates of applications in ubiquitous computing environments by systematically restructuring and enhancing them. To reach this goal the concept of "Systematic Context Management" was introduced that forms a new processing layer in context sensitive systems. Systematic and formal definitions of context representation, context processing and context communication are required to build efficient quality management mechanisms. Such a formal model of a ubiquitous computing environment is introduced in this thesis. It represents the basis of a quality management system for context data. The central contribution of this work is a quality management system for contexts on basis of Context Attributes. Context Attributes are general attributes of context data that are independent from the semantically meaning of the context for an application in a ubiquitous computing environment. The presented model defines four Context Attributes: context age, spatial origin of contexts, context reliability and informational interdependence of contexts. For each of these attributes concrete algorithms and methods have been developed that allow for the quantitative assessment of context quality. These algorithms and methods are implemented in a quality-filter that is part of the newly introduced context management layer. With this filter component artefacts gain the ability to dynamically filter contexts on basis of their quality allowing for an improvement of the service quality of those artefacts. As a result of this work, it was possible to prove that by the introduction of the context management system developed in this thesis, the context recognition rate of artefacts in a ubiquitous computing environment can be improved by up to 48%

    Entwicklung und prototypische Implementierung einer Methode zur Modellierung mobiler Interaktionsgeräte für intelligente Produktionsumgebungen

    Get PDF
    The dissertation deals with the conception of a design method for modeling mobile interaction devices with special focus upon intelligent production environments. Main result of the thesis represents a method which identifies and describes the necessary model-based tasks for designing mobile interaction devices (mobile input devices, output devices and communication devices). The method consists of a context model-based modeling tool for configuring work situations in intelligent production environments. The modeling tool enables the generation of design recommendations for product developers in the early phases of product development for creating mobile interaction devices

    Method and Technology for Model-based Test Automation of Context-sensitive Mobile Applications

    Get PDF
    Smartphone und Tablet Computer haben sich zu universalen Kommunikations- und Unterhaltungsplattformen entwickelt, die durch ständige Verfügbarkeit mobilen Internets die Verwendung mobiler, digitaler Dienste und Anwendungen immer mehr zur Normalität werden lassen und in alle Bereiche des Alltags vordringen. Die digitalen Marktplätze zum Vertrieb von Apps, sogenannten App Stores, sind Blockbuster-Märkte, in denen wenige erfolgreiche Produkte in kurzen Zeitintervallen den Großteil des Gesamtgewinns des Marktes erzielen. Durch dynamische, summative Bewertungssysteme in App Stores wird die Qualität einer App zu einem unmittelbaren Wert- und Aufwandstreiber. Die Qualität einer App steht in direktem Zusammenhang mit der Anzahl Downloads und somit mit dem wirtschaftlichen Erfolg. Mobile Geräte zeichnen sich gegenüber Desktop-Computern vorrangig dadurch aus, dass sie durch Sensoren in der Lage sind, Parameter ihrer Umgebung zu messen und diese Daten für Anwendungsinhalte aufzubereiten. Anwendungsfälle für solche Technologien sind beispielsweise ortsbasierte digitale Dienste, die Verwendung von Standortinformationen für Fahrzeug- oder Fußgängernavigation oder die Verwendung von Sensoren zur Interaktion mit einer Anwendung oder zur grafischen Aufbereitung in Augmented Reality-Anwendungen. Anwendungen, die Parameter ihrer Umgebung messen, aufbereiten und die Steuerung des Kontrollflusses einfließen lassen, werden als kontextsensitive Anwendungen bezeichnet. Kontextsensitivität hat prägenden Einfluss auf die fachliche und technische Gestaltung mobiler Anwendungen. Die fachliche Interpretation von Kontextparametern ist ein nicht-triviales Problem und erfordert eine sorgfältige Implementierung und gründliches Testen. Herausforderungen des Testens kontextsensitiver, mobiler Anwendungen sind Erstellung und Durchführung von Tests, die zum einen die zu testende Anwendung adäquat abdecken und zum anderen Testdaten bereitstellen und reproduzierbar in die zu testende Anwendung einspeisen. In dieser Dissertation wird eine Methode und eine Technologie vorgestellt, die wesentliche Aspekte und Tätigkeiten des Testens durch modellbasierte Automatisierung von menschlicher Arbeitskraft entkoppelt. Es wird eine Methode vorgestellt, die Tests für kontextsensitive Anwendungen aus UML-Aktivitätsdiagrammen generiert, die durch Verwendung eines UML-Profils zur Kontext- und Testmodellierung um Testdaten angereichert werden. Ein Automatisierungswerkzeug unterstützt die Testdurchführung durch reproduzierbare Simulation von Kontextparametern. Durch eine prototypische Implementierung der Generierung von funktionalen Akzeptanztests, der Testautomatisierung und Kontextsimulation wurde Machbarkeit des vorgestellten Ansatzes am Beispiel der mobilen Plattform Android praktisch nachgewiesen.Smartphones and tablet computers have evolved into universal communication and entertainment platforms. With the ubiquitous availability of mobile internet access, digital services and applications have become a commodity that permeates into all aspects of everyday life. The digital marketplaces for mobile app distribution, commonly referred to as App Stores, are blockbuster markets, where few extraordinarily successful apps generate the major share of the market's overall revenue in a short period of time. Through the implementation of dynamic, summative rating mechanisms in App Stores, app quality becomes a key value-driver of app monetarization, as app quality is directly associated with the number of app downloads, and hence with economic success. In contrast to desktop computers, mobile devices are uniquely characterized by a variety of sensors that measure environmental parameters and make them available as input to software. Potential uses of these technologies range from location-based digital services that use the user's location for vehicle or pedestrian navigation to augmented reality applications that use sensor information for user experience enhancement. Apps instrumenting physical and non-physical environmental parameters to control workflows or user interfaces are called context-aware applications. Context-awareness has a formative impact on the functional and technical design of mobile applications. The algorithmic interpretation of context data is a non-trivial problem that makes thorough implementation and careful testing mandatory to ensure adequate application quality. Major challenges of context-aware mobile application testing are test case creation and test execution. The impact of context-awareness on test case creation is the attainability of adequate test coverage, that in contrast to non-context-aware application extends beyond traditional input data. It requires the identification and characterization of context data sources and the provisioning of suitable, reproducible test data. This thesis addresses a method and technology to decouple test case creation and test execution from manual labor through the extensive use of model-driven automation technology. A method is presented that generates test cases for context-aware mobile applications from UML Activity Models by means of model transformation technology. A test execution framework facilitates the reproducible simulation of context data derived from an enriched system model. The approach is validated using a prototypical implementation of the test case generation algorithm. The simulation of context data during test execution ist validated using a modified implementation of the Android operation system

    Anforderungsgetriebene Qualitätsmodellierung und -auswertung in kompositen Web-Mashups

    Get PDF
    Komposite Web-Mashups stellen durch die intelligente Verknüpfung von User-Interface-Services und anderen Web-Ressourcen einen Mehrwert für Anwendungsszenarien in verschiedenen Situationen des privaten und geschäftlichen Lebens bereit. Obwohl die Verwendung solcher Mashups bereits viele Nutzerzielgruppen erreicht und Anwendungsdomänen erschlossen hat, ist die bedarfsgerechte Auswahl von Anwendungsbausteinen und deren intelligente Komposition immer noch eine große Herausforderung. In dieser Arbeit werden deshalb Konzepte für die verbesserte Durchführung des Erstellungsprozesses und die Nutzung kompositer Web-Mashups entwickelt und vorgestellt. Kernidee ist dabei die Modellierung und Auswertung anpassbarer Qualitätsanforderungen. Erstmals wird es mit Hilfe eines speziell auf die Belange kompositer Web-Mashups zugeschnittenen Modells für Qualitätseigenschaften ermöglicht, solche Anforderungen passgenau für die Auswahl von Anwendungsbausteinen und die automatisierte Auswertung zu nutzen. Neben der Spezifikation von Bedingungen und Vergleichswerten für bestimmte Eigenschaften erlaubt es das ebenfalls hier vorgestellte Metamodell für Qualitätsanforderungen, die Rahmenbedingungen der Auswertung sowie zuzuordnende Aktionen festzulegen. Schwerpunkte der Arbeit sind außerdem der Prozess der qualitätsbewussten Komposition, die Nutzung der resultierenden Web-Mashups sowie die dazu gehörende Referenzarchitektur. Die betrachteten Anwendungsszenarien decken insbesondere die Teilprozesse der Auswahl von Kompositionsfragmenten, die Erweiterung in Betrieb befindlicher Anwendungen sowie die intelligente Adaption innerhalb der Laufzeitplattform ab. Neben Werkzeugen zur Modellierung und der automatisierten Auswertung von Qualitätsanforderungen setzt die Referenzarchitektur das kontextsensitive Monitoring von Qualitätseigenschaften um. Ein weiterer Fokus liegt auf der unscharfen Spezifikation anpassbarer Qualitätsanforderungen, da zur Zielgruppe insbesondere auch Menschen ohne Programmiererfahrung, jedoch mit guter Kenntnis in aktuellen Web-Technologien und in der jeweiligen fachlichen Domäne, zählen. Diese Ausrichtung wird sowohl bei der Modellierung mit Fuzzy-Mengen als auch in Form von Interaktionskonzepten berücksichtigt. Anhand typischer Anwendungsfälle und unter Zuhilfenahme einer implementierten Infrastruktur und Anwendungslandschaft werden die vorgestellten Konzepte validiert und optimiert. Dabei fließen sowohl die Meinungen von Nutzern und Experten als auch die Betrachtungen zur Komplexität ressourcenintensiver Vorgänge sowie die Ergebnisse von Performance-Analysen ein. Durch das Verwenden der Modelle, Konzepte, Prozesse und Architekturen dieser Arbeit wird somit eine verbesserte Erstellung, Verfeinerung und Nutzung bedarfsgerechter, situativer Mashup-Anwendungen mit Hilfe anpassbarer Qualitätsanforderungen ermöglicht.:Kapitel 1 Motivation und Zielstellung Abschnitt 1.1 Problemdefinition Abschnitt 1.2 Forschungsthesen Abschnitt 1.3 Forschungsziele Abschnitt 1.4 Abgrenzung Abschnitt 1.5 Aufbau der Arbeit Kapitel 2 Grundlagen der Entwicklung und Nutzung kompositer Web-Mashups Abschnitt 2.1 Charakteristika und Einordnung des Anwendungstyps Abschnitt 2.2 Entwicklungsmethoden und Anwendungsszenarien Abschnitt 2.3 Rollen im Entwicklungsprozess von Web-Mashups Abschnitt 2.4 Qualitätseigenschaften und -anforderungen im Kontext von Web-Mashups Kapitel 3 Stand der Forschung und Technik Abschnitt 3.1 Normen und Standards für Qualitätsmodelle bei Softwareprodukten Abschnitt 3.2 Strukturierung und Erstellung von Qualitätsmodellen Abschnitt 3.3 Anforderungsmodellierung mit Aufgaben und Fuzzy-Mengen Abschnitt 3.4 Bewertungskriterien und Übersicht der Cluster für existierende Arbeiten Abschnitt 3.5 Qualität in Web-Mashups Abschnitt 3.6 Qualitätsanforderungen im Web-Engineering Abschnitt 3.7 Qualitätseigenschaften und -anforderungen bei der Auswahl und Komposition von Web-Services Abschnitt 3.8 Qualitätsanforderungen in kompositen Softwaresystemen Abschnitt 3.9 Fazit zum Stand der Forschung und Technik Kapitel 4 Modellierung von Qualitätseigenschaften für Mashups Abschnitt 4.1 Modellüberblick und Abhängigkeiten Abschnitt 4.2 Anforderungen an das Eigenschaftsmodell Abschnitt 4.3 Metamodell zur Strukturierung von Qualitätseigenschaften Abschnitt 4.4 Unscharfe Eigenschaftswerte mit Fuzzy-Mengen Abschnitt 4.5 Nutzung von Qualitätseigenschaften in der Mashup-Plattform Abschnitt 4.6 Referenzmodell der für Mashups typischen Qualitätseigenschaften Abschnitt 4.7 Zusammenfassung und Bewertung des Modells für Qualitätseigenschaften Kapitel 5 Festlegen und Auswerten von Qualitätsanforderungen Abschnitt 5.1 Herausforderungen im Umgang mit Anforderungen Abschnitt 5.2 Qualitätsanforderungen in der Mashup-Architektur Abschnitt 5.3 Aufbau von Qualitätsanforderungen Abschnitt 5.4 Erzeugen und Bearbeiten von Qualitätsanforderungen Abschnitt 5.5 Auswertung von Qualitätsanforderungen Abschnitt 5.6 Zusammenfassung Kapitel 6 Qualitätsbewusster Entwicklungs- und Nutzungsprozess Abschnitt 6.1 Entwicklung und Nutzung von Web-Mashups mit Qualitätsanforderungen Abschnitt 6.2 Aktionen im Kontext von Qualitätsanforderungen Kapitel 7 Validierung und Implementierung Abschnitt 7.1 Validierungsmethodik Abschnitt 7.2 Überblick der implementierten Infrastruktur Abschnitt 7.3 Implementierung von Kompositionsfragmenten Abschnitt 7.4 Implementierung der Referenzarchitektur Abschnitt 7.5 Implementierung der Werkzeuge Abschnitt 7.6 Nutzerstudie zum Anforderungsassistenten Abschnitt 7.7 Validierungsergebnisse zu Performance und Awareness-Indikatoren Abschnitt 7.8 Diskussion zur Validierung und Implementierung Kapitel 8 Zusammenfassung, Diskussion, Bewertung und Ausblick Abschnitt 8.1 Zusammenfassung der Kapitel Abschnitt 8.2 Diskussion und Bewertung der Forschungsergebnisse Abschnitt 8.3 Ausblick auf aktuelle und künftige Arbeiten Anhang A Metamodelle und Schemata Anhang B Referenzmodelle Anhang C Komponentenimplementierungen Anhang D Werkzeuge Anhang E Dienste, Verwaltung und Test

    Anforderungsbasierte Modellierung und AusfĂĽhrung von Datenflussmodellen

    Get PDF
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert

    Coherence check of behavioural specifications against specific properties of the operational context

    Get PDF
    In der Anforderungsspezifikation eines Systems werden Eigenschaften definiert, die das System an seiner Schnittstelle zur Umgebung aufweisen muss, um im Betrieb seinen Zweck zu erfüllen. Eine Vielzahl von Untersuchungen zeigt, dass Fehler in der Anforderungsspezifikation zu erheblichen negativen Konsequenzen sowohl im Entwicklungsprozess des Systems als auch im Systembetrieb führen können. Fehler in der Anforderungsspezifikation sind dabei oftmals auf Kohärenzbrüche gegenüber dem operationellen Kontext zurückzuführen, d. h. auf ungültige oder unvollständige Annahmen über die Umgebung, in der das System betrieben werden soll. Im Rahmen des Dissertationsvorhabens wurde ein teilautomatisierter Ansatz entwickelt, der darauf abzielt, Kohärenzbrüche in der Anforderungsspezifikation von Systemen gegenüber dem operationellen Kontexts dieser Systeme aufzudecken. Die Arbeit fokussiert dabei auf die Verhaltensspezifikation als Teil der Anforderungsspezifikation sowie auf Eigenschaften des operationellen Kontexts in der statisch-strukturellen Perspektive. Der entwickelte Ansatz setzt sich aus einem Rahmenwerk zur Modellierung des operationellen Kontexts in der statisch-strukturellen Perspektive und einem Katalog von Formalismen zusammen, durch deren Anwendung Kohärenzbrüche in der Verhaltensspezifikation teilautomatisiert aufgedeckt werden können. Zur Evaluation des Ansatzes wurde dieser exemplarisch auf die Verhaltensspezifikation eines von Komplexität und Umfang her praxistypischen Systems angewendet. Zum Nachweis der technischen Umsetzbarkeit des Ansatzes wird ein Werkzeugprototyp vorgestellt. Der entwickelte Ansatz liefert einen Beitrag im Hinblick auf Techniken zur differenzierten Modellierung des operationellen Kontexts von Systemen in der statisch-strukturellen Perspektive und zur teilautomatisierten analytischen Qualitätssicherung von Anforderungsspezifikationen.The requirements specification of a system contains the definition of properties the system must exhibit at its interfaces with the environment in order to meet its purpose during system operation. There is ample evidence in the literature that suggests that errors in the requirements specification may lead to serious negative consequences during the development process of the system as well as subsequently, during system operation. Errors in the requirements specification can often be traced back to the fact that the specification is not coherent with the operational context due to invalid or incomplete assumptions about the system’s operating environment. In the context of this dissertation, a semi-automated approach was developed, aiming at detecting coherence defects within a system’s requirements specification against its operational context. The focus of this thesis lies on the specification of the system’s behaviour as part of the requirements specification and on properties of the operational context in the structural perspective. An approach has been developed that consists of a framework for modelling the operational context in the structural perspective. Furthermore, a list of formalisms has been devised, which allow detecting coherence defects in the specification of the system’s behaviour in a partially automated way. For validation purposes, the approach was exemplarily applied to the specification of a system that renders a typical real-world example with regard to complexity and extent. To prove the technical feasibility of the approach, a tool prototype is presented. The dissertation provides a contribution with regard to techniques for modelling the operational context of systems in the structural perspective as well as for the partially automated, analytic quality assurance of requirements specification

    Assistierte Ad-hoc-Entwicklung von kompositen Webanwendungen durch Nicht-Programmierer

    Get PDF
    Mit der steigenden Verfügbarkeit komponenten- und serviceorientiert bereitgestellter Ressourcen und Dienstleistungen entwickelt sich das Web zu einer geeigneten Plattform für vielfältige Anwendungsszenarien. Darauf aufbauend entstehen komposite Webanwendungen durch das Rekombinieren und Verknüpfen vorhandener Bausteine. Auf diese Weise kann ein funktionaler Mehrwert zur Lösung situationsspezifischer Problemstellungen erzielt werden. Zunehmend wird angestrebt, dass Endnutzer selbst als Anwendungsentwickler in Erscheinung treten. Dieses Prinzip, das End-User-Development, ist ökonomisch lukrativ, da Nischenanforderungen effizienter erfüllt werden können. Allerdings stehen dabei insbesondere Domänenexperten ohne Programmiererkenntnisse noch immer vor substantiellen Herausforderungen, wie der bedarfsgerechten Auswahl von Bausteinen und deren korrekten Komposition. Diese Dissertation stellt daher neue Methoden und Werkzeuge für das assistierte End-User-Development von kompositen Webanwendungen vor. Im Ergebnis entsteht das ganzheitliche Konzept einer Kompositionsplattform, die Nicht-Programmierer in die Lage versetzt, eigenständig Anwendungen bedarfsgerecht zu entwickeln und einzusetzen. Als zentrales Element existiert ein hochiteratives Vorgehensmodell, bei dem die Entwicklung und die Nutzung kompositer Webanwendungen weitgehend verschmelzen. Ein wesentliches Merkmal des Ansatzes ist, dass aus Nutzersicht sämtliche Aktivitäten auf fachlicher Ebene stattfinden, während die Kompositionsplattform die technische Umsetzung übernimmt und vor den Nutzern verbirgt. Grundlage hierfür sind Konzepte zur universellen Komposition und eine umfassende Modellbasis. Letztere umfasst semantikbasierte Beschreibungen von Komponenten sowie Kompositionsfragmenten und von deren Funktionalitäten (Capabilities). Weiterhin wird statistisches und semantisches Kompositionswissen sowie Nutzerfeedback modelliert. Darauf aufbauend werden neue, anwendungsunabhängige Mechanismen konzipiert. Hierzu zählt ein Empfehlungssystem, das prozessbegleitend Kompositionsschritte vorschlägt und das erstmals mit Empfehlungsstrategien in hohem Maße an seinen Einsatzkontext angepasst werden kann. Weiterhin sieht der Ansatz semantikbasierte Datenmediation und einen Algorithmus vor, der die Capabilities von Kompositionsfragmenten abschätzt. Diese Konzepte dienen schließlich als Basis für eine in sich zusammenhängende Werkzeugpalette, welche die Aktivitäten des Vorgehensmodells durchgehend unterstützt. Zum Beispiel assistiert ein Wizard Nicht-Programmierern bei der anforderungsgetriebenen Identifikation passender Kompositionsfragmente. Weitere konzipierte Hilfsmittel erlauben es Nutzern, Anwendungen live zu komponieren sowie anzupassen und deren Funktionsweise nachzuvollziehen bzw. zu untersuchen. Die Werkzeuge basieren maßgeblich auf Capabilities zur fachlichen Kommunikation mit Nutzern, als Kompositionsmetapher, zur Erklärung funktionaler Zusammenhänge und zur Erfassung von Nutzeranforderungen. Die Kernkonzepte wurden durch prototypische Implementierungen und praktische Erprobung in verschiedenen Anwendungsdomänen validiert. Zudem findet die Evaluation von Ansätzen durch Performanz-Messungen, Expertenbefragung und Nutzerstudien statt. Insgesamt zeigen die Ergebnisse, dass die Konzepte für die Zielgruppe nützlich sind und als tragfähig angesehen werden können.:1 Einleitung 1.1 Analyse von Herausforderungen und Problemen 1.1.1 Zielgruppendefinition 1.1.2 Problemanalyse 1.2 Thesen, Ziele, Abgrenzung 1.2.1 Forschungsthesen 1.2.2 Forschungsziele 1.2.3 Annahmen und Abgrenzungen 1.3 Aufbau der Arbeit 2 Grundlagen und Anforderungsanalyse 2.1 CRUISE – Architektur und Modelle 2.1.1 Komponentenmetamodell 2.1.2 Kompositionsmodell 2.1.3 Architekturüberblick 2.1.4 Fazit 2.2 Referenzszenarien 2.2.1 Ad-hoc-Erstellung einer CWA zur Konferenzplanung 2.2.2 Geführte Recherche nach einer CWA 2.2.3 Unterstützte Nutzung einer CWA 2.3 Anforderungen 3 Stand von Forschung und Technik 3.1 Kompositionsplattformen für EUD 3.1.1 Webservice-Komposition durch Endnutzer 3.1.2 Mashup-Komposition durch Endnutzer 3.1.3 Fazit 3.2 Empfehlungssysteme im Mashupkontext 3.2.1 Empfehlungsansätze in Kompositionsplattformen 3.2.2 Nutzerfeedback in Empfehlungssystemen 3.2.3 Fazit 3.3 Eingabe funktionaler Anforderungen 3.3.1 Textuelle Ansätze 3.3.2 Graphische Anfrageformulierung 3.3.3 Hierarchische und facettierte Suche 3.3.4 Assistenten und dialogbasierte Ansätze 3.3.5 Fazit 3.4 Ansätze zur Datenmediation 3.4.1 Ontology Mediation 3.4.2 Vertreter aus dem Bereich (Semantic) Web Services 3.4.3 Datenmediation in Mashup-Plattformen 3.4.4 Fazit 3.5 Fazit zum Stand von Forschung und Technik 4 Assistiertes EUD von CWA durch Nicht-Programmierer 4.1 Assistiertes EUD von Mashups 4.1.1 Modellebene 4.1.2 Basismechanismen 4.1.3 Werkzeuge 4.2 Grobarchitektur 5 Basiskonzepte 5.1 Grundlegende Modelle 5.1.1 Capability-Metamodell 5.1.2 Erweiterungen von Komponentenmodell und SMCDL 5.1.3 Nutzer- und Kontextmodell 5.1.4 Metamodell für kontextualisiertes Feedback 5.2 Semantische Datenmediation 5.2.1 Vorbetrachtungen und Definitionen 5.2.2 Techniken zur semantischen Datenmediation 5.2.3 Architektonische Implikationen und Abläufe 5.3 Ableiten von Capabilities 5.3.1 Anforderungen und verwandte Ansätze 5.3.2 Definitionen und Grundlagen 5.3.3 Übersicht über den Algorithmus 5.3.4 Detaillierter Ablauf 5.3.5 Architekturüberblick 5.4 Erzeugung eines Capability-Wissensgraphen 5.4.1 Struktur des Wissensgraphen 5.4.2 Instanziierung des Wissensgraphen 5.5 Zusammenfassung 6 Empfehlungssystem 6.1 Gesamtansatz im Überblick 6.2 Empfehlungssystemspezifische Metamodelle 6.2.1 Trigger-Metamodell 6.2.2 Pattern-Metamodell 6.3 Architektur und Abläufe des Empfehlungssystems 6.3.1 Ableitung von Pattern-Instanzen 6.3.2 Empfehlungsgründe identifizieren durch Trigger 6.3.3 Empfehlungen berechnen 6.3.4 Präsentation von Empfehlungen 6.3.5 Integration von Patterns 6.4 Zusammenfassung 7 Methoden zur Nutzerführung 7.1 Der Startbildschirm als zentraler Einstiegspunkt 7.2 Live-View 7.3 Capability-View 7.3.1 Interaktive Exploration von Capabilities 7.3.2 Kontextsensitive Erzeugung von Beschriftungen 7.3.3 Verknüpfen von Capabilities 7.3.4 Handhabung von Komponenten ohne UI 7.4 Wizard zur Eingabe funktionaler Anforderungen 7.5 Erklärungstechniken 7.5.1 Anforderungen und verwandte Ansätze 7.5.2 Kernkonzepte 7.5.3 Assistenzwerkzeuge 8 Implementierung und Evaluation 8.1 Umsetzung der Modelle und der Basisarchitektur 8.2 Realisierung der Mediationskonzepte 8.2.1 Erweiterung des Kompositionsmodells 8.2.2 Implementierung des Mediators 8.2.3 Evaluation und Diskussion 8.3 Algorithmus zur Abschätzung von Capabilities 8.3.1 Prototypische Umsetzung 8.3.2 Experten-Evaluation 8.4 Umsetzung des Empfehlungskreislaufes 8.4.1 Performanzbetrachtungen 8.4.2 Evaluation und Diskussion 8.5 Evaluation von EUD-Werkzeugen 8.5.1 Evaluation der Capability-View 8.5.2 Prototyp und Nutzerstudie des Wizards 8.5.3 Prototyp und Nutzerstudie zu den Erklärungstechniken 8.6 Fazit 9 Zusammenfassung, Diskussion und Ausblick 9.1 Zusammenfassung und Beiträge der Kapitel 9.2 Einschätzung der Ergebnisse 9.2.1 Diskussion der Erreichung der Forschungsziele 9.2.2 Diskussion der Forschungsthesen 9.2.3 Wissenschaftliche Beiträge 9.2.4 Grenzen der geschaffenen Konzepte 9.3 Laufende und weiterführende Arbeiten A Anhänge A.1 Richtlinien für die Annotation von Komponenten A.2 Fragebogen zur System Usability Scale A.3 Illustration von Mediationstechniken A.4 Komponentenbeschreibung in SMCDL (Beispiel) A.5 Beispiele zu Algorithmen A.5.1 Berechnung einer bestimmenden Entity A.5.2 Berechnung der Ähnlichkeit atomarer Capabilities A.6 Bewertung verwandter Ansätze Literaturverzeichnis Webreferenze

    Management von Prozessvarianten

    Get PDF
    Die fachliche Modellierung von Geschäftsprozessen und deren Ausführung mittels Workflow-Management-Systemen bilden zentrale Aufgaben bei der Realisierung prozessorientierter Informationssysteme. In der Praxis hat sich gezeigt, dass ein Prozess oftmals in zahlreichen Varianten auftritt, die Anpassungen an bestimmte Rahmenbedingungen (z.B. Domäne, landesspezifische Gesetze) darstellen. Die adäquate Modellierung und Ausführung solcher Prozessvarianten stellt eine große Herausforderung dar, der heutige Geschäftsprozessmodellierungswerkzeuge und Workflow-Management-Systeme nicht gerecht werden. Existierende Werkzeuge ermöglichen lediglich das Ausmodellieren aller Prozessvarianten in separaten Prozessmodellen, was in einem hohen Anpassungs- und Wartungsaufwand resultiert: Werden Prozessanpassungen erforderlich, sind meist mehrere Varianten betroen und deshalb mehrere Prozessmodelle zu adaptieren. Dies wiederum führt schnell zu Inkonsistenzen und mit der Zeit zu degenerierten Prozessmodellen. Um dies zu vermeiden, existiert in der Praxis ein zweiter verbreiteter Ansatz für das Management von Prozessvarianten: Alle Varianten werden in einem „großen“ Prozessmodell abgebildet. Sie sind somit innerhalb der Prozesslogik versteckt. Dieser Ansatz führt zwar zu weniger Redundanz, allerdings entstehen dadurch sehr komplexe und unübersichtliche Modelle, so dass bei großer Zahl von Varianten eine effektive Handhabbarkeit nicht mehr möglich ist. Typischerweise ist eine bestimmte Prozessvariante nur für gewisse Rahmenbedingungen relevant, d.h. sie genügt einem spezifischen Anwendungsfall. Die Informationen über den spezifischen Anwendungskontext einer Variante können bislang nicht in die entsprechenden Prozessmodelle integriert werden. Darüber hinaus ist eine Auswertung dieser Informationen, z.B. zur automatischen Konfiguration von Prozessvarianten, nicht möglich, geschweige denn eine dynamische Reaktion auf Änderungen des Anwendungskontextes zur Laufzeit einer Prozessvariante. Die vorliegende Arbeit stellt mit Provop (Prozessvarianten mittels Optionen) einen Lösungsansatz zur Handhabung von Prozessvarianten dar, der es erlaubt, ausgehend von einem sog. Basisprozessmodell, alle Varianten eines Prozesstyps abzuleiten. Dazu transformieren verschieden Änderungsoperationen das Basisprozessmodell sukzessiv zu einem Variantenmodell. Dabei berücksichtigt Provop den spezifischen Anwendungskontext einer Prozessvariante, um zu bestimmen, welche der modellierten Änderungsoperationen auf das Basisprozessmodell anzuwenden sind. Mit Hilfe von Auswahlbeschränkungen kann gewährleistet werden, dass nur solche Änderungsoperationen gemeinsam angewendet werden, die auch strukturell und semantisch kompatibel sind. Dem Problem nicht-kommutativer Änderungsoperationen bei der Konfiguration einer Prozessvariante begegnet Provop durch die Vorgabe einer eindeutigen Anwendungsreihenfolge. Dazu werden die Modellierungsreihenfolge sowie explizite Reihenfolgebeziehungen zwischen den Änderungsoperationen betrachtet. Darüber hinaus wird gewährleistet, dass die Menge aller konfigurierbaren Prozessvarianten den Korrektheitskriterien des zugrundeliegenden Prozess-Metamodells genügt. Für eine flexible Ausführung von Prozessinstanzen ermöglicht es Provop, zur Laufzeit auf Änderungen des Anwendungskontextes zu reagieren. Dabei stellen wir sicher, dass nur solche Variantenmodelle zur Ausführung kommen bzw. nur dann dynamische Wechsel zwischen Variantenmodellen zur Laufzeit zulässig sind, wenn dadurch die korrekte und stabile Ausführbarkeit der jeweiligen Prozessinstanz nicht beeinträchtigt wird. Das heißt, es können zur Laufzeit keine Ausführungsfehler aufgrund inkorrekter Prozessmodelle auftreten. Provop unterstützt das Refactoring von Basisprozessmodell und Änderungsoperationen, ohne die Ausführungssemantik der Prozessvarianten zu beeinflussen. Dabei werden sowohl der spezifische Anwendungskontext als auch definierte Auswahlbeschränkungen zwischen Änderungsoperationen berücksichtigt. Mit Hilfe eines Refactorings können Pflege- und Wartungsaufwände für das Management von Prozessvarianten reduziert werden. Die Ansätze von Provop werden in einem Prototypen realisiert und anhand mehrerer Fallstudien praktisch validiert

    Modellgetriebene Entwicklung adaptiver, komponentenbasierter Mashup-Anwendungen

    Get PDF
    Mit dem Wandel des Internets zu einer universellen Softwareplattform sind die Möglichkeiten und Fähigkeiten von Webanwendungen zwar rasant gestiegen. Gleichzeitig gestaltet sich ihre Entwicklung jedoch zunehmend aufwändig und komplex, was dem Wunsch nach immer kürzeren Entwicklungszyklen für möglichst situative, bedarfsgerechte Lösungen entgegensteht. Bestehende Ansätze aus Forschung und Technik, insbesondere im Umfeld der serviceorientierten Architekturen und Mashups, werden diesen Problemen bislang nicht ausreichend gerecht. Deshalb werden in dieser Dissertation neue Konzepte für die modellgetriebene Entwicklung und Bereitstellung von Webanwendungen vorgestellt. Die zugrunde liegende Idee besteht darin, das Paradigma der Serviceorientierung auf die Präsentationsebene zu erweitern. So sollen erstmals – neben Daten- und Geschäftslogik – auch Teile der Anwendungsoberfläche in Form wiederverwendbarer Komponenten über Dienste bereitgestellt werden. Anwendungen sollen somit über alle Anwendungsebenen hinweg nach einheitlichen Prinzipien „komponiert“ werden können. Den ersten Schwerpunkt der Arbeit bilden die entsprechenden universellen Modellierungskonzepte für Komponenten und Kompositionen. Sie erlauben u. a. die plattformunabhängige Beschreibung von Anwendungen als Komposition der o. g. Komponenten. Durch die Abstraktion und entsprechende Autorenwerkzeuge wird die Entwicklung so auch für Domänenexperten bzw. Nicht-Programmierer möglich. Der zweite Schwerpunkt liegt auf dem kontextadaptiven Integrationsprozess von Komponenten und der zugehörigen, serviceorientierten Referenzarchitektur. Sie ermöglichen die dynamische Suche, Bindung und Konfiguration von Komponenten, d. h. auf Basis der o. g. Abstraktionen können genau die Anwendungskomponenten geladen und ausgeführt werden, die für den vorliegenden Nutzer-, Nutzungs- und Endgerätekontext am geeignetsten sind. Der dritte Schwerpunkt adressiert die Kontextadaptivität der kompositen Anwendungen in Form von Konzepten zur aspektorientierten Definition von adaptivem Verhalten im Modell und dessen Umsetzung zur Laufzeit. In Abhängigkeit von Kontextänderungen können so Rekonfigurationen von Komponenten, ihr Austausch oder Veränderungen an der Komposition, z.B. am Layout oder dem Datenfluss, automatisch durchgesetzt werden. Alle vorgestellten Konzepte wurden durch prototypische Implementierungen praktisch untermauert. Anhand diverser Anwendungsbeispiele konnten ihre Validität und Praktikabilität – von der Modellierung im Autorenwerkzeug bis zur Ausführung und dynamischen Anpassung – nachgewiesen werden. Die vorliegende Dissertation liefert folglich eine Antwort auf die Frage, wie zukünftige Web- bzw. Mashup-Anwendungen zeit- und kostengünstig entwickelt sowie zuverlässig und performant ausgeführt werden können. Die geschaffenen Konzepte bilden gleichermaßen die Grundlage für eine Vielzahl an Folgearbeiten.:Verzeichnisse vi Abbildungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii Verzeichnis der Codebeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . ix Abkürzungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x 1 Einleitung 1 1.1 Problemdefinition, Thesen und Forschungsziele . . . . . . . . . . . . . . 3 1.1.1 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.2 Thesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.3 Forschungsziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2 Abgrenzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.3 Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2 Grundlagen, Szenarien und Herausforderungen 12 2.1 Grundlagen und Begriffsklärung . . . . . . . . . . . . . . . . . . . . . . . 13 2.1.1 Komposite und serviceorientierte Webanwendungen . . . . . . . 13 2.1.2 Mashups . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1.3 Modellgetriebene Software-Entwicklung . . . . . . . . . . . . . . 17 2.1.4 Kontext und kontextadaptive Webanwendungen . . . . . . . . . 18 2.2 Szenarien und Problemanalyse . . . . . . . . . . . . . . . . . . . . . . . 20 2.2.1 Dienstkomposition zur Reiseplanung . . . . . . . . . . . . . . . . . 20 2.2.2 Interaktive Aktienverwaltung . . . . . . . . . . . . . . . . . . . . . 22 2.2.3 Adaptive Touristeninformation . . . . . . . . . . . . . . . . . . . . 23 2.3 Anforderungen und Kriterien der Analyse . . . . . . . . . . . . . . . . . . 25 2.3.1 Anforderungen an Komponenten- und Kompositionsmodell . . . 25 2.3.2 Anforderungen an die Laufzeitumgebung . . . . . . . . . . . . . 27 3 Stand der Forschung und Technik 30 3.1 SOA und Dienstkomposition zur Interaktion mit Diensten . . . . . . . . . 31 3.1.1 Statische Dienstkomposition . . . . . . . . . . . . . . . . . . . . . . 32 3.1.2 Dynamische Dienstauswahl und -Komposition . . . . . . . . . . . 33 3.1.3 Adaptionskonzepte für Dienstkompositionen . . . . . . . . . . . . 45 3.1.4 Interaktions- und UI-Konzepte für Dienstkompositionen . . . . . . 48 3.2 Web Engineering - Entwicklung interaktiver adaptiver Webanwendungen 50 3.2.1 Entwicklung von Hypertext- und Hypermedia-Anwendungen . . 51 3.2.2 Entwicklung von Mashup-Anwendungen . . . . . . . . . . . . . . 54 3.3 Zusammenfassung und Diskussion der Defizite existierender Ansätze . . 67 3.3.1 Probleme und Defizite aus dem Bereich der Dienstkomposition . 67 3.3.2 Probleme und Defizite beim Web- und Mashup-Engineering . . . 69 4 Universelle Komposition adaptiver Webanwendungen 73 4.1 Grundkonzept und Rollenmodell . . . . . . . . . . . . . . . . . . . . . . 74 4.2 Modellgetriebene Entwicklung kompositer Mashups . . . . . . . . . . . 75 4.2.1 Universelles Komponentenmodell . . . . . . . . . . . . . . . . . . 76 4.2.2 Belangorientiertes Kompositionsmodell . . . . . . . . . . . . . . . 76 4.3 Dynamische Integration und Laufzeitumgebung . . . . . . . . . . . . . 78 4.3.1 Kontextsensitiver Integrationsprozess für Mashup-Komponenten . 79 4.3.2 Referenzarchitektur zur Komposition und Ausführung . . . . . . . 80 4.3.3 Unterstützung von adaptivem Laufzeitverhalten in Mashups . . . 81 5 Belangorientierte Modellierung adaptiver, kompositer Webanwendungen 83 5.1 Ein universelles Komponentenmodell für Mashup-Anwendungen . . . . 84 5.1.1 Grundlegende Eigenschaften und Prinzipien . . . . . . . . . . . . 84 5.1.2 Komponententypen . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.1.3 Beschreibung von Komponenten . . . . . . . . . . . . . . . . . . 87 5.1.4 Nutzung der Konzepte zur Komponentenentwicklung . . . . . . . 99 5.2 Ein belangorientiertes Metamodell für interaktive Mashup-Anwendungen 100 5.2.1 Conceptual Model – Modellierung der Anwendungskonzepte . . 102 5.2.2 Communication Model – Spezifikation von Daten- und Kontrollfluss 107 5.2.3 Layout Model – Visuelle Anordnung von UI-Komponenten . . . . 114 5.2.4 Screenflow Model – Definition von Navigation und Sichten . . . . 115 5.3 Modellierung von adaptivem Verhalten . . . . . . . . . . . . . . . . . . 117 5.3.1 Adaptionstechniken für komposite Webanwendungen . . . . . . 117 5.3.2 Adaptivity Model – Modellierung von Laufzeitadaptivität . . . . . 119 5.4 Ablauf und Unterstützung bei der Modellierung . . . . . . . . . . . . . . 126 5.5 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . 128 6 Kontextsensitiver Integrationsprozess und Kompositionsinfrastruktur 132 6.1 Ein kontextsensitiver Integrationsprozess zur dynamischen Bindung von Mashup-Komponenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 6.1.1 Modellinterpretation oder -transformation . . . . . . . . . . . . . . 134 6.1.2 Suche und Matching . . . . . . . . . . . . . . . . . . . . . . . . . 135 6.1.3 Rangfolgebildung . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 6.1.4 Auswahl und Integration . . . . . . . . . . . . . . . . . . . . . . . . 145 6.2 Kompositionsinfrastruktur und Laufzeitumgebung . . . . . . . . . . . . . 146 6.2.1 Verwaltung von Komponenten und Domänenwissen . . . . . . . 146 6.2.2 Aufbau der Laufzeitumgebung (MRE) . . . . . . . . . . . . . . . . 148 6.2.3 Dynamische Integration und Verwaltung von Komponenten . . . 151 6.2.4 Kommunikationsinfrastruktur und Mediation . . . . . . . . . . . . . 155 6.3 Unterstützung von Adaption zur Laufzeit . . . . . . . . . . . . . . . . . . 162 6.3.1 Kontexterfassung, -modellierung und -verwaltung . . . . . . . . . 163 6.3.2 Ablauf der dynamischen Adaption . . . . . . . . . . . . . . . . . 168 6.3.3 Dynamischer Austausch von Komponenten . . . . . . . . . . . . 170 6.4 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . 174 7 Umsetzung und Validierung der Konzepte 178 7.1 Realisierung der Modellierungsmittel . . . . . . . . . . . . . . . . . . . . 179 7.1.1 Komponentenbeschreibung in XML und OWL . . . . . . . . . . . 179 7.1.2 EMF-basiertes Kompositionsmodell . . . . . . . . . . . . . . . . . . 180 7.1.3 Modelltransformationen . . . . . . . . . . . . . . . . . . . . . . . . 182 7.1.4 Modellierungswerkzeug . . . . . . . . . . . . . . . . . . . . . . . . 183 7.2 Realisierung der Kompositions- und Laufzeitumgebung . . . . . . . . . . 185 7.2.1 Semantische Verwaltung und Discovery . . . . . . . . . . . . . . 185 7.2.2 Kompositions- bzw. Laufzeitumgebungen . . . . . . . . . . . . . . 192 7.2.3 Kontextverwaltung und Adaptionsmechanismen . . . . . . . . . 201 7.3 Validierung und Diskussion anhand der Beispielszenarien . . . . . . . . . 210 7.3.1 Reiseplanung mit TravelMash . . . . . . . . . . . . . . . . . . . . . 211 7.3.2 Aktienverwaltung mit StockMash . . . . . . . . . . . . . . . . . . . 214 7.3.3 Adaptive Touristeninformation mit TravelGuide . . . . . . . . . . . 216 7.3.4 Weitere Prototypen . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 7.4 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . 219 8 Zusammenfassung, Diskussion und Ausblick 226 8.1 Zusammenfassung der Kapitel und ihrer Beiträge . . . . . . . . . . . . . 227 8.2 Diskussion und Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . 231 8.2.1 Wissenschaftliche Beiträge . . . . . . . . . . . . . . . . . . . . . . 231 8.2.2 Einschränkungen und Grenzen . . . . . . . . . . . . . . . . . . . . 236 8.3 Laufende und zukünftige Arbeiten . . . . . . . . . . . . . . . . . . . . . 238 Anhänge 242 A.1 Komponentenbeschreibung in SMCDL . . . . . . . . . . . . . . . . . . . 242 A.2 Komponentenmodell in Form der MCDO . . . . . . . . . . . . . . . . . . 243 A.3 Kompositionsmodell in EMF . . . . . . . . . . . . . . . . . . . . . . . . . . 244 Verzeichnis eigener Publikationen 246 Webreferenzen 249 Literaturverzeichnis 25

    Situationsbewusste Informationsdienste fĂĽr das arbeitsbegleitende Lernen

    Get PDF
    Zunehmend werden Lernen und Arbeiten als miteinander verwobene Aktivitäten verstanden, was von existierenden Ansätzen nur unzureichend unterstützt wird, da sie kaum die Arbeitssituation berücksichtigen, in der sie benutzt werden. In dieser Arbeit geht es darum, eine Methodik für die Lernunterstützung zu erarbeiten und auf technischer Ebene situationsbewusste Informationsdienste mittels Kompetenzontologien und Kontextmanagement zu konzipieren und in realen Unternehmensumgebungen zu evaluieren
    corecore