10 research outputs found

    Bio-Datenbanken

    Get PDF
    Schwerpunktthemen: Integrationsprobleme und Ansätze bei Bio-DB, Gleichheit und Ähnlichkeit, Ähnlichkeitsmaße Topics: Problems, Integration, Similarit

    Automatisierte Erzeugung personalisierter ad-hoc-Karten in einem Service-basierten GIS (Mapping on Demand)

    Get PDF
    In den letzten Jahren wurden mehr und mehr raumbezogene Daten über das World Wide Web zur Verfügung gestellt. Karten und Luftbilder bekannter Anwendungen (z.B. Google Maps) lassen sich direkt nutzen oder mit Daten anderer Angebote verknüpfen und in ihrem Informationsgehalt erweitern. Ein Nutzer hat so die Möglichkeit, unabhängig von Ort und Zeit, zu einer aktuellen Fragestellung beliebige Daten zu integrieren und eigene Karten zu erstellen (Mapping on demand). Benötigte Daten werden zunehmend im Zusammenhang mit Diensten - Funktionen, die den Zugriff auf Daten und deren sachgerechte Verwendung unterstützen - zur Verfügung gestellt. Dies entspricht dem allgemeinen Trend des Internets hin zu einer Service-orientierten Architektur; deren Implementierung durch Web Services löst Daten aus dem Kontext spezifischer Anwendungen und macht sie über definierte Schnittstellen verfügbar. Herausforderung in einer Service-orientierten Architektur ist zunächst, dass die genutzten Daten weltweit verteilt sind, zu verschiedensten Zwecken erhoben wurden und in unterschiedlichen Formaten vorliegen. Diese Heterogenität wird durch den Einsatz standardisierter Dienste und Formate überwunden. In der vorliegenden Arbeit wird gezeigt, dass im World Wide Web Technologien verfügbar sind, die das notwendige Potential für ein Mapping on demand besitzen. Beim Auffinden geeigneter Dienste und der Nutzung verfügbarer Technologien wird ein Nutzer durch Webportale unterstützt. Diese bündeln Dienste, machen sie strukturiert zugänglich und ermöglichen die Erschließung durch geeignete Werkzeuge. Eine konkrete Umsetzung von Webportalen wird in dieser Arbeit anhand dreier Beispiele aus dem Bereich der Freizeitplanung gezeigt. Für das Mapping on demand ist von Bedeutung, dass Daten verfügbarer Dienste nicht nur als fertige Karten vorliegen, sondern auch als Kartenbausteine in Form raumbezogener Objekte oder thematischer Layer. Bei der Integration der graphischen Ausgaben dieser Dienste wird offensichtlich, dass die graphische Repräsentation, die jedes Angebot von sich aus mitbringt, isoliert von anderen Angeboten festgelegt ist. Die Kombination beliebiger Quellen führt damit häufig zu Darstellungen, die schon den Mindestanforderungen graphischer Gestaltungsregeln und erst recht den Erfordernissen der Prägnanz nicht genügen, so dass der Inhalt schwer erfassbar ist. Nur eine prägnante Darstellung gibt dem Nutzer die Möglichkeit, Objekte visuell zu differenzieren und effektiv Wesentliches von Unwesentlichem zu unterscheiden. Eine Voraussetzung hierfür ist der Einsatz visuell gut unterscheidbarer Farben. Kern dieser Arbeit ist der Nachweis, dass die Bestimmung gut unterscheidbarer Farben als Optimierungsproblem formuliert und mit mathematischen Methoden on demand gelöst werden kann. Dies erfordert eine objektivierte Beschreibung des subjektiven Vorgangs der Farbwahrnehmung in einem Bezugssystem (Farbraum), auf dem eine geeignete, der menschlichen Wahrnehmung entsprechende, Metrik definiert ist. Ein solches System steht bspw. mit dem CIELUV-Farbraum zur Verfügung: Wenn darin der Abstand zweier Farben ein gewisses Minimum überschreitet, ist die Verschiedenheit dieser Farben für einen (normalsichtigen) Menschen klar erkennbar. Das Optimierungsproblem besteht dann darin, die minimale Distanz in einem dreidimensionalen Raum zu maximieren. Es handelt sich dabei um ein nichtlineares Problem, das durch eine Vielzahl lokal optimaler Lösungen gekennzeichnet ist. Klassische gradientenbasierte Verfahren berechnen zwar eine lokale, in der Regel aber nicht die global optimale Lösung. Probleme der globalen Optimierung sind im Allgemeinen schwer lösbar (NP-vollständig). Effiziente Verfahren wurden für diskrete Problemstellungen entwickelt, sind aber wegen der spezifischen Randbedingungen auf das vorliegende Problem nicht übertragbar. In dieser Arbeit wird eine Methode entwickelt, die mehrere Standardverfahren und Lösungsparadigmen integriert. Ausgangspunkt ist ein randomisierter Algorithmus zur Bestimmung geeigneter Startpunkte. Dieser Algorithmus basiert auf der Beobachtung, dass sich Punkte auf dem Rand der konvexen Hülle des Farbraums in besonderer Weise als Startpunkte eignen. Die Lage dieser Punkte wird durch Anwendung eines Verfahrens der lokalen Optimierung verbessert. Ein dreidimensionales Voronoi-Diagramm wird genutzt, um eine suboptimale Nutzung des verfügbaren Farbraums zu identifizieren und Verbesserungsmöglichkeiten herzuleiten. Das skizzierte Szenario geht zunächst von einem Standardnutzer und Standardbedingungen aus. Die Methode kann aber ohne weiteres auch auf davon abweichende Randbedingungen, z.B. Farbsehschwächen eines Nutzers, Qualität der Farbwiedergabe eines Anzeigegeräts oder Umgebungsbedingungen (abgedunkelter Raum oder helles Sonnenlicht), angepasst werden. In ihrer Auswirkung führen diese Bedingungen zu einer Einschränkung des verfügbaren Farbraums.Automated Creation of personalised ad-hoc-Maps in a Service-based GIS (Mapping on Demand) Providing geospatial data over the World Wide Web has developed rapidly in recent years. Maps and aerial photographs offered by popular applications (e.g. Google Maps) can either be used directly or may be linked to data of other providers to broaden information content. Hence, a user who demands a map to answer a current question is enabled to create his own map by overlaying arbitrary data - regardless of location and time (Mapping on demand). Data is increasingly provided in connection with services - functions, which support access and appropriate use of data. Services correspond to a general trend of realising a service-oriented architecture in the internet. Web services, which implement this architecture, dissolve data from specific applications and provide them by defined interfaces. The challenge in using services consists in the worldwide distribution of data, different intentions of data collection and the large variety of available formats. This heterogeneity is overcome by applying standardised formats and services. This thesis demonstrates the potential of technologies which are available for a mapping on demand. In finding suitable services and using technologies, a user is supported by web portals. These portals make services accessible in a structured manner and support their exploration by suitable tools. This thesis presents three examples of real implementations of web portals from the domain of recreation planning. In the scope of mapping on demand it is important to note that data provided by services are not only available as complete maps but also as components (thematic layers or features). Integrating their graphical output shows that graphical representation of data from each source is defined independently and that graphical representations of different sources may conflict. Thus, the ad hoc combination of sources may lead to maps, which do not satisfy basic rules of graphical design or even requirements of a concise cartographic product. But only conciseness enables a user to identify features visually and to distinguish between essential and nonessential contents. This requires the choice of colours which are well distinguishable by human visual perception. The main contribution of this thesis is the proof that the determination of well distinguishable colours can be formulated as an optimization problem, which can be solved on demand by mathematical methods. This approach requires an objectified description of the subjective process of colour vision in a reference system (colour space), which provides an appropriate metric according to human perception. Particularly the CIELUV colour space satisfies the requirement: If the distance between two colours exceeds a certain minimum, a human with full colour vision is able to distinguish these colours clearly. Thus the optimization problem is to maximise the minimal distance in a three-dimensional space. This is a nonlinear problem, which is characterized by a large number of locally optimal solutions. Classical descend methods find a locally, but usually not the globally optimal solution. In general, global optimization problems are computationally hard to solve (NP-complete). Efficient methods have been developed for solving discrete problems. Due to specific constraints these methods are not applicable to the problem at hand. This thesis presents a method which integrates several standard methods and solution paradigms. It is based on a randomized algorithm to determine appropriate starting points. The essential observation is that points on the boundary of the convex hull of the colour space are well suited as starting points. Afterwards the location of these points is improved by a method of local optimization. A three-dimensional Voronoi-diagram is used to detect suboptimal solutions and to identify possible improvements. Initially the scenario outlined above acts on a standard user and standard conditions. The method is adaptable to incorporate further constraints, e.g. user's colour-defective vision, device-specific colour reproduction and ambient conditions (darkened room or sunlight). These constraints result in clipping the available colour space

    Ortsbezogene Anwendungen und Dienste: 9. Fachgespräch der GI/ITG-Fachgruppe Kommunikation und Verteilte Systeme ; 13. & 14. September 2012

    Get PDF
    Der Aufenthaltsort eines mobilen Benutzers stellt eine wichtige Information für Anwendungen aus den Bereichen Mobile Computing, Wearable Computing oder Ubiquitous Computing dar. Ist ein mobiles Endgerät in der Lage, die aktuelle Position des Benutzers zu bestimmen, kann diese Information von der Anwendung berücksichtigt werden -- man spricht dabei allgemein von ortsbezogenen Anwendungen. Eng verknüpft mit dem Begriff der ortsbezogenen Anwendung ist der Begriff des ortsbezogenen Dienstes. Hierbei handelt es sich beispielsweise um einen Dienst, der Informationen über den aktuellen Standort übermittelt. Mittlerweile werden solche Dienste kommerziell eingesetzt und erlauben etwa, dass ein Reisender ein Hotel, eine Tankstelle oder eine Apotheke in der näheren Umgebung findet. Man erwartet, nicht zuletzt durch die Einführung von LTE, ein großes Potenzial ortsbezogener Anwendungen für die Zukunft. Das jährlich stattfindende Fachgespräch "Ortsbezogene Anwendungen und Dienste" der GI/ITG-Fachgruppe Kommunikation und Verteilte Systeme hat sich zum Ziel gesetzt, aktuelle Entwicklungen dieses Fachgebiets in einem breiten Teilnehmerkreis aus Industrie und Wissenschaft zu diskutieren. Der vorliegende Konferenzband fasst die Ergebnisse des neunten Fachgesprächs zusammen.The location of a mobile user poses an important information for applications in the scope of Mobile Computung, Wearable Computing and Ubiquitous Computing. If a mobile device is able to determine the current location of its user, this information may be taken into account by an application. Such applications are called a location-based applications. Closely related to location-based applications are location-based services, which for example provides the user informations about his current location. Meanwhile such services are deployed commercially and enable travelers for example to find a hotel, a petrol station or a pharmacy in his vicinity. It is expected, not least because of the introduction of LTE, a great potential of locations-based applications in the future. The annual technical meeting "Location-based Applications and Services" of the GI/ITG specialized group "Communication and Dsitributed Systems" targets to discuss current evolutions in a broad group of participants assembling of industrial representatives and scientists. The present proceedings summarizes the result of the 9th annual meeting

    Graphdatenbanken fĂĽr die textorientierten e-Humanities

    Get PDF
    Vor dem Hintergrund zahlreicher Digitalisierungsinitiativen befinden sich weite Teile der Geistes- und Sozialwissenschaften derzeit in einer Transition hin zur großflächigen Anwendung digitaler Methoden. Zwischen den Fachdisziplinen und der Informatik zeigen sich große Differenzen in der Methodik und bei der gemeinsamen Kommunikation. Diese durch interdisziplinäre Projektarbeit zu überbrücken, ist das zentrale Anliegen der sogenannten e-Humanities. Da Text der häufigste Untersuchungsgegenstand in diesem Feld ist, wurden bereits viele Verfahren des Text Mining auf Problemstellungen der Fächer angepasst und angewendet. Während sich langsam generelle Arbeitsabläufe und Best Practices etablieren, zeigt sich, dass generische Lösungen für spezifische Teilprobleme oftmals nicht geeignet sind. Um für diese Anwendungsfälle maßgeschneiderte digitale Werkzeuge erstellen zu können, ist eines der Kernprobleme die adäquate digitale Repräsentation von Text sowie seinen vielen Kontexten und Bezügen. In dieser Arbeit wird eine neue Form der Textrepräsentation vorgestellt, die auf Property-Graph-Datenbanken beruht – einer aktuellen Technologie für die Speicherung und Abfrage hochverknüpfter Daten. Darauf aufbauend wird das Textrecherchesystem „Kadmos“ vorgestellt, mit welchem nutzerdefinierte asynchrone Webservices erstellt werden können. Es bietet flexible Möglichkeiten zur Erweiterung des Datenmodells und der Programmfunktionalität und kann Textsammlungen mit mehreren hundert Millionen Wörtern auf einzelnen Rechnern und weitaus größere in Rechnerclustern speichern. Es wird gezeigt, wie verschiedene Text-Mining-Verfahren über diese Graphrepräsentation realisiert und an sie angepasst werden können. Die feine Granularität der Zugriffsebene erlaubt die Erstellung passender Werkzeuge für spezifische fachwissenschaftliche Anwendungen. Zusätzlich wird demonstriert, wie die graphbasierte Modellierung auch über die rein textorientierte Forschung hinaus gewinnbringend eingesetzt werden kann.In light of the recent massive digitization efforts, most of the humanities disciplines are currently undergoing a fundamental transition towards the widespread application of digital methods. In between those traditional scholarly fields and computer science exists a methodological and communicational gap, that the so-called \\\"e-Humanities\\\" aim to bridge systematically, via interdisciplinary project work. With text being the most common object of study in this field, many approaches from the area of Text Mining have been adapted to problems of the disciplines. While common workflows and best practices slowly emerge, it is evident that generic solutions are no ultimate fit for many specific application scenarios. To be able to create custom-tailored digital tools, one of the central issues is to digitally represent the text, as well as its many contexts and related objects of interest in an adequate manner. This thesis introduces a novel form of text representation that is based on Property Graph databases – an emerging technology that is used to store and query highly interconnected data sets. Based on this modeling paradigm, a new text research system called \\\"Kadmos\\\" is introduced. It provides user-definable asynchronous web services and is built to allow for a flexible extension of the data model and system functionality within a prototype-driven development process. With Kadmos it is possible to easily scale up to text collections containing hundreds of millions of words on a single device and even further when using a machine cluster. It is shown how various methods of Text Mining can be implemented with and adapted for the graph representation at a very fine granularity level, allowing the creation of fitting digital tools for different aspects of scholarly work. In extended usage scenarios it is demonstrated how the graph-based modeling of domain data can be beneficial even in research scenarios that go beyond a purely text-based study

    Overcoming Semantical Heterogeneity in Multiple Data Warehouse Systems

    Get PDF
    Der bedarfsorientierte Zugriff auf ein konsolidiertes Berichtswesen stellt für betriebliche Organisationen einen entscheidenden Erfolgsfaktor dar, um einen Informationsvorsprung gegenüber ihren Wettbewerbern erzielen zu können. Data-Warehouse-Systeme (DWH-Systeme) dienen dazu, Entscheidungsträgern die für ihre aktuelle Aufgabe relevanten Informationen rechtzeitig und in geeigneter Form zur Verfügung zu stellen. In der Praxis existieren jedoch multiple DWH-Systeme, die vor allem auf Ebene der Datenschemata sowie der zugrunde liegenden Terminologien eine starke Heterogenität aufweisen. Inkonsistenzen zwischen den generierten Berichten sowie eine divergente Interpretation der Berichtsergebnisse sind die Folge. Der Aufbau eines konsolidierten Berichtswesens ist daher nur mit nachträglichem, manuellem Abstimmungsaufwand möglich. Die vorliegende Arbeit widmet sich insbesondere dem durch multiple DWH-Systeme offerierten Informationsangebot. Mithilfe der im Semantic Web etablierten Technologie Resource Description Framework (RDF) und der Web Ontology Language (OWL) wird ein Rahmen zur semantisch reichhaltigen Beschreibung von DWH-Metadaten geschaffen. Derartig ausgezeichnete Metadaten unterschiedlicher DWH-Systeme werden anschließend in einer semantischen Homogenisierungsschicht (sHGS) zusammengeführt. Mit diesem Hilfsmittel können Beziehungen zwischen multiplen DWH-Systemen identifiziert und deren semantische Heterogenität überwunden werden.The demand-oriented access to consolidated reporting systems represents a critical success factor for operating organisations in order to achieve an informational advantage over their competitors. Data warehouse systems (DWH systems) provide decision-makers with information relevant to their current task in due time and form. In practice, however, a multitude of highly heterogeneous DWH systems exist which particularly vary in terms of applied data schemata and underlying terminologies. Inconsistencies between the generated reports of those systems as well as a diverging interpretation of the report results are therefore immediate consequences. As a result, the construction of a consolidated reporting system inevitably demands additional manual alignment effort. The thesis at hand is especially dedicated to information provided by multiple DWH systems. By means of the technologies of the Resource Description Framework (RDF) and the Web Ontology Language (OWL), which are established in the area of the semantic web, a framework is created to describe DWH metadata in a semantically comprehensive way. The metadata of different DWH systems marked in such a way are finally brought together in a semantic level of homogenisation (sHGS). With this tool, semantic relations between multiple DWH systems can be easily identified and their semantic heterogeneity can be overcome

    Analyse und Vorhersage der Aktualisierungen von Web-Feeds

    Get PDF
    Feeds werden unter anderem eingesetzt, um Nutzer in einem einheitlichen Format und in aggregierter Form über Aktualisierungen oder neue Beiträge auf Webseiten zu informieren. Da bei Feeds in der Regel keine Benachrichtigungsfunktionalitäten angeboten werden, müssen Interessenten Feeds regelmäßig auf Aktualisierungen überprüfen. Die Betrachtung entsprechender Techniken bildet den Kern der Arbeit. Die in den verwandten Domänen Web Crawling und Web Caching eingesetzten Algorithmen zur Vorhersage der Zeitpunkte von Aktualisierungen werden aufgearbeitet und an die spezifischen Anforderungen der Domäne Feeds angepasst. Anschließend wird ein selbst entwickelter Algorithmus vorgestellt, der bereits ohne den Einsatz spezieller Konfigurationsparameter und ohne Trainingsphase im Durchschnitt bessere Vorhersagen trifft, als die übrigen betrachteten Algorithmen. Auf Basis der Analyse verschiedener Metriken zur Beurteilung der Qualität von Vorhersagen erfolgt die Definition eines zusammenfassenden Gütemaßes, welches den Vergleich von Algorithmen anhand eines einzigen Wertes ermöglicht. Darüber hinaus werden abfragespezifische Attribute der Feed-Formate untersucht und es wird empirisch gezeigt, dass die auf der partiellen Historie der Feeds basierende Vorhersage von Änderungen bereits bessere Ergebnisse erzielt, als die Einbeziehung der von den Diensteanbietern bereitgestellten Werte in die Berechnung ermöglicht. Die empirischen Evaluationen erfolgen anhand eines breitgefächerten, realen Feed-Datensatzes, welcher der wissenschaftlichen Gemeinschaft frei zur Verfügung gestellt wird, um den Vergleich mit neuen Algorithmen zu erleichtern

    Deklarative Verarbeitung von Datenströmen in Sensornetzwerken

    Get PDF
    Sensors can now be found in many facets of every day life, and are used to capture and transfer both physical and chemical characteristics into digitally analyzable data. Wireless sensor networks play a central role in the proliferation of the industrial employment of wide-range, primarily autonomous surveillance of regions or buildings. The development of suitable systems involves a number of challenges. Current solutions are often designed with a specific task in mind, rendering them unsuitable for use in other environments. Suitable solutions for distributed systems are therefore continuously built from scratch on both the hardware and software levels, more often than not resulting in products in the market's higher price segments. Users would therefore profit from the reuse of existing modules in both areas of development. Once prefabricated solutions are available, the remaining challenge is to find a suitable combination of these solutions which fulfills the user's specifications. However, the development of suitable solutions often requires expert knowledge, especially in the case of wireless sensor networks in which resources are limited. The primary focus of this dissertation is energy-efficient data analysis in sensor networks. The AnduIN system, which is outlined in this dissertation, plays a central role in this task by reducing the software design phase to the mere formulation of the solution's specifications in a declarative query language. The system then reaches the user's defined goals in a fully automated fashion. Thus, the user is integrated into the design process only through the original definition of desired characteristics. The continuous surveillance of objects using wireless sensor networks depends strongly on a plethora of parameters. Experience has shown that energy consumption is one of the major weaknesses of wireless data transfer. One strategy for the reduction of energy consumption is to reduce the communication overhead by implementing an early analysis of measurement data on the sensor nodes. Often, it is neither possible nor practical to perform the complete data analysis of complex algorithms within the sensor network. In this case, portions of the analysis must be performed on a central computing unit. The AnduIN system integrates both simple methods as well as complex methods which are evaluated only partially in network. The system autonomously resolves which application fragments are executed on which components based on a multi-dimensional cost model. This work also includes various novel methods for the analysis of sensor data, such as methods for evaluating spatial data, data cleaning using burst detection, and the identification of frequent patters using quantitative item sets.Sensoren finden sich heutzutage in vielen Teilen des täglichen Lebens. Sie dienen dabei der Erfassung und Überführung von physikalischen oder chemischen Eigenschaften in digital auswertbare Größen. Drahtlose Sensornetzwerke als Mittel zur großflächigen, weitestgehend autarken Überwachung von Regionen oder Gebäuden sind Teil dieser Brücke und halten immer stärker Einzug in den industriellen Einsatz. die Entwicklung von geeigneten Systemen ist mit einer Vielzahl von Herausforderungen verbunden. Aktuelle Lösungen werden oftmals gezielt für eine spezielle Aufgabe entworfen, welche sich nur bedingt für den Einsatz in anderen Umgebungen eignen. Die sich wiederholende Neuentwicklung entsprechender verteilter Systeme sowohl auf Hardwareebene als auch auf Softwareebene, zählt zu den wesentlichen Gründen, weshalb entsprechende Lösungen sich zumeist im hochpreisigen Segment einordnen. In beiden Entwicklungsbereichen ist daher die Wiederverwendung existierender Module im Interesse des Anwenders. Stehen entsprechende vorgefertigte Lösungen bereit, besteht weiterhin die Aufgabe, diese in geeigneter Form zu kombinieren, so dass den vom Anwender geforderten Zielen in allen Bereichen genügt wird. Insbesondere im Kontext drahtloser Sensornetzwerke, bei welchen mit stark beschränkten Ressourcen umgegangen werden muss, ist für das Erzeugen passender Lösungen oftmals Expertenwissen von Nöten. Im Mittelpunkt der vorliegenden Arbeit steht die energie-effiziente Datenanalyse in drahtlosen Sensornetzwerken. Hierzu wird mit \AnduIN ein System präsentiert, welches den Entwurf auf Softwareebene dahingehend vereinfachen soll, dass der Anwender lediglich die Aufgabenstellung unter Verwendung einer deklarativen Anfragesprache beschreibt. Wie das vom Anwender definierte Ziel erreicht wird, soll vollautomatisch vom System bestimmt werden. Der Nutzer wird lediglich über die Definition gewünschter Eigenschaften in den Entwicklungsprozess integriert. Die dauerhafte Überwachung von Objekten mittels drahtloser Sensornetzwerke hängt von einer Vielzahl von Parametern ab. Es hat sich gezeigt, dass insbesondere der Energieverbrauch bei der drahtlosen Datenübertragung eine der wesentlichen Schwachstellen ist. Ein möglicher Ansatz zur Reduktion des Energiekonsums ist die Verringerung des Kommunikationsaufwands aufgrund einer frühzeitigen Auswertung von Messergebnissen bereits auf den Sensorknoten. Oftmals ist eine vollständige Verarbeitung von komplexen Algorithmen im Sensornetzwerk aber nicht möglich bzw. nicht sinnvoll. Teile der Verarbeitungslogik müssen daher auf einer zentralen Instanz ausgeführt werden. Das in der Arbeit entwickelte System integriert hierzu sowohl einfache als auch komplexe, nur teilweise im Sensornetzwerk verarbeitbare Verfahren. Die Entscheidung, welche Teile einer Applikation auf welcher Komponente ausgeführt werden, wird vom System selbstständig auf Basis eines mehrdimensionalen Kostenmodells gefällt. Im Rahmen der Arbeit werden weiterhin verschiedene Verfahren entwickelt, welche insbesondere im Zusammenhang mit der Analyse von Sensordaten von Interesse sind. Die erweiterten Algorithmen umfassen Methoden zur Auswertung von Daten mit räumlichem Bezug, das Data Cleaning mittels adaptiver Burst-Erkennung und die Identifikation von häufigen Mustern über quantitativen Itemsets

    Modellgetriebene Entwicklung adaptiver, komponentenbasierter Mashup-Anwendungen

    Get PDF
    Mit dem Wandel des Internets zu einer universellen Softwareplattform sind die Möglichkeiten und Fähigkeiten von Webanwendungen zwar rasant gestiegen. Gleichzeitig gestaltet sich ihre Entwicklung jedoch zunehmend aufwändig und komplex, was dem Wunsch nach immer kürzeren Entwicklungszyklen für möglichst situative, bedarfsgerechte Lösungen entgegensteht. Bestehende Ansätze aus Forschung und Technik, insbesondere im Umfeld der serviceorientierten Architekturen und Mashups, werden diesen Problemen bislang nicht ausreichend gerecht. Deshalb werden in dieser Dissertation neue Konzepte für die modellgetriebene Entwicklung und Bereitstellung von Webanwendungen vorgestellt. Die zugrunde liegende Idee besteht darin, das Paradigma der Serviceorientierung auf die Präsentationsebene zu erweitern. So sollen erstmals – neben Daten- und Geschäftslogik – auch Teile der Anwendungsoberfläche in Form wiederverwendbarer Komponenten über Dienste bereitgestellt werden. Anwendungen sollen somit über alle Anwendungsebenen hinweg nach einheitlichen Prinzipien „komponiert“ werden können. Den ersten Schwerpunkt der Arbeit bilden die entsprechenden universellen Modellierungskonzepte für Komponenten und Kompositionen. Sie erlauben u. a. die plattformunabhängige Beschreibung von Anwendungen als Komposition der o. g. Komponenten. Durch die Abstraktion und entsprechende Autorenwerkzeuge wird die Entwicklung so auch für Domänenexperten bzw. Nicht-Programmierer möglich. Der zweite Schwerpunkt liegt auf dem kontextadaptiven Integrationsprozess von Komponenten und der zugehörigen, serviceorientierten Referenzarchitektur. Sie ermöglichen die dynamische Suche, Bindung und Konfiguration von Komponenten, d. h. auf Basis der o. g. Abstraktionen können genau die Anwendungskomponenten geladen und ausgeführt werden, die für den vorliegenden Nutzer-, Nutzungs- und Endgerätekontext am geeignetsten sind. Der dritte Schwerpunkt adressiert die Kontextadaptivität der kompositen Anwendungen in Form von Konzepten zur aspektorientierten Definition von adaptivem Verhalten im Modell und dessen Umsetzung zur Laufzeit. In Abhängigkeit von Kontextänderungen können so Rekonfigurationen von Komponenten, ihr Austausch oder Veränderungen an der Komposition, z.B. am Layout oder dem Datenfluss, automatisch durchgesetzt werden. Alle vorgestellten Konzepte wurden durch prototypische Implementierungen praktisch untermauert. Anhand diverser Anwendungsbeispiele konnten ihre Validität und Praktikabilität – von der Modellierung im Autorenwerkzeug bis zur Ausführung und dynamischen Anpassung – nachgewiesen werden. Die vorliegende Dissertation liefert folglich eine Antwort auf die Frage, wie zukünftige Web- bzw. Mashup-Anwendungen zeit- und kostengünstig entwickelt sowie zuverlässig und performant ausgeführt werden können. Die geschaffenen Konzepte bilden gleichermaßen die Grundlage für eine Vielzahl an Folgearbeiten.:Verzeichnisse vi Abbildungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii Verzeichnis der Codebeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . ix Abkürzungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x 1 Einleitung 1 1.1 Problemdefinition, Thesen und Forschungsziele . . . . . . . . . . . . . . 3 1.1.1 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.2 Thesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.3 Forschungsziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2 Abgrenzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.3 Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2 Grundlagen, Szenarien und Herausforderungen 12 2.1 Grundlagen und Begriffsklärung . . . . . . . . . . . . . . . . . . . . . . . 13 2.1.1 Komposite und serviceorientierte Webanwendungen . . . . . . . 13 2.1.2 Mashups . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1.3 Modellgetriebene Software-Entwicklung . . . . . . . . . . . . . . 17 2.1.4 Kontext und kontextadaptive Webanwendungen . . . . . . . . . 18 2.2 Szenarien und Problemanalyse . . . . . . . . . . . . . . . . . . . . . . . 20 2.2.1 Dienstkomposition zur Reiseplanung . . . . . . . . . . . . . . . . . 20 2.2.2 Interaktive Aktienverwaltung . . . . . . . . . . . . . . . . . . . . . 22 2.2.3 Adaptive Touristeninformation . . . . . . . . . . . . . . . . . . . . 23 2.3 Anforderungen und Kriterien der Analyse . . . . . . . . . . . . . . . . . . 25 2.3.1 Anforderungen an Komponenten- und Kompositionsmodell . . . 25 2.3.2 Anforderungen an die Laufzeitumgebung . . . . . . . . . . . . . 27 3 Stand der Forschung und Technik 30 3.1 SOA und Dienstkomposition zur Interaktion mit Diensten . . . . . . . . . 31 3.1.1 Statische Dienstkomposition . . . . . . . . . . . . . . . . . . . . . . 32 3.1.2 Dynamische Dienstauswahl und -Komposition . . . . . . . . . . . 33 3.1.3 Adaptionskonzepte für Dienstkompositionen . . . . . . . . . . . . 45 3.1.4 Interaktions- und UI-Konzepte für Dienstkompositionen . . . . . . 48 3.2 Web Engineering - Entwicklung interaktiver adaptiver Webanwendungen 50 3.2.1 Entwicklung von Hypertext- und Hypermedia-Anwendungen . . 51 3.2.2 Entwicklung von Mashup-Anwendungen . . . . . . . . . . . . . . 54 3.3 Zusammenfassung und Diskussion der Defizite existierender Ansätze . . 67 3.3.1 Probleme und Defizite aus dem Bereich der Dienstkomposition . 67 3.3.2 Probleme und Defizite beim Web- und Mashup-Engineering . . . 69 4 Universelle Komposition adaptiver Webanwendungen 73 4.1 Grundkonzept und Rollenmodell . . . . . . . . . . . . . . . . . . . . . . 74 4.2 Modellgetriebene Entwicklung kompositer Mashups . . . . . . . . . . . 75 4.2.1 Universelles Komponentenmodell . . . . . . . . . . . . . . . . . . 76 4.2.2 Belangorientiertes Kompositionsmodell . . . . . . . . . . . . . . . 76 4.3 Dynamische Integration und Laufzeitumgebung . . . . . . . . . . . . . 78 4.3.1 Kontextsensitiver Integrationsprozess für Mashup-Komponenten . 79 4.3.2 Referenzarchitektur zur Komposition und Ausführung . . . . . . . 80 4.3.3 Unterstützung von adaptivem Laufzeitverhalten in Mashups . . . 81 5 Belangorientierte Modellierung adaptiver, kompositer Webanwendungen 83 5.1 Ein universelles Komponentenmodell für Mashup-Anwendungen . . . . 84 5.1.1 Grundlegende Eigenschaften und Prinzipien . . . . . . . . . . . . 84 5.1.2 Komponententypen . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.1.3 Beschreibung von Komponenten . . . . . . . . . . . . . . . . . . 87 5.1.4 Nutzung der Konzepte zur Komponentenentwicklung . . . . . . . 99 5.2 Ein belangorientiertes Metamodell für interaktive Mashup-Anwendungen 100 5.2.1 Conceptual Model – Modellierung der Anwendungskonzepte . . 102 5.2.2 Communication Model – Spezifikation von Daten- und Kontrollfluss 107 5.2.3 Layout Model – Visuelle Anordnung von UI-Komponenten . . . . 114 5.2.4 Screenflow Model – Definition von Navigation und Sichten . . . . 115 5.3 Modellierung von adaptivem Verhalten . . . . . . . . . . . . . . . . . . 117 5.3.1 Adaptionstechniken für komposite Webanwendungen . . . . . . 117 5.3.2 Adaptivity Model – Modellierung von Laufzeitadaptivität . . . . . 119 5.4 Ablauf und Unterstützung bei der Modellierung . . . . . . . . . . . . . . 126 5.5 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . 128 6 Kontextsensitiver Integrationsprozess und Kompositionsinfrastruktur 132 6.1 Ein kontextsensitiver Integrationsprozess zur dynamischen Bindung von Mashup-Komponenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 6.1.1 Modellinterpretation oder -transformation . . . . . . . . . . . . . . 134 6.1.2 Suche und Matching . . . . . . . . . . . . . . . . . . . . . . . . . 135 6.1.3 Rangfolgebildung . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 6.1.4 Auswahl und Integration . . . . . . . . . . . . . . . . . . . . . . . . 145 6.2 Kompositionsinfrastruktur und Laufzeitumgebung . . . . . . . . . . . . . 146 6.2.1 Verwaltung von Komponenten und Domänenwissen . . . . . . . 146 6.2.2 Aufbau der Laufzeitumgebung (MRE) . . . . . . . . . . . . . . . . 148 6.2.3 Dynamische Integration und Verwaltung von Komponenten . . . 151 6.2.4 Kommunikationsinfrastruktur und Mediation . . . . . . . . . . . . . 155 6.3 Unterstützung von Adaption zur Laufzeit . . . . . . . . . . . . . . . . . . 162 6.3.1 Kontexterfassung, -modellierung und -verwaltung . . . . . . . . . 163 6.3.2 Ablauf der dynamischen Adaption . . . . . . . . . . . . . . . . . 168 6.3.3 Dynamischer Austausch von Komponenten . . . . . . . . . . . . 170 6.4 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . 174 7 Umsetzung und Validierung der Konzepte 178 7.1 Realisierung der Modellierungsmittel . . . . . . . . . . . . . . . . . . . . 179 7.1.1 Komponentenbeschreibung in XML und OWL . . . . . . . . . . . 179 7.1.2 EMF-basiertes Kompositionsmodell . . . . . . . . . . . . . . . . . . 180 7.1.3 Modelltransformationen . . . . . . . . . . . . . . . . . . . . . . . . 182 7.1.4 Modellierungswerkzeug . . . . . . . . . . . . . . . . . . . . . . . . 183 7.2 Realisierung der Kompositions- und Laufzeitumgebung . . . . . . . . . . 185 7.2.1 Semantische Verwaltung und Discovery . . . . . . . . . . . . . . 185 7.2.2 Kompositions- bzw. Laufzeitumgebungen . . . . . . . . . . . . . . 192 7.2.3 Kontextverwaltung und Adaptionsmechanismen . . . . . . . . . 201 7.3 Validierung und Diskussion anhand der Beispielszenarien . . . . . . . . . 210 7.3.1 Reiseplanung mit TravelMash . . . . . . . . . . . . . . . . . . . . . 211 7.3.2 Aktienverwaltung mit StockMash . . . . . . . . . . . . . . . . . . . 214 7.3.3 Adaptive Touristeninformation mit TravelGuide . . . . . . . . . . . 216 7.3.4 Weitere Prototypen . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 7.4 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . 219 8 Zusammenfassung, Diskussion und Ausblick 226 8.1 Zusammenfassung der Kapitel und ihrer Beiträge . . . . . . . . . . . . . 227 8.2 Diskussion und Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . 231 8.2.1 Wissenschaftliche Beiträge . . . . . . . . . . . . . . . . . . . . . . 231 8.2.2 Einschränkungen und Grenzen . . . . . . . . . . . . . . . . . . . . 236 8.3 Laufende und zukünftige Arbeiten . . . . . . . . . . . . . . . . . . . . . 238 Anhänge 242 A.1 Komponentenbeschreibung in SMCDL . . . . . . . . . . . . . . . . . . . 242 A.2 Komponentenmodell in Form der MCDO . . . . . . . . . . . . . . . . . . 243 A.3 Kompositionsmodell in EMF . . . . . . . . . . . . . . . . . . . . . . . . . . 244 Verzeichnis eigener Publikationen 246 Webreferenzen 249 Literaturverzeichnis 25

    Benutzerprofile fĂĽr die Anfrageverarbeitung in verteilten Digitalen Bibliotheken [online]

    Get PDF
    corecore