68 research outputs found

    Provisioning of Service Mashup Topologies

    Get PDF

    TOSCA4Mashups - Provisionierung und AusfĂĽhrung von Data Mashups in der Cloud

    Get PDF
    Mit der stetig wachsenden Menge an Daten wird Datenintegration und Datenverarbeitung zunehmend schwieriger. Domänen-Experten ohne IT-Hintergrund sollen aus großen Datenmengen entsprechende Informationen gewinnen. Leicht zu bedienende Werkzeuge sind nötig, um Daten aus heterogenen Datenmengen durch Domänen-Experten zu verarbeiten. Data Mashups ermöglichen die Verarbeitung und Integration verschiedener, heterogener Datenquellen. Dabei nutzen manche Data Mashup-Lösungen dynamische Ausführungsumgebungen. Die Cloud bietet sich für die Provisionierung solcher dynamisch zusammengesetzten Ausführungsumgebungen an, da Rechenressourcen ebenso dynamisch bereitgestellt werden können. Eine Möglichkeit, um Portabilität und Management von Cloud-Anwendungen zu ermöglichen ist OASIS TOSCA. Um Anwendungen mit TOSCA automatisch zu provisionieren werden alle notwendigen Komponenten in einer sogenannten Topologie modelliert und mit allen notwendigen Informationen, um die Anwendung zu betreiben in ein selbst-enthaltenes Dateiformat, sogenannte Cloud Service Archives verpackt. Die TOSCA Laufzeitumgebung kann diese Archivdatei verarbeiten und die Anwendung automatisiert in der Cloud provisionieren. Im Rahmen dieser Bachelorarbeit wird ein Konzept entwickelt, um Data Mashups automatisiert in der Cloud zu Provisionieren und auszuführen. Um das Konzept zu testen wurde ein Prototyp implementiert, der die TOSCA Laufzeitumgebung OpenTOSCA der Universität Stuttgart verwendet

    Competition of Service Marketplaces: Designing Growth in Service Networks

    Get PDF
    The cloud computing paradigm gives rise to Web service marketplaces where complex services areprovided by several modular vendors. Recently more and more intermediaries are pushing onto themarket, thereby driving competition. Offering innovative business models which are capable ofattracting service providers and consumers is a reasonable strategy to beat competitors and to takeadvantage of network effects. We develop a mechanism that introduces a novel way of distributingrevenues among service providers – the power ratio. Its underlying presumption is not only tocompensate service providers who actually contribute to a complex service offered at a time, but alsoto pay out partners who are on standby – i.e. vendors that support the network’s variety and stability,but actually do not contribute to the complex service delivered. We show that a payment function thatis based upon the power ratio is a promising approach to draw in service providers as it outperformsa payment function that rewards vendors merely based on their actual allocation in terms of expectedpayoffs for different types of service vendors

    Towards Process Support for Migrating Applications to Cloud Computing

    Get PDF
    Cloud computing is an active area of research for industry and academia. There are a large number of organizations providing cloud computing infrastructure and services. In order to utilize these infrastructure resources and services, existing applications need to be migrated to clouds. However, a successful migration effort needs well-defined process support. It does not only help to identify and address challenges associated with migration but also provides a strategy to evaluate different platforms in relation to application and domain specific requirements. This paper present a process framework for supporting migration to cloud computing based on our experiences from migrating an Open Source System (OSS), Hackystat, to two different cloud computing platforms. We explained the process by performing a comparative analysis of our efforts to migrate Hackystate to Amazon Web Services and Google App Engine. We also report the potential challenges, suitable solutions, and lesson learned to support the presented process framework. We expect that the reported experiences can serve guidelines for those who intend to migrate software applications to cloud computing.Muhammad Aufeef Chauhan, Muhammad Ali Baba

    Flexible Decision Support in Dynamic Interorganizational Networks

    Get PDF
    An effective Decision Support System (DSS) should help its users improve decision-making in complex, information-rich, environments. We present a feature gap analysis that shows that current decision support technologies lack important qualities for a new generation of agile business models that require easy, temporary integration across organisational boundaries. We enumerate these qualities as DSS Desiderata, properties that can contribute both effectiveness and flexibility to users in such environments. To address this gap, we describe a new design approach that enables users to compose decision behaviours from separate, configurable components, and allows dynamic construction of analysis and modelling tools from small, single-purpose evaluator services. The result is what we call an “evaluator service network” that can easily be configured to test hypotheses and analyse the impact of various choices for elements of decision processes. We have implemented and tested this design in an interactive version of the MinneTAC trading agent, an agent designed for the Trading Agent Competition for Supply Chain Management

    Revisiting Service-oriented Architecture for the IoT: A Middleware Perspective

    Get PDF
    International audienceBy bridging the physical and the virtual worlds, the Internet of Things (IoT) impacts a multitude of application domains, among which smart cities, smart factories, resource management, intelligent transportation, health and well-being to name a few. However, leveraging the IoT within software applications raises tremendous challenges from the networking up to the application layers, in particular due to the ultra-large scale, the extreme heterogeneity and the dynamics of the IoT. This paper more specifically explores how the service-oriented architecture paradigm may be revisited to address challenges posed by the IoT for the development of distributed applications. Drawing from our past and ongoing work within the MiMove team at Inria Paris, the paper discusses the evolution of the supporting middleware solutions spanning the introduction of: probabilistic protocols to face scale, cross-paradigm interactions to face heterogeneity, and streaming-based interactions to support the inherent sensing functionality brought in by the IoT

    Value Creation through Co-Opetition in Service Networks

    Get PDF
    Well-defined interfaces and standardization allow for the composition of single Web services into value-added complex services. Such complex Web Services are increasingly traded via agile marketplaces, facilitating flexible recombination of service modules to meet heterogeneous customer demands. In order to coordinate participants, this work introduces a mechanism design approach - the co-opetition mechanism - that is tailored to requirements imposed by a networked and co-opetitive environment

    Anforderungsbasierte Modellierung und AusfĂĽhrung von Datenflussmodellen

    Get PDF
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert
    • …
    corecore