25 research outputs found

    A Layered Reference Architecture for Metamodels to Tailor Quality Modeling and Analysis

    Get PDF

    A Reference Structure for Modular Model-based Analyses

    Get PDF
    Kontext: In dieser Arbeit haben wir die Evolvierbarkeit, Verständlichkeit und Wiederverwendbarkeit von modellbasierten Analysen untersucht. Darum untersuchten wir die Wechselbeziehungen zwischen Modellen und Analysen, insbesondere die Struktur und Abhängigkeiten von Artefakten und die Dekomposition und Komposition von modellbasierten Analysen. Herausforderungen: Softwareentwickler verwenden Modelle von Softwaresystemen, um die Evolvierbarkeit und Wiederverwendbarkeit eines Architekturentwurfs zu bestimmen. Diese Modelle ermöglichen die Softwarearchitektur zu analysieren, bevor die erste Zeile Code geschreiben wird. Aufgrund evolutionärer Veränderungen sind modellbasierte Analysen jedoch auch anfällig für eine Verschlechterung der Evolvierbarkeit, Verständlichkeit und Wiederverwendbarkeit. Diese Probleme lassen sich auf die Ko-Evolution von Modellierungssprache und Analyse zurückführen. Der Zweck einer Analyse ist die systematische Untersuchung bestimmter Eigenschaften eines zu untersuchenden Systems. Nehmen wir zum Beispiel an, dass Softwareentwickler neue Eigenschaften eines Softwaresystems analysieren wollen. In diesem Fall müssen sie Merkmale der Modellierungssprache und die entsprechenden modellbasierten Analysen anpassen, bevor sie neue Eigenschaften analysieren können. Merkmale in einer modellbasierten Analyse sind z.\,B. eine Analysetechnik, die eine solche Qualitätseigenschaft analysiert. Solche Änderungen führen zu einer erhöhten Komplexität der modellbasierten Analysen und damit zu schwer zu pflegenden modellbasierten Analysen. Diese steigende Komplexität verringert die Verständlichkeit der modellbasierten Analysen. Infolgedessen verlängern sich die Entwicklungszyklen, und die Softwareentwickler benötigen mehr Zeit, um das Softwaresystem an veränderte Anforderungen anzupassen. Stand der Technik: Derzeitige Ansätze ermöglichen die Kopplung von Analysen auf einem System oder über verteilte Systeme hinweg. Diese Ansätze bieten die technische Struktur für die Kopplung von Simulationen, nicht aber eine Struktur wie Komponenten (de)komponiert werden können. Eine weitere Herausforderung beim Komponieren von Analysen ist der Verhaltensaspekt, der sich darin äußert, wie sich die Analysekomponenten gegenseitig beeinflussen. Durch die Synchronisierung jeder beteiligten Simulation erhöht die Modularisierung von Simulationen den Kommunikationsbedarf. Derzeitige Ansätze erlauben es, den Kommunikationsaufwand zu reduzieren; allerdings werden bei diesen Ansätzen die Dekomposition und Komposition dem Benutzer überlassen. Beiträge: Ziel dieser Arbeit ist es, die Evolvierbarkeit, Verständlichkeit und Wiederverwendbarkeit von modellbasierten Analysen zu verbessern. Zu diesem Zweck wird die Referenzarchitektur für domänenspezifische Modellierungssprachen als Grundlage genommen und die Übertragbarkeit der Struktur der Referenzarchitektur auf modellbasierte Analysen untersucht. Die geschichtete Referenzarchitektur bildet die Abhängigkeiten der Analysefunktionen und Analysekomponenten ab, indem sie diese bestimmten Schichten zuordnet. Wir haben drei Prozesse für die Anwendung der Referenzarchitektur entwickelt: (i) Refactoring einer bestehenden modellbasierten Analyse, (ii) Entwurf einer neuen modellbasierten Analyse und (iii) Erweiterung einer bestehenden modellbasierten Analyse. Zusätzlich zur Referenzarchitektur für modellbasierte Analysen haben wir wiederkehrende Strukturen identifiziert, die zu Problemen bei der Evolvierbarkeit, Verständlichkeit und Wiederverwendbarkeit führen; in der Literatur werden diese wiederkehrenden Strukturen auch als Bad Smells bezeichnet. Wir haben etablierte modellbasierte Analysen untersucht und dreizehn Bad Smells identifiziert und spezifiziert. Neben der Spezifizierung der Bad Smells bieten wir einen Prozess zur automatischen Identifizierung dieser Bad Smells und Strategien für deren Refactoring, damit Entwickler diese Bad Smells vermeiden oder beheben können. In dieser Arbeit haben wir auch eine Modellierungssprache zur Spezifikation der Struktur und des Verhaltens von Simulationskomponenten entwickelt. Simulationen sind Analysen, um ein System zu untersuchen, wenn das Experimentieren mit dem bestehenden System zu zeitaufwändig, zu teuer, zu gefährlich oder einfach unmöglich ist, weil das System (noch) nicht existiert. Entwickler können die Spezifikation nutzen, um Simulationskomponenten zu vergleichen und so identische Komponenten zu identifizieren. Validierung: Die Referenzarchitektur für modellbasierte Analysen, haben wir evaluiert, indem wir vier modellbasierte Analysen in die Referenzarchitektur überführt haben. Wir haben eine szenariobasierte Evaluierung gewählt, die historische Änderungsszenarien aus den Repositories der modellbasierten Analysen ableitet. In der Auswertung können wir zeigen, dass sich die Evolvierbarkeit und Verständlichkeit durch die Bestimmung der Komplexität, der Kopplung und der Kohäsion verbessert. Die von uns verwendeten Metriken stammen aus der Informationstheorie, wurden aber bereits zur Bewertung der Referenzarchitektur für DSMLs verwendet. Die Bad Smells, die durch die Co-Abhängigkeit von modellbasierten Analysen und ihren entsprechenden DSMLs entstehen, haben wir evaluiert, indem wir vier modellbasierte Analysen nach dem Auftreten unserer schlechten Gerüche durchsucht und dann die gefundenen Bad Smells behoben haben. Wir haben auch eine szenariobasierte Auswertung gewählt, die historische Änderungsszenarien aus den Repositories der modellbasierten Analysen ableitet. Wir können zeigen, dass die Bad Smells die Evolvierbarkeit und Verständlichkeit negativ beeinflussen, indem wir die Komplexität, Kopplung und Kohäsion vor und nach der Refaktorisierung bestimmen. Den Ansatz zum Spezifizieren und Finden von Komponenten modellbasierter Analysen haben wir evaluiert, indem wir Komponenten von zwei modellbasierten Analysen spezifizieren und unseren Suchalgorithmus verwenden, um ähnliche Analysekomponenten zu finden. Die Ergebnisse der Evaluierung zeigen, dass wir in der Lage sind, ähnliche Analysekomponenten zu finden und dass unser Ansatz die Suche nach Analysekomponenten mit ähnlicher Struktur und ähnlichem Verhalten und damit die Wiederverwendung solcher Komponenten ermöglicht. Nutzen: Die Beiträge unserer Arbeit unterstützen Architekten und Entwickler bei ihrer täglichen Arbeit, um wartbare und wiederverwendbare modellbasierte Analysen zu entwickeln. Zu diesem Zweck stellen wir eine Referenzarchitektur bereit, die die modellbasierte Analyse und die domänenspezifische Modellierungssprache aufeinander abstimmt und so die Koevolution erleichtert. Zusätzlich zur Referenzarchitektur bieten wir auch Refaktorisierungsoperationen an, die es Architekten und Entwicklern ermöglichen, eine bestehende modellbasierte Analyse an die Referenzarchitektur anzupassen. Zusätzlich zu diesem technischen Aspekt haben wir drei Prozesse identifiziert, die es Architekten und Entwicklern ermöglichen, eine neue modellbasierte Analyse zu entwickeln, eine bestehende modellbasierte Analyse zu modularisieren und eine bestehende modellbasierte Analyse zu erweitern. Dies geschieht natürlich so, dass die Ergebnisse mit der Referenzarchitektur konform sind. Darüber hinaus ermöglicht unsere Spezifikation den Entwicklern, bestehende Simulationskomponenten zu vergleichen und sie bei Bedarf wiederzuverwenden. Dies erspart den Entwicklern die Neuimplementierung von Komponenten

    An Integrated Modeling Framework for Managing the Deployment and Operation of Cloud Applications

    Get PDF
    Cloud computing can help Software as a Service (SaaS) providers to take advantage of the sheer number of cloud benefits such as, agility, continuity, cost reduction, autonomy, and easy management of resources. To reap the benefits, SaaS providers should create their applications to utilize the cloud platform capabilities. However, this is a daunting task. First, it requires a full understanding of the service offerings from different providers, and the meta-data artifacts required by each provider to configure the platform to efficiently deploy, run and manage the application. Second, it involves complex decisions that are specified by different stakeholders. Examples include, financial decisions (e.g., selecting a platform to reduces costs), architectural decisions (e.g., partition the application to maximize scalability), and operational decisions (e.g., distributing modules to insure availability and porting the application to other platforms). Finally, while each stakeholder may conduct a certain type of change to address a specific concern, the impact of a change may span multiple models and influence the decisions of several stakeholders. These factors motivate the need for: (i) a new architectural view model that focuses on service operation and reflects the cloud stakeholder perspectives, and (ii) a novel framework that facilitates providing holistic as well as partial architectural views, and generating the required platform artifacts by fragmenting the model into artifacts that can be easily modified separately. This PhD research devises a novel architecture framework, "The 5+1 Architectural View Model", for cloud applications, in which each view corresponds to a different perspective on cloud application deployment. The architectural framework is realized as a cloud modeling framework, called "StratusML", which consists of a modeling language that uses layers to specify the cloud configuration space, and a transformation engine to generate the configuration space artifacts. The usefulness and practical applicability of StratusML to model multi-cloud and multi-tenant applications have been demonstrated though a representative domain example. Moreover, to automate the framework evolution as new concerns and cloud platforms emerge, this research work introduces also a novel schema matching technique, called "Liberate". Liberate supports the process of domain model creation, evolution, and transformations. Liberate helps solve the vendor lock-in problem by reducing the manual efforts required to map complex correspondences between cloud schemas whose domain concepts do not share linguistic similarities. The evaluation of Liberate shows its superiority in the cloud domain over existing schema matching approaches

    “DISTANCE LEARNING” IN THE NINTH CENTURY?: MICRO-CLUSTER ANALYSIS OF THE EPISTOLARY NETWORK OF ALCUIN AFTER 796

    Get PDF
    Scholars of eighth- and ninth-century education have assumed that intellectuals did not write works of Scriptural interpretation until that intellectual had a firm foundation in the seven liberal arts.This ensured that anyone who embarked on work of Scriptural interpretation would have the required knowledge and methods to read and interpret Scripture correctly. The potential for theological error and the transmission of those errors was too great unless the interpreter had the requisite training. This dissertation employs computistical methods, specifically the techniques of social network mapping and cluster analysis, to study closely the correspondence of Alcuin, a late-eighth- and early-ninth-century scholar renowned for his pedagogy (which was rooted in the liberal arts) and his Scriptural commentaries. These methods allow us to identify and study these two types of knowledge and how Alcuin imparted them to individuals at two different stages of their respective intellectual careers. This investigation focuses particularly on the less-studied period of Alcuin’s life, his final eight years, beginning when he departed either the imperial court or a nearby school and arrived in Tours in 796, and ending with his death in 804. The increase in Alcuin’s surviving letters after 796, and the ways in which Alcuin imparted knowledge to the recipients, many of whom were his former students, provides the basis for exploring how Alcuin used the only technology available to him, writing, to maintain his relationships and continue to impart knowledge and attempt to influence his former pupils. These letters further demonstrate the different stages and methods for education. While Alcuin used the physical classroom in Tours to teach the seven liberal arts, the study of exegesis took place among the well-trained aristocratic and intellectual elite, who had the ability to closely control the production and dissemination of the “correct” interpretation of Scripture

    Timeline design for visualising cultural heritage data

    Get PDF
    This thesis is concerned with the design of data visualisations of digitised museum, archive and library collections, in timelines. As cultural institutions digitise their collections—converting texts, objects, and artworks to electronic records—the volume of cultural data available grows. There is a growing perception, though, that we need to get more out of this data. Merely digitising does not automatically make collections accessible, discoverable and comprehensible, and standard interfaces do not necessarily support the types of interactions users wish to make. Data visualisations—this thesis focuses on interactive visual representations of data created with software—allow us to see an overview of, observe patterns in, and showcase the richness of, digitised collections. Visualisation can support analysis, exploration and presentation of collections for different audiences: research, collection administration, and the general public. The focus here is on visualising cultural data by time: a fundamental dimension for making sense of historical data, but also one with unique strangeness. Through cataloguing, cultural institutions define the meaning and value of items in their collections and the structure within which to make sense of them. By visualising threads in cataloguing data through time, can historical narratives be made visible? And is the data alone enough to tell the stories that people wish to tell? The intended audience for this research is cultural heritage institutions. This work sits at the crossroads between design, cultural heritage (particularly museology), and computing—drawing on the fields of digital humanities, information visualisation and human computer-interaction which also live in these overlapping spaces. This PhD adds clarity around the question of what cultural visualisation is (and can be) for, and highlights issues in the visualisation of qualitative or nominal data. The first chapter lays out the background, characterising cultural data and its visualisation. Chapter two walks through examples of existing cultural timeline visualisations, from the most handcrafted displays to automated approaches. At this point, the research agenda and methodology are set out. The next five chapters document a portfolio of visualisation projects, designing and building novel prototype timeline visualisations with data from the Wellcome Library and Victoria & Albert Museum, London, Cooper Hewitt Smithsonian Design Museum, New York City, and the Nordic Museum, Stockholm. In the process, a range of issues are identified for further discussion. The final chapters reflect on these projects, arguing that automated timeline visualisation can be a productive way to explore and present historical narratives in collection data, but a range of factors govern what is possible and useful. Trust in cultural data visualisation is also discussed. This research argues that visualising cultural data can add value to the data both for users and for data-holding institutions. However, that value is likely to be best achieved by customising a visualisation design to the dataset, audience and use case. Keywords: cultural heritage data; historical data; cultural analytics; cultural informatics; humanities visualisation; generous interfaces; digital humanities; design; information design; interface design; data visualisation; information visualisation; time; timeline; history; historiography; museums; museology; archives; chronographics

    First Annual Workshop on Space Operations Automation and Robotics (SOAR 87)

    Get PDF
    Several topics relative to automation and robotics technology are discussed. Automation of checkout, ground support, and logistics; automated software development; man-machine interfaces; neural networks; systems engineering and distributed/parallel processing architectures; and artificial intelligence/expert systems are among the topics covered

    Operatic Pasticcios in 18th-Century Europe: Contexts, Materials and Aesthetics

    Get PDF
    In Early Modern times, techniques of assembling, compiling and arranging pre-existing material were part of the established working methods in many arts. In the world of 18th-century opera, such practices ensured that operas could become a commercial success because the substitution or compilation of arias fitting the singer's abilities proved the best recipe for fulfilling the expectations of audiences. Known as »pasticcios« since the 18th-century, these operas have long been considered inferior patchwork. The volume collects essays that reconsider the pasticcio, contextualize it, define its preconditions, look at its material aspects and uncover its aesthetical principles

    Operatic Pasticcios in 18th-Century Europe

    Get PDF
    In Early Modern times, techniques of assembling, compiling and arranging pre-existing material were part of the established working methods in many arts. In the world of 18th-century opera, such practices ensured that operas could become a commercial success because the substitution or compilation of arias fitting the singer's abilities proved the best recipe for fulfilling the expectations of audiences. Known as »pasticcios« since the 18th-century, these operas have long been considered inferior patchwork. The volume collects essays that reconsider the pasticcio, contextualize it, define its preconditions, look at its material aspects and uncover its aesthetical principles

    AIUCD2017 - Book of Abstracts

    Get PDF
    Questo volume raccoglie gli abstract degli interventi presentati alla conferenza AIUCD 2017. AIUCD 2017 si è svolta dal 26 al 28 Gennaio 2017 a Roma, ed è stata verrà organizzata dal Digilab, Università Sapienza in cooperazione con il network ITN DiXiT (Digital Scholarly Editions Initial Training Network). AIUCD 2017 ha ospitato anche la terza edizione dell’EADH Day, tenutosi il 25 Gennaio 2017. Gli abstract pubblicati in questo volume hanno ottenuto il parere favorevole da parte di valutatori esperti della materia, attraverso un processo di revisione anonima sotto la responsabilità del Comitato di Programma Internazionale di AIUCD 2017
    corecore