45 research outputs found

    LoKit (revisited): A Toolkit for Building Distributed Collaborative Applications

    Full text link
    LoKit is a toolkit based on the coordination language LO. It allows to build distributed collaborative applications by providing a set of generic tools. This paper briefly introduces the concept of the toolkit, presents a subset of the LoKit tools, and finally demonstrates its power by discussing a sample application built with the toolkit.Comment: 20 pages, 3 figures, 1 table. This paper is a reprint of an unpublished report on the occasion of the (fictitious) 30th anniversary of the Xerox Research Centre Europe, now Naver Labs, Grenoble, Franc

    The Use of Quality Management Standards in Trustworthy Digital Archives

    Get PDF
    Quality management is an essential part in creating a trustworthy digital archive. The German network of expertise in Digital long-term preservation (nestor), in cooperation with the German Institute for Standards (DIN), has undertaken a small study to analyse systematically the relevance and usage of quality management standards for long-term preservation and to filter out the specific standardisation need for digital archives. This paper summarises the results of the study. It gives an overview on the differences in understanding the task “quality management” within different organisations and how they carry out appropriate measures, such as documentation, transparency, adequacy, and measureability in order to demonstrate the trustworthiness of their digital archive

    Vergleich bestehender Archivierungssysteme

    Get PDF
    Die vorliegende Arbeit wurde im Auftrag von nestor - Kompetenznetzwerk Langzeitarchivierung unter Betreuung der Bayerischen Staatsbibliothek von einem Team um Professor Dr. Uwe M. Borghoff am Institut für Softwaretechnologie der Universität der Bundeswehr München erstellt. Ziel dieser Expertise ist es, Entscheidungsträgern eine Basis für die Bewertung und die Auswahl von Archivierungssystemen, einem Marktsegment mit dynamischer Entwicklung, zu bieten. Eine internationale Marktsichtung gibt zunächst einen Überblick über die Vielzahl der angebotenen kommerziellen und nicht-kommerziellen Produkte, deren Anforderungen aus vielfältigen Anwendungsbereichen stammen. Auf der Grundlage der Vorgaben von nestor, von Referenzmodellen und Technologien sowie konkreter Archivierungsszenarien wird ein detailliertes Bewertungsschema hergeleitet, das eine vergleichbare Produktbeschreibung (Rating) erlaubt. Dieses Bewertungsschema wird beispielhaft auf sechs ausgewählte kommerzielle und nicht-kommerzielle Archivierungssysteme angewendet. Ein Resümee der Marktsichtung und der Beschreibung der Produkte schließt die Arbeit ab

    Voting and Relocation Strategies Preserving Consistency among Replicated Files

    No full text
    Replication can enhance the availability of the data files in a distributed environment. This paper introduces a method for managing replicated data files. Unlike many others, our method provides protocols and algorithms for a more complicated scheme of replication that supports replication with location-variant files and files with a variable degree of replication. We assume the existence of a dynamic file assignment algorithm as well as a block-oriented majority consensus voting approach. This paper investigates how to maintain consistency during relocation, if the current and the new file assignment differ not only in the location of the files but also in the number of replicas. We introduce the basic relocation protocols to preserve consistency during relocation and present the read- and write-block algorithms for accesses to data blocks of transient files. As a final result, we show that the interaction between the relocation protocols and these algorithms preserves consistency. ..

    A Priority-Driven, Consistency-Preserving Strategy for the Relocation Problem of Replicated Files

    No full text
    Suppose you got an excellent dynamic file assignment algorithm. But, how to proceed dynamically from the current to the optimal file allocation? Imagine replication of your files and some sort of voting strategy --- the question then is, how to maintain consistency if the current and the optimal file assignment differ not only in the location of the files but also in the number of replicas? This paper tries to answer these questions and introduces the basic relocation protocols which preserve consistency during relocation, as well as a priority-driven, storage capacity-based approach to bring the basic relocation protocols in an optimal sequence in order to move quickly and as close as possible towards the optimal file assignment. 1 Introduction We consider a mathematical model of an information network of jRj nodes, some of which contain copies of our jDj data files. The degree of replicas has not to be fixed. Within this network, every node is able to communicate with every other no..

    Standards und Standardisierung in Kontext von Grid/eScience und Langzeitarchivierung

    Get PDF
    Die modernen Informationstechnologien haben in allen Lebensbereichen starke Veränderungen bewirkt. Besonders stark beeinflusst sind die Wissenschaften, die auch eine treibende Kraft dieser Entwicklungen sind und immer größere Anforderungen an Rechner, Speicher und IT-Werkzeuge stellen. In neuen Experimenten der Teilchenphysik werden kaum bewältigbare Datenmengen für Tausende von Wissenschaftlern produziert, Klimaforscher berechnen immer detailliertere Modelle des Systems Erde, und die Geisteswissenschaften beginnen riesige digitale Sammlungen von Kulturgütern mit Rechnern zu analysieren. // Die Grid-Technologie zur Aufteilung der Aufgaben auf viele verteilte IT-Ressourcen ist ein Mittel, um den Herausforderungen dieser neuen, als e-Science bezeichneten wissenschaftlichen Arbeitsweise gerecht zu werden. // nestor und Wissenschaftler weltweit haben immer wieder darauf hingewiesen, dass mit der Zunahme der Bedeutung digitaler Daten auch die Notwendigkeit wächst, ihre langfristige Nutzbarkeit zu sichern. Bei der Grid-Technologie ergibt sich die chancenreiche Situation, dass nicht nur wertvolle und zu erhaltende Daten produziert werden, sondern auch Mittel bereit gestellt werden, die für die Herausforderung der Langzeitarchivierung großer und komplexer Datenmengen nutzbar sein können. Die klassischen Gedächtnisorganisationen - wie Bibliotheken, Archive und Museen - und die neuen Gedächtnisorganisationen – wie Daten- und Rechenzentren - können wechselseitig voneinander profitieren. // Um dieses Potenzial auszuloten, hat nestor in seiner zweiten Projektphase eine Arbeitsgruppe mit Fachleuten aus klassischen Gedächtnisinstitutionen und aus e-Science- und grid-engagierten Institutionen initiiert und drei Expertisen in Auftrag gegeben. Diese Expertisen untersuchen den Ist-Stand und die Anforderungen und Ziele für das Zusammenspiel von e-Science-/Grid-Technologie und Langzeitarchivierung unter drei Gesichtspunkten: Welche Anforderungen gibt es für die Archivierung von Forschungsdaten? Was sind die möglichen Synergien, die angestrebt werden sollten? Und auf welche Standards können weitere Arbeiten in diesen Bereich aufgebaut werden und welche sind gegebenenfalls noch zu entwickeln? // Neben der Untersuchung des Standes der Technik, sind einige Projekte der deutschen Grid-Initiative D-Grid befragt worden. nestor wird in seiner Grid-/eScience-Arbeitsgruppe die Ergebnisse der Expertisen aufnehmen und versuchen, eine Landkarte für die weiteren Entwicklungsperspektiven zu zeichnen. // e-Science-/Grid-Technologie und Langzeitarchivierung sind relativ neue Forschungsbereiche, die sich sehr schnell entwickeln. Einzelne Fragen, die von nestor Mitte 2006 formuliert wurden, als die ersten Projekte der deutschen Grid-Initiative D-Grid gerade gestartet waren, stellen sich heute, wo bald schon die dritte Generation von D-Grid-Projekten beginnt, unter den veränderten Bedingungen möglicherweise anders dar. Die Expertisen müssen daher auch vor ihrem Entstehungshintergrund betrachtet werden. Derzeit liefern sie eine Beschreibung sinnvoller und notwendiger Entwicklungen. Wenn sie in naher Zukunft „veralten“, weil sie zur erfolgreichen Zusammenarbeit von e-Science/Grid und Langzeitarchivierung beigetragen haben, dann haben sie ihren Sinn erfüllt

    Structure Management In The Collaborative Multimedia Editing System Iris

    No full text
    Structure management within collaborative editing systems is an important feature when the editable documents consist of multimedia contents. This becomes even more interesting when the interface between a media-independent structure editor and the media-dependent content editors should be designed. Based on the experiences with our common modeling framework, the newly developed multiuser editor IRIS, this paper describes the design of structure editing and discusses what operations are needed for the media-independent interface of the structure editor. Furthermore, some implications of the chosen approach are shown and a number of recommendations are made for improving our framework. Key words: collaboration, multiuser multimedia editor, structure management. 1. Introduction An important topic within computer-supported cooperative work (CSCW) is collaborative multimedia editing. A fully-integrated CSCW-system for such documents should provide appropriate editors for various media, i..
    corecore