368 research outputs found

    Hochdynamische logische Netzwerke als Infrastruktur mobiler Agentensysteme

    Get PDF
    Zur sinnvollen Planung ihre Route durch das Internet benötigen mobile Agenten aktuelle Dienstinformationen aus ihrer global verteilten Infrastruktur. Heutige Netzwerke sind allerdings durch die Verwendung von mobilen Endgeräten hochdynamisch geworden, daher skaliert die Frequenz und die Anzahl von nötigen Aktualisierungsnachrichten in globalen logischen Netzwerken nicht mit der Menge der möglichen Dienstangebote. Diese Arbeit konzentriert sich auf die Verteilung, Aktualität und Skalierbarkeit von Dienstinformationen in einem globalen logischen Netzwerk unter Berücksichtigung der Zeitschranken, die von mobilen Endgeräten hervorgerufen werden. Die präsentierte Lösung besteht aus einer Architektur aus drei Infrastrukturdiensten, deren Referenzimplementierung das Infrastrukturdienst-Framework QuickLinkNet darstellt. Dieses baut ein transparentes, zweischichtiges logisches Netzwerk auf, welches als serviceorientierte Infrastruktur für mobile Agentensysteme dient, aber auch für andere verteilte Anwendungen in hochdynamischen Netzwerken verwendet werden kann.In so-called level 2 mobile agent systems, mobile agents are able to plan their route through that network themselves, based on relevant service descriptions and by using dedicated routing services. But today's networks are highly dynamic, since people use mobile devices, and very large in scale. Current infrastructure frameworks are not scaling with the potential number of service descriptions, cannot map the dynamics in the network, and have severe problems with the frequency and number of messages necessary to maintain such an infrastructure. The thesis presented in this paper focuses on exactly this problem of conflicting goals, trying to map scalability (quantity) and flexibility (dynamics) into a unified solution framework. Thereby, timing bounds caused by using mobile devices are the major focus of attention. This leads to a software architecture that comprises of three components. QuickLinkNet implements the achitecture and forms a framework of components, consists of QuickLink, Service-Juggler, and APPLICOOVER. The QuickLinkNet components establish a transparent, logical two-tiered network which can be used as a service-oriented infrastructure for mobile agent systems of level 2 and for other distributed applications in highly dynamic networks as well

    SCC-News. 2011,3 Dezember

    Get PDF

    Grid Computing und Peer-to-Peer Systeme. Seminar SS 2004

    Get PDF
    Im Sommersemester 2004 wurde im Seminar "Grid Computing und Peer-to-Peer Systeme" eine Reihe aktueller Themen aus den Grid Computing, Peer-to-Peer Systeme und Ad-Hoc Netzwerkem Gebieten angeboten. Jeder Teilnehmer wählte hieraus ein Thema, um darüber in der Form eines medial gestützten Vortrages zu referieren. Um allen Teilnehmern die Gelegenheit zu geben, aus diesem Seminar nachhaltig etwas mitzunehmen, fertigte jeder Vortragende eine allen zugängliche schriftliche Ausarbeitung an. Die Ausarbeitungen finden sich in leicht redigierter Fassung durch die Editoren im vorliegenden technischen Bericht wieder

    Publikationsprozesse für Forschungsdaten mit PubFlow : von der Erhebung und Verarbeitung zur Archivierung und Publikation

    Get PDF
    Project report. Die Ergebnisse des DFG-geförderten Projektes PubFlow werden präsentiert. PubFlow zielt darauf ab, Publikationsprozesse für Forschungs- daten von der Erhebung und der Verarbeitung bis hin zur Archivierung und Publikation zu unterstützen. Die exemplarische Implementierung von PubFlow orientiert sich an etablierten Arbeitsabläufen des Forschungsdatenmanagements in den Meereswissenschaften

    SCC-News. 2009,2 August

    Get PDF

    P2PSim - ein Framework zur Simulation der Heterogenität und Volatilität von Ressourcen in Peer-to-Peer Desktop Grids

    Get PDF
    Das folgende Dokument beschreibt die Entwicklung eines Frameworks, mit dessen Hilfe die Heterogenität und die Volatilität von Ressourcen in Peer-to-Peer Desktop Grids simuliert werden kann. Da diese Simulation auf einem Rechencluster stattfinden soll, auf dem die Ressourcen (die Rechenknoten) weder Heterogenität noch Volatilität aufweisen, wird eine Möglichkeit entwickelt, diese künstlich herzustellen. Die auf dem Cluster installierte Software „Virtual Box“ ermöglicht es, jedem Rechenknoten eine virtuelle Gastmaschine zuzuordnen. Diese virtuellen Maschinen sind individuell konfigurierbar hinsichtlich der Heterogenität (Geschwindigkeit des Prozessors und Größe des Arbeitsspeichers). Darüber hinaus lassen sich die virtuellen Maschinen einzeln jederzeit starten und wieder stoppen, wodurch sich eine beliebige Volatilität herstellen lässt. Um für die Simulation eine realistische Verteilung von verschiedenen Prozessorgeschwindigkeiten und Arbeitsspeichergrößen zu erreichen, wird für die Generierung dieser Werte auf eine umfassende Sammlung von Systemaufzeichnungen aus parallelen und verteilten Systemen zurückgegriffen. Hierbei handelt es sich um das Failure Trace Archive, aus dem sich nach Analyse aller zugrunde liegenden Daten die Datenbank des SETI@home - Projektes (Verteiltes Rechnen) als verwendbar erwiesen hat. Für die Konfiguration der virtuellen Maschinen liegen aus der genannten Datenbank mehrere 10.000 Datensätze vor. In dieser Arbeit wird die vollständige Implementierung der Lösung beschrieben um sie für Anwender und Interessierte nachvollziehbar zu machen. Neben der Analyse und Aufbereitung der SETI-Datenbank wird die gesamte Systemarchitektur, Funktionsweise und das Zusammenspiel der unterschiedlichen Komponenten beschrieben. Darüber hinaus werden im Detail einige wichtige Vorgehensweisen beleuchtet, wie Programmaktionen mit Hilfe der Linux-Shell (bash) ausgeführt werden. Anschließend wird dem Anwender eine Installations- und Konfigurationsanleitung für eine virtuelle Maschine auf einem Rechencluster gegeben, die im Folgenden als Vorlage für alle weiteren automatisch generierten Instanzen von virtuellen Maschinen dient, die an der Simulation teilnehmen. Zum Schluss wird die Verwendung von P2PSim im Detail beschrieben

    JoSchKa: Jobverteilung in heterogenen und unzuverlässigen Umgebungen

    Get PDF
    In der Arbeit wird ein System zur Verteilung rechenintensiver Jobs beschrieben, das mit wenig Einarbeitungszeit genutzt werden kann und es ermöglicht, Standard-PCs mit geringem administrativem Aufwand in einen Rechenverbund zu integrieren. Ein wesentlicher Aspekt beschäftigte sich mit der Entwicklung neuartiger Verfahren, um den auf diese Weise entstehenden heterogenen Rechnerverbund mit seinen unterschiedlichsten Leistungs- und Zuverlässigkeitscharakteristika optimal mit Arbeit zu versorgen

    Untersuchungen zur Risikominimierungstechnik Stealth Computing für verteilte datenverarbeitende Software-Anwendungen mit nutzerkontrollierbar zusicherbaren Eigenschaften

    Get PDF
    Die Sicherheit und Zuverlässigkeit von Anwendungen, welche schutzwürdige Daten verarbeiten, lässt sich durch die geschützte Verlagerung in die Cloud mit einer Kombination aus zielgrößenabhängiger Datenkodierung, kontinuierlicher mehrfacher Dienstauswahl, dienstabhängiger optimierter Datenverteilung und kodierungsabhängiger Algorithmen deutlich erhöhen und anwenderseitig kontrollieren. Die Kombination der Verfahren zu einer anwendungsintegrierten Stealth-Schutzschicht ist eine notwendige Grundlage für die Konstruktion sicherer Anwendungen mit zusicherbaren Sicherheitseigenschaften im Rahmen eines darauf angepassten Softwareentwicklungsprozesses.:1 Problemdarstellung 1.1 Einführung 1.2 Grundlegende Betrachtungen 1.3 Problemdefinition 1.4 Einordnung und Abgrenzung 2 Vorgehensweise und Problemlösungsmethodik 2.1 Annahmen und Beiträge 2.2 Wissenschaftliche Methoden 2.3 Struktur der Arbeit 3 Stealth-Kodierung für die abgesicherte Datennutzung 3.1 Datenkodierung 3.2 Datenverteilung 3.3 Semantische Verknüpfung verteilter kodierter Daten 3.4 Verarbeitung verteilter kodierter Daten 3.5 Zusammenfassung der Beiträge 4 Stealth-Konzepte für zuverlässige Dienste und Anwendungen 4.1 Überblick über Plattformkonzepte und -dienste 4.2 Netzwerkmultiplexerschnittstelle 4.3 Dateispeicherschnittstelle 4.4 Datenbankschnittstelle 4.5 Stromspeicherdienstschnittstelle 4.6 Ereignisverarbeitungsschnittstelle 4.7 Dienstintegration 4.8 Entwicklung von Anwendungen 4.9 Plattformäquivalente Cloud-Integration sicherer Dienste und Anwendungen 4.10 Zusammenfassung der Beiträge 5 Szenarien und Anwendungsfelder 5.1 Online-Speicherung von Dateien mit Suchfunktion 5.2 Persönliche Datenanalyse 5.3 Mehrwertdienste für das Internet der Dinge 6 Validierung 6.1 Infrastruktur für Experimente 6.2 Experimentelle Validierung der Datenkodierung 6.3 Experimentelle Validierung der Datenverteilung 6.4 Experimentelle Validierung der Datenverarbeitung 6.5 Funktionstüchtigkeit und Eigenschaften der Speicherdienstanbindung 6.6 Funktionstüchtigkeit und Eigenschaften der Speicherdienstintegration 6.7 Funktionstüchtigkeit und Eigenschaften der Datenverwaltung 6.8 Funktionstüchtigkeit und Eigenschaften der Datenstromverarbeitung 6.9 Integriertes Szenario: Online-Speicherung von Dateien 6.10 Integriertes Szenario: Persönliche Datenanalyse 6.11 Integriertes Szenario: Mobile Anwendungen für das Internet der Dinge 7 Zusammenfassung 7.1 Zusammenfassung der Beiträge 7.2 Kritische Diskussion und Bewertung 7.3 Ausblick Verzeichnisse Tabellenverzeichnis Abbildungsverzeichnis Listings Literaturverzeichnis Symbole und Notationen Software-Beiträge für native Cloud-Anwendungen Repositorien mit ExperimentdatenThe security and reliability of applications processing sensitive data can be significantly increased and controlled by the user by a combination of techniques. These encompass a targeted data coding, continuous multiple service selection, service-specific optimal data distribution and coding-specific algorithms. The combination of the techniques towards an application-integrated stealth protection layer is a necessary precondition for the construction of safe applications with guaranteeable safety properties in the context of a custom software development process.:1 Problemdarstellung 1.1 Einführung 1.2 Grundlegende Betrachtungen 1.3 Problemdefinition 1.4 Einordnung und Abgrenzung 2 Vorgehensweise und Problemlösungsmethodik 2.1 Annahmen und Beiträge 2.2 Wissenschaftliche Methoden 2.3 Struktur der Arbeit 3 Stealth-Kodierung für die abgesicherte Datennutzung 3.1 Datenkodierung 3.2 Datenverteilung 3.3 Semantische Verknüpfung verteilter kodierter Daten 3.4 Verarbeitung verteilter kodierter Daten 3.5 Zusammenfassung der Beiträge 4 Stealth-Konzepte für zuverlässige Dienste und Anwendungen 4.1 Überblick über Plattformkonzepte und -dienste 4.2 Netzwerkmultiplexerschnittstelle 4.3 Dateispeicherschnittstelle 4.4 Datenbankschnittstelle 4.5 Stromspeicherdienstschnittstelle 4.6 Ereignisverarbeitungsschnittstelle 4.7 Dienstintegration 4.8 Entwicklung von Anwendungen 4.9 Plattformäquivalente Cloud-Integration sicherer Dienste und Anwendungen 4.10 Zusammenfassung der Beiträge 5 Szenarien und Anwendungsfelder 5.1 Online-Speicherung von Dateien mit Suchfunktion 5.2 Persönliche Datenanalyse 5.3 Mehrwertdienste für das Internet der Dinge 6 Validierung 6.1 Infrastruktur für Experimente 6.2 Experimentelle Validierung der Datenkodierung 6.3 Experimentelle Validierung der Datenverteilung 6.4 Experimentelle Validierung der Datenverarbeitung 6.5 Funktionstüchtigkeit und Eigenschaften der Speicherdienstanbindung 6.6 Funktionstüchtigkeit und Eigenschaften der Speicherdienstintegration 6.7 Funktionstüchtigkeit und Eigenschaften der Datenverwaltung 6.8 Funktionstüchtigkeit und Eigenschaften der Datenstromverarbeitung 6.9 Integriertes Szenario: Online-Speicherung von Dateien 6.10 Integriertes Szenario: Persönliche Datenanalyse 6.11 Integriertes Szenario: Mobile Anwendungen für das Internet der Dinge 7 Zusammenfassung 7.1 Zusammenfassung der Beiträge 7.2 Kritische Diskussion und Bewertung 7.3 Ausblick Verzeichnisse Tabellenverzeichnis Abbildungsverzeichnis Listings Literaturverzeichnis Symbole und Notationen Software-Beiträge für native Cloud-Anwendungen Repositorien mit Experimentdate

    Modellierung und Verifikation von verteilten/parallelen Informationssystemen

    Get PDF
    Petri nets are used in many fields as modelling technique. The different usage areas and modelling objectives require different classes of Petri nets. Powerful high level Petri nets and especially coloured Petri nets are well suited for describing behavior of distributed information systems in order to verify and analyse them. Extended coloured Petri nets with structured marks are presented in this work. An example is used in order to demonstrate the analysis and verification steps. This example algorithm is modeled with extended coloured Petri nets (HCPN-ST). It is transformed into coloured Petri nets, in order to simulate, analyse and verify the method with existing software tools. The model is simulated and analysed with PENECA Chromos tool, although it cannot verify all properties, but it allows to interoperate with INA tool. The remainder of the analysis and verification is done in the INA tool. The above mentioned steps are extended and integrated into the complete analysis process and the verification methodology. Finally, the need and motivation for the extension of dynamic approaches modelling for the analysis of distributed information system is elaborated to accomplish the goal of the work. We succeed to validate, that the extended formal method is an effective method to model and analyse distributed information systems.Petrinetze werden in vielen Bereichen als Modellierungstechnik verwendet. Die verschiedenen Einsatzgebiete und Modellierungsziele erfordern mittel unterschiedliche Typen von Petrinetzen. Die höheren Petrinetze eignen sich gut zur Formalisierung des Verhaltens verteilter Informationssysteme zum Zweck der Verifikation und Analyse. Eine Klasse erweiterter gefärbte Petrinetze (HCPN-ST) mit strukturierten Marken wird in dieser Arbeit vorgestellt und am Beispiel erläutert. An diesem konkreten Modell wird die Analyse und Verifikation demonstriert. Das Beispiel-Algorithmenmodell wird in ein CPN transformiert. Der Algorithmus der Transformation wird vorgestellt. Diese Transformation wird durchgeführt, um die erweiterte Methode mit Software -Tools zu analysieren und verifizieren. Mit Peneca Chromos wird das Modell editiert und simuliert und einige Eigenschaften werden analysiert. Die weitere Analyse und Verifikation erfolgt mit dem Tool INA. Es folgt die Erweiterung und Integration in den gesamten Analyseprozess und die Verifikationsmethodik. Abschließend wird die Notwendigkeit und Motivation zur Erweiterung von dynamischen Modellierungsansätzen für die Analyse von verteilten Informationssystemen behandelt und damit die Zielstellung der Arbeit erreicht
    corecore