244 research outputs found

    Hochdynamische logische Netzwerke als Infrastruktur mobiler Agentensysteme

    Get PDF
    Zur sinnvollen Planung ihre Route durch das Internet benötigen mobile Agenten aktuelle Dienstinformationen aus ihrer global verteilten Infrastruktur. Heutige Netzwerke sind allerdings durch die Verwendung von mobilen Endgeräten hochdynamisch geworden, daher skaliert die Frequenz und die Anzahl von nötigen Aktualisierungsnachrichten in globalen logischen Netzwerken nicht mit der Menge der möglichen Dienstangebote. Diese Arbeit konzentriert sich auf die Verteilung, Aktualität und Skalierbarkeit von Dienstinformationen in einem globalen logischen Netzwerk unter Berücksichtigung der Zeitschranken, die von mobilen Endgeräten hervorgerufen werden. Die präsentierte Lösung besteht aus einer Architektur aus drei Infrastrukturdiensten, deren Referenzimplementierung das Infrastrukturdienst-Framework QuickLinkNet darstellt. Dieses baut ein transparentes, zweischichtiges logisches Netzwerk auf, welches als serviceorientierte Infrastruktur für mobile Agentensysteme dient, aber auch für andere verteilte Anwendungen in hochdynamischen Netzwerken verwendet werden kann.In so-called level 2 mobile agent systems, mobile agents are able to plan their route through that network themselves, based on relevant service descriptions and by using dedicated routing services. But today's networks are highly dynamic, since people use mobile devices, and very large in scale. Current infrastructure frameworks are not scaling with the potential number of service descriptions, cannot map the dynamics in the network, and have severe problems with the frequency and number of messages necessary to maintain such an infrastructure. The thesis presented in this paper focuses on exactly this problem of conflicting goals, trying to map scalability (quantity) and flexibility (dynamics) into a unified solution framework. Thereby, timing bounds caused by using mobile devices are the major focus of attention. This leads to a software architecture that comprises of three components. QuickLinkNet implements the achitecture and forms a framework of components, consists of QuickLink, Service-Juggler, and APPLICOOVER. The QuickLinkNet components establish a transparent, logical two-tiered network which can be used as a service-oriented infrastructure for mobile agent systems of level 2 and for other distributed applications in highly dynamic networks as well

    Peer-to-Peer-Technologie in der Automatisierung

    Get PDF
    Peer-to-Peer (P2P)-Technologie hat sich seit ihrem ursprünglichen Einsatz für das Filesharing weiterentwickelt und Einzug in neue Einsatzgebiete erhalten. Die positiven Eigenschaften der P2P-Technologie sind die hohe Flexibilität, Skalierbarkeit und Ausfallsicherheit. Ob P2P-basierte Anwendungen auch für den Einsatz im Umfeld der industriellen Automatisierung sinnvoll sind, wurde in dieser Arbeit untersucht. Das im Laufe dieser Arbeit entstandene Verfahren HaRTKad mit seinem für das Umfeld neuen Netzwerkparadigma erfüllt diese Anforderungen, womit es sich in diesem Umfeld einsetzen lässt

    Entwurf eines Frameworks für CTI-Lösungen im Call Center

    Get PDF
    Besonders in Call Centern spielt die unter dem Begriff CTI (Computer Telephony Integration) zusammengefasste Integration von IT-Systemen und Telefonanlagen eine wichtige Rolle. Wenn auch diese Integration auf technischer Ebene in der Regel zufriedenstellend gelöst wird, zeigt ein Blick auf die Softwareentwicklung in diesem Bereich noch Nachholbedarf. Die vorliegende Arbeit greift dieses Problem auf und versucht, den Ansatz CTI auf die Ebene der Entwicklung verteilter Anwendungen abzubilden. Ziel dabei ist es, Erkenntnisse darüber zu erzielen, inwieweit ein allgemeines Basismodell als Framework für die Entwicklung von CTI-Anwendungen definiert werden kann und welchen Mehrwert es mit sich bringt. Parallel dazu wird die Frage untersucht, inwieweit bewährte Methoden und Technologien verteilter Systeme auf diesem Spezialgebiet ihre Anwendung finden können. Dazu wird ein allgemeines Anwendungsmodell für CTI-Lösungen und darauf aufbauend ein objektorientiertes, verteiltes Framework entworfen. Das Framework selbst wird als Prototyp implementiert und diversen Leistungsmessungen unterzogen.Computer Telephony Integration (CTI) plays an important role wherever computer and telecommunication systems have to interact. Applications in a call center are typical examples. This integration has been studied widely from a technical viewpoint only, but not at the level of application development. Since telecommunication systems are naturally distributed systems, CTI eventually leads to distributed applications. This thesis presents an example of a general, object-oriented framework for CTI applications and examines the use of proven technologies and methodologies for distributed applications. Based on a prototype implementation the practicability of the concept is being examined and verified

    Intercloud-Kommunikation für Mehrwehrtdienste von Cloud-basierten Architekturen im Internet of Things

    Get PDF
    Das Internet of Things (IoT) ist aktuell ein junger Wachstumsmarkt, dessen Bedeutung für unsere Gesellschaft in naher Zukunft vielen Menschen erst noch wirklich bewusst werden wird. Die Subdomänen Smart-Home, Smart-Grid, Smart-Mobility, Industrie 4.0, Smart-Health und viele mehr sind wichtig für unsere zukünftige Wettbewerbsfähigkeit, die Herausforderungen zur Bewältigung des Klimawandels, unsere Gesundheit, aber auch für trivialere Dinge wie Komfort. Andererseits ergibt sich hierbei bereits dasselbe große Problem, das in einer ähnlichen Form schon bei klassischem Cloud-Computing bekannt ist: Vendor-Silos, die keinen hersteller- oder anbieterübergreifenden Austausch von Gerätedaten ermöglichen, verhindern eine schnelle Verbreitung dieser neuen Technologie. Diensteanbieter müssen ihre Produkte aufwendig für unzählige Technologien bereitstellen, was die Entwicklung von Diensten unnötig teuer macht und letztendlich das Dienstangebot insgesamt einschränkt. Cloud-Computing wird dabei in Zukunft eine wichtige Rolle spielen. Die Dissertation beschäftigt sich daher mit dem Problem IoT-Gerätedaten an IoT-Clouds plattformübergreifend und anbieterübergreifend nutzbar zu machen. Die Motivation und die adressierte Forschungslücke zeigen die Notwendigkeit der Beschäftigung mit dem Thema auf. Ausgehend davon, wird das Konzept einer dezentral organisierten IoT-Intercloud vorgeschlagen, welches in der Lage ist heterogene IoT-Clouds zu integrieren. Die Analyse des Standes der Technik zeigt, das IoT-Clouds genügend Eigenschaften teilen, um in Zukunft eine Adaption zu einer einheitlichen Schnittstelle für die IoT-Intercloud zu schaffen. Das Konzept umfasst zunächst die Komponentenarchitektur eines Intercloud-Brokers zur Etablierung einer IoT-Intercloud. Ausgehend davon wird in vertiefenden Teilkonzepten ein Discovery-Service zum Finden von Gerätedaten und einem Push-Stream-Provider, für die Zustellung von IoT-Event-Notifications in Echtzeit, behandelt. Eine Evaluation zeigt letztlich die praxistaugliche Realisierbarkeit, Skalierbarkeit und Performance der Konzeption und des implementierten Prototyps.:1 Einleitung 1.1 Problemstellung und Motivation 1.2 Ziele der Dissertation 1.2.1 Thesen 1.2.2 Forschungsfragen 1.3 Aufbau der Dissertation 2 Grundlagen zu Cloud-Computing im Internet of Things 2.1 Definition von Cloud-Computing 2.1.1 Generelle Eigenschaften 2.1.2 Architekturschichten 2.1.3 Einsatzformen 2.2 Internet of Things 2.2.1 Middleware im IoT 2.3 Architekturen verteilter Systeme zur Bereitstellung der IoT-Middleware 2.3.1 Geräte-zentrische IoT-Architektur 2.3.2 Gateway-zentrische IoT-Architektur 2.3.3 Cloud-zentrische IoT-Architektur 2.3.4 Zusammenfassung 2.4 Eigenschaften von verteilten Event-basierten Systemen 2.4.1 Interaktionsmodelle 2.4.2 Filtermodelle von Subscriptions 2.4.3 Verteiltes Notfication-Routing 2.5 Discovery im IoT 2.5.1 Grundlegende Begrifflichkeiten 2.5.2 Topologien von Discovery-Services 2.5.3 Funktionale Anforderungen für Discovery-Services im IoT 2.5.4 Ausgewählte Ansätze von Discovery-Services im IoT 3 Stand der Technik 3.1 Device-as-a-Service-Schnittstellen von IoT-Clouds 3.1.1 Gerätedatenmodell 3.1.2 Datenabruf mit Pull-Semantik 3.1.3 Datenabruf mit Push-Semantik 3.1.4 Steuerung von Gerätedaten 3.1.5 Datenzugriff durch Drittparteien 3.2 Analyse der DaaS-Schnittstellen verschiedener IoT-Clouds 3.2.1 Google Nest 3.2.2 Samsung Artik 3.2.3 AWS IoT 3.2.4 Microsoft Azure IoT Suite 3.2.5 Kiwigrid IoT-Plattform 3.2.6 Digi Device Cloud 3.2.7 DeviceHive 3.2.8 Eurotech Everyware Cloud 3.3 Zusammenfassung und Diskussion des Standes der Technik 4 Intercloud-Computing für das IoT 4.1 Intercloud-Computing nach Toosi 4.1.1 Ansätze zur Interoperabilität 4.1.2 Szenarien zur Cloud-übergreifenden Interoperabilität 4.1.3 Herausforderungen für Komponenten 4.2 Intercloud-Computing nach Grozev 4.2.1 Klassifikation der Architekturen 4.2.2 Klassifikation des Brokering-Mechanismus 4.2.3 Klassifikation verteilter Cloudanwendungen 4.3 Verwandte Arbeiten 4.3.1 Intercloud-Architekturen außerhalb der IoT-Domäne 4.3.2 Intercloud-Architekturen für das IoT 4.4 Analyse der verwandten Arbeiten 4.4.1 Systematik zur Bewertung 4.4.2 Bewertung und Abgrenzung 5 Anforderungsanalyse 5.1 Akteure in einer IoT-Intercloud 5.1.1 Menschliche Akteure 5.1.2 Systemakteure 5.2 Anwendungsfälle 5.2.1 Anwendungsfälle von IoT-Diensten 5.2.2 Anwendungsfälle von IoT-Clouds 5.2.3 Anwendungsfälle von IoT-Geräten 5.2.4 Anwendungsfälle von Intercloud-Brokern 5.3 Anforderungen 5.4 Ausschlusskriterien 6 Intercloud-Architektur für das IoT 6.1 Systemmodell einer IoT-Intercloud 6.1.1 IoT-Datenmodell für die Intercloud 6.1.2 Etablierung einer Vertrauensbeziehung zwischen zwei Clouds 6.2 Komponentenarchitektur des Intercloud-Brokers 6.2.1 Service-Connector, IC-DaaS-IF und Service-Protocol 6.2.2 Intercloud-Proxy, ICC-IF und Protokoll 6.2.3 Cloud-Adapter und IC-DaaS-Adapter-IF 6.3 Zusammenfassung 7 Verteilter Discovery-Service 7.1 Problembeschreibung 7.1.1 Topologie des Discovery-Service 7.2 Einfache Cloud-Discovery mit Broadcasting-Weiterleitung 7.2.1 Schnittstelle und Protokoll des einfachen Discovery-Service 7.2.2 Diskussion des einfachen Discovery-Service 7.3 Cloud-Discovery mit Geräteverzeichnis und Multicast-Weiterleitung 7.3.1 Geeignete Geräteinformationen für das Verzeichnis 7.3.2 Struktur und Schnittstelle des Verzeichnisses 7.3.3 Verzeichnissynchronisation und erweitertes Protokoll 7.4 Zusammenfassung beider Ansätze des Discovery-Service 8 Verteilter Push-Stream-Provider 8.1 Verteilter Push-Stream-Provider im Modell des Broker-Overlay-Netzwerks 8.2 Verteilter Push-Stream-Provider mit einfachem Routing-Modell 8.2.1 Systemmodell 8.2.2 Integration der Subkomponenten in die verteilte ICB-Architektur 8.3 Redundanz und Redundanzvermeidung des Push-Stream-Providers 8.3.1 Beschreibung des Redundanzproblems und des Lösungsansatzes 8.3.2 Lösungsansatz 8.4 Verteilter Push-Stream-Provider mit vereinigungsbasiertem Routing-Modell 8.4.1 Erkennen von ähnlichen Filtern 8.4.2 Konstruktion eines Vereinigungsfilters 8.4.3 Rekonstruktion der Datenströme 8.4.4 Komponente: Merge-Controller 8.4.5 Komponente: Stream-Processing-Engine 8.4.6 Integration in die bisherige Architektur 8.4.7 Diskussion des Ansatzes zur Redundanzvermeidung 8.5 Zusammenfassung zum Konzept des Push-Stream-Providers 9 Evaluation 9.1 Prototypische Implementierung der Konzeptarchitektur 9.1.1 Intercloud-Broker 9.1.2 IoT-Cloud und IoT-Geräte 9.1.3 IoT-Dienste 9.1.4 Grenzen des Prototyps und Fokus der experimentellen Evaluation 9.2 Aufbau der Evaluationsumgebung 9.3 Experimentelle Untersuchung der prototypischen Implementierung des Konzepts 9.3.1 Ermittlung einer Performance-Baseline 9.3.2 Experiment 1: Performance bei variabler Nachrichtengröße und Nachrichtenanzahl 9.3.3 Experiment 2: Performance bei multiplen Subscriptions 9.3.4 Experiment 3: Ermittlung des maximalen Durchsatzes und Skalierbarkeit des ICB 9.3.5 Experiment 4: Effizienzvergleich zwischen einfachem und vereinigungsbasiertem Routing 9.4 Zusammenfassung und Diskussion der Evaluation 10 Zusammenfassung 10.1 Beiträge der Dissertation 10.2 Ausblick A Abbildungen B Tabellen Inhaltsverzeichnis C Algorithmen D Listings Literaturverzeichni

    Analyse der Sicherheit und der automatisierten Bereitstellung eines On-Premises-Clusters auf der Grundlage der Container-basierten Virtualisierung: Kubernetes im Wissenschaftsbetrieb

    Get PDF
    Diese Ausarbeitung beschäftigt sich mit dem vielschichtigen Themenkomplex der Container-Technologien sowie der Bereitstellung von On-Premises-Clustern und den dort platzierten Software-Anwendungen. Das Ziel besteht darin eine skalierbare Container-Infrastruktur im Rechenzentrum des AWIs und innerhalb des organisationsübergreifenden HIFIS-Projektes zu entwerfen. Dabei sind von besonderer Bedeutung die sichere und möglichst automatisierbare Gestaltung aller notwendigen Interaktionsplattformen (Image Registry, Cluster Management, Self-Service Portal, CI / CD Pipelines). In der Domäne der Container-Technologien spielen der Microservice-Architekturstil, die Container-Virtualisierung sowie -Orchestrierung eine entscheidende Rolle, um einer konsistenten Bereitstellungsplattform für Cloud Native-Anwendungen und der vermehrten DevOps-Prozesse in der Software-Entwicklung gerecht zu werden. Konkret realisiert werden diese aufgezeigten Aspekte durch den Einsatz von Kubernetes und Docker in einem Cluster-Verbund. Für die Analyse der Informationssicherheit dieser Container-Infrastruktur wurden Maßnahmen des BSI aus dem IT-Grundschutz (Baustein: SYS.1.6: Container) und das abstrakte 4-Schichtenmodell "The 4C’s of Cloud Native Security" herangezogen. In diesem Zusammenhang wurde auch die Automatisierung und die Entwicklung der Rechenzentren hin zu SDDCs in Folge der stetig anhaltenden digitalen Transformation thematisiert. Letztendlich erfolgte die Realisierung der Infrastruktur vollständig in der zugrunde liegenden VMware vSphere-Umgebung mit diesen gewählten Interaktionsplattformen: Harbor als Image Registry, Rancher mit RKE als Cluster Management, die VMware vRealize Suite (vRA, vRO) als Self-Service Portal und GitLab als CI / CD Pipeline. Für die anschließende Sicherheitsbewertung der umgesetzten Maßnahmen in den bereitgestellten K8s-Clustern, wurde die anerkannte CIS Kubernetes Benchmark herangezogen und zufriedenstellend bestanden. Zudem wurden qualitative Aussagen der Nutzerschaft bzgl. der Verwendbarkeit durch eine interaktive Umfrage ermittelt. Obwohl sich im Zuge der Evaluation noch weitere Maßnahmen im vielfältigen und komplexen Bereich der Container-Technologien angekündigt haben, konnte ein relativ stabiles Kubernetes-Umfeld mit den benannten Infrastruktur-Komponenten für den Wissenschaftsbetrieb am AWI und den organisationsübergreifenden Austausch im HIFIS-Projekt erfolgreich realisiert werden

    Klausurtagung des Instituts für Telematik. Mainz 29.-31. März 1998

    Get PDF
    Der Bericht gibt einen Überblick über aktuelle Forschungsarbeiten des Instituts für Telematik der Universität Karlsruhe in den Bereichen Hochleistungskommunikation, verteilte Systeme, Cooperation&Management und Telekooperation. Er ist in zwei Teile gegliedert. Der erste beschreibt die persönlichen Interessensgebiete der wissenschaftlichen Mitarbeiter. Danach folgt eine Darstellung der Kooperationsprojekte des Instituts. Im Anhang finden sich aktuelle Eigenveröffentlichungen der Mitarbeiter des Instituts. Der Tagungsband entstand im Rahmen der siebten Klausurtagung des Instituts für Telematik, die vom 29. bis zum 31. März 1998 in Mainz abgehalten wurde

    Konzept zur Modularisierung von Komponenten des Digitalen Prozesszwillings

    Get PDF
    Digitale Prozesszwillinge (DPTs) sind vernetzte Software-Systeme im Industrie-4.0-Kontext, die Produktionsprozesse digital abbilden, überwachen und steuern. Damit können Produktivitätssteigerungen erzielt und Wertschöpfungsketten flexibilisiert werden. Allerdings kann der Betrieb von DPTs zu sehr hohen Anforderungen an die ausführende Rechenressource führen. Zu diesen Anforderungen gehören eine hohe und variable benötigte Rechenleistung, Zuverlässigkeit und Ausfallsicherheit. Diese können mit monolithischen DPT-Architekturen nicht immer ausreichend erfüllt werden. Außerdem sind monolithische DPTs schwer wartbar, da einzelne Teile nur umständlich ersetzt werden können. Wenige wissenschaftliche Arbeiten befassten sich aber bisher mit nicht-monolithischen Digitalen Zwillingen. Der Aufbau eines DPT in modularer statt monolithischer Architektur verspricht eine längere Lebensdauer durch bessere Wartbarkeit und Austauschbarkeit der DPT-Komponenten. Außerdem lassen sich die Module mittels Software-Virtualisierung durch Container von der physischen Hardware trennen und so flexibel zwischen beliebigen Hosts bewegen. Diese Portabilität erlaubt die horizontale Skalierung des DPT, Ausfalltoleranz sowie eine Auslagerung von Modulen in die Cloud. Austauschbarkeit und Wiederverwertbarkeit der Module sowie Portabilität der Container-Technologie ermöglichen zudem ein herstellerübergreifendes Ökosystem für den DPT. In dieser Arbeit werden die Komponenten eines DPT modularisiert und containerisiert. Es wird eine Architektur für diesen containerisierten, modularisierten DPT (CMDPT) geschaffen, welche insbesondere die benötigte Infrastruktur für den Betrieb spezifiziert. Das Konzept wird in einer prototypischen Implementierung umgesetzt. Die Validierung des Konzepts zeigt, dass der CMDPT neue Anwendungsgebiete für den DPT schafft, die zugrundeliegenden Technologien aber in Hinsicht Echtzeit und Latenz noch nicht ausgereift sind

    Verteilte Nutzungskontrolle und Provenance Tracking am Beispiel von Cloud-Technologien

    Get PDF
    In den letzten Jahrzehnten haben sich Daten zu einem der wertvollsten Rohstoffe entwickelt. Im Zuge dessen werden Forderungen nach einem transparenten und kontrollierbaren Umgang mit Daten immer lauter. Nutzungskontrolle und Provenance Tracking sind Konzepte, mit denen diese Forderungen umgesetzt werden können. Nutzungskontrolle ergänzt hierzu die Zugriffskontrolle um den Umstand, dass die Nutzung von Daten – auch nachdem sie verbreitet wurden – kontrolliert werden kann. Provenance Tracking dient hingegen zur Bestimmung der Herkunft eines Datums. Das für Nutzungskontrolle und Provenance Tracking notwendige Fundament – die Infrastruktur - könnte hierbei durch Cloud-Technologien, wie Kubernetes, bereitgestellt werden. Dahingehend bietet diese Arbeit einen Überblick über den aktuellen Forschungsstand zu Nutzungskontrolle und Provenance Tracking. Dies umfasst insbesondere mögliche Bezüge zum Themengebiet Cloud Computing und aktuelle Forschungsprojekte, wie International Data Spaces (IDS) und deren Referenzarchitektur. Des Weiteren wird ein grundlegendes Verständnis für den Begriff Cloud geschaffen. Im Besonderen wird auf die Aspekte Sicherheit und Recht im Kontext von Cloud Computing eingegangen. Schlussendlich werden die dadurch gewonnen Erkenntnisse zur Ausbringung einer prototypischen Nutzungskontroll- sowie Provenance sammelnden Infrastruktur genutzt. Die Cloud-Technologie Kubernetes sowie hierfür entwickelte Dummy-Komponenten der Referenzarchitektur bilden das Fundament dieser Infrastruktur. Die Modellierung und Implementierung ist daraufhin Gegenstand einer Evaluation und Diskussion mit Fokus auf operativen und sicherheitsrelevanten Aspekten

    Grid Computing und Peer-to-Peer Systeme. Seminar SS 2004

    Get PDF
    Im Sommersemester 2004 wurde im Seminar "Grid Computing und Peer-to-Peer Systeme" eine Reihe aktueller Themen aus den Grid Computing, Peer-to-Peer Systeme und Ad-Hoc Netzwerkem Gebieten angeboten. Jeder Teilnehmer wählte hieraus ein Thema, um darüber in der Form eines medial gestützten Vortrages zu referieren. Um allen Teilnehmern die Gelegenheit zu geben, aus diesem Seminar nachhaltig etwas mitzunehmen, fertigte jeder Vortragende eine allen zugängliche schriftliche Ausarbeitung an. Die Ausarbeitungen finden sich in leicht redigierter Fassung durch die Editoren im vorliegenden technischen Bericht wieder
    corecore