589 research outputs found

    AQUILA - Quality of Service für IP-Netzwerke

    Get PDF
    Im Zuge sich immer stärker verbreitender Anwendungen und Dienste, die auf Internet- Technologien beruhen, wird eine grundlegende Einschränkung deutlich: Einerseits werden immer vielseitigere und leistungsfähigere Internet-Anwendungen geschaffen, andererseits bauen diese aber auf einer seit langem eingesetzten und bewährten Technologie auf - die des Internet-Protokolls und der darauf aufsetzenden Protokolle, deren Grundlagen vor mehreren Jahrzehnten gelegt wurden. Diese Protokolle entsprechen jedoch nicht mehr allen Anforderungen moderner Kommunikationsanwendungen. Diese teilweise sehr hohen Anforderungen betreffen vor allem die Dienstgüte, die eine Netzwerkinfrastruktur - in unserem Falle das Internet - einer Anwendung individuell zusichem soll. Diese Dienstgüte wird als Quality of Service (QoS) bezeichnet und bezieht sich auf den Durchsatz des Netzwerkes, vor allem aber auf die Antwortzeit, die Schwankungen innerhalb der Antwortzeit und die Fehler- bzw. Verlustrate. Doch im Gegensatz zur neueren Technologien wie ATM1 2 wurde das Internet nicht dazu konzipiert, solche QoS-Merkmale einer Verbindung anzubieten und zuzusichem. Jedweder Verkehr im Internet wird nach dem Prinzip „so gut es geht“ (engl, „best effort“) behandelt, was zu Einschränkungen bei der Benutzbarkeit einiger Anwendungen und Online-Dienste führen kann und auch führt. Ein Beispiel für eine fehlende Ende-zu-Ende-Dienstgüte (d.h. über alle Instanzen des Kommunikationsweges hinweg) ist der Börsengang der Infineon Technologies AG, der große Probleme beim Zugang zu Online-Banking-Diensten verursachte. [... aus dem Text

    Netzwerk-Management und Hochleistungskommunikation XIX. Seminar WS 1998/99

    Get PDF
    Der vorliegende Interne Bericht enthält die Beiträge zum Seminar "Netzwerk-Management und Hochleistungs-Kommunikation", das im Wintersemester 1998/99 zum neunzehnten Mal stattgefunden hat. Die Themenauswahl kann grob in folgende vier Blöcke gegliedert werden: Ein Block ist der Nutzung und Weiterentwicklung des Internet gewidmet. Hier geht es unter anderem um die Nutzung des Internet zur Sprachübertragung (Stichwort voice over IP), neuartige Ansätze zur Dienstgüteunterstützung (Stichwort Differentiated Services) und die Tarifierung benutzter Dienste im Internet. Ein zweiter Block beschäftigt sich mit Problemen der Mobilkommunikation. Die Spanne reicht hier von Routing in Satellitennetzen über Mobile IP und Drahtloses ATM bis hin zu neuartigen Diensten in GSM (Stichworte HSCSD und GPRS). Der dritte Block umfaßt den Themenbereich fortgeschrittener LAN-Technologien. Hier geht es um Zugangstechnologien wie xDSL und V.90 ebenso wie um Gigabit Ethernet und Industrielle Busse. Die Beiträge des vierten Blocks schließlich abstrahieren von den Details der zugrundeliegenden Techniken und beschäftigen sich mit Themen wie der Verwaltung von Netzwerken (Stichwort management by delegation), den Konsequenzen der Liberalisierung des deutschen Telekommunikationsmarkts (Deregulierung) und der Bedeutung virtueller privater Netze (Stichwort VPN)

    Algorithmen zum effizienten Deployment virtueller Netzwerkservices

    Get PDF
    Die Virtualisierung von Netzfunktionen (NFV, Network Function Virtualization) ist ein zentrales Konzept zukünftiger Mobilfunknetze: Statt wie in klassischen Netzen rein auf Hardwarekomponenten zu setzen, deren Logik untrennbar mit der eigentlichen Hardware verwoben ist, wird die Funktionalität in NFV-Netzen innerhalb virtueller Netzwerkfunktionen gekapselt und von der eigentlichen physischen Hardware separiert. Hochspezialisierte Hardwareboxen werden durch viel flexiblere Standardhardware ersetzt, auf der nun unterschiedliche Netzwerkfunktionen installiert werden können. Ein Kernkonzept dabei ist die Integration von Cloud Computing-Technologien innerhalb der Mobilfunk-Kerninfrastruktur: Dies ermöglicht es dem Mobilfunkprovider, die Konfiguration des Netzes viel dynamischer an die sich ständig verändernden Anforderungen des Marktes anzupassen. Sollen neue Netzwerkservices installiert werden, kann dazu ein Großteil der bereits vorhandenen physischen Infrastruktur wiederverwendet werden; die vorhandene Hardware muss nicht komplett ausgetauscht werden. Die Integration neuer Services erfolgt stattdessen durch den wesentlich kosteneffizienteren Austausch von (virtuellen) Netzwerkfunktionen -- und nicht durch Austausch von Hardware. Mobilfunkprovider werden in Zukunft in der Lage sein, viel einfacher und effizienter zusätzliche Netzfunktionen dort zuzuschalten, wo sie gebraucht werden, ohne dass jedes Mal Änderungen an der eigentlichen Hardware-Konfiguration erforderlich werden. Darüber hinaus können Netzfunktionen flexibel auf andere Komponenten migriert werden, wenn Hardwarekomponenten aus wartungstechnischen Gründen temporär oder dauerhaft außer Betrieb genommen werden. Die vorliegende Arbeit befasst sich mit der Thematik, wie sich derartige virtuelle Netzwerkservices innerhalb des physischen Netzwerks der Provider einbetten lassen. Im Mittelpunkt steht die Frage, auf welchen Hardwarekomponenten die verschiedenen (virtuellen) Netzwerkfunktionen installiert werden sollen. Aus theoretischer Sicht ist die optimale Berechnung eines solchen Deployments ein NP-hartes Optimierungsproblem. Optimale Algorithmen zur Lösung dieses Problems sind daher nur in sehr kleinen Szenarien anwendbar. Für die effiziente Lösung im Zusammenhang mit Szenarien realer Größenordnung kommen aus diesem Grund nur heuristische Ansätze in Betracht, die für die Bestimmung eines guten, aber nicht zwingenderweise optimalen Deployments entworfen werden. Die vorliegende Arbeit befasst sich mit der effizienten, heuristischen Lösung dieses NP-harten Deployment-Problems. Es wird zunächst eine Simulationsumgebung beschrieben, die die umfassende Evaluation von Deploymentalgorithmen ermöglicht. Anders als bisherige Simulationstools lässt sich die hier beschriebene Umgebung sehr einfach um neue Funktionen erweitern. Daran anschließend wird ein verteilter Deployment-Algorithmus vorgestellt, der virtuelle Netze innerhalb von Cloud-Infrastrukturen effizient einbetten kann (DPVNE, Distributed and Parallel Virtual Network Embedding). Kernidee hinter diesem Ansatz ist die Aufteilung der physischen Cloud-Infrastruktur in hierarchisch organisierte Netzwerkpartitionen. Dies ermöglicht die parallele Einbettung virtueller Netze. Durch die Verteilung des Berechnungsaufwands auf mehrere Knoten lässt sich das Deployment-Problem auch in Szenarien mit sehr großen Netzwerkinfrastrukturen lösen. Darüber hinaus wird ein Backtracking-basierter Algorithmus vorgestellt, mit dem das Deployment virtueller Netzwerkservices in NFV-Szenarien durchgeführt werden kann (CoordVNF, Coordinated deployment of Virtual Network Functions). In NFV-Szenarien liegt der Fokus auf der Betrachtung der Netzwerkservices, die zur Verarbeitung von Datenströmen innerhalb der Infrastruktur des Mobilfunkproviders installiert werden. Jeder Netzwerkservice besteht dabei aus mehreren (virtuellen) Netzwerkfunktionen, die verschiedene Operationen auf empfangene Daten anwenden und diese dann zur Weiterverarbeitung an andere Netzwerkfunktionen weitergeben. Die genaue Reihenfolge, in der die Datenströme durch die einzelnen Netzwerkfunktionen geroutet werden, ist dabei nicht eindeutig vorgegeben. Anders als in Cloud-Szenarien ist die Struktur der einzubettenden virtuellen Netze also in Teilen flexibel, was zu interessanten neuen, theoretischen Aspekten bzgl. des Deployment-Problems führt. Der CoordVNF-Algorithmus ist als einer der ersten Ansätze in der Lage, solche flexiblen NFV-Netzwerkservices effizient innerhalb der Infrastruktur des Mobilfunkproviders zu platzieren. Im Gegensatz zu bisherigen Verfahren kann CoordVNF auch im Zusammenhang mit größeren Infrastrukturen verwendet werden. Abschließend wird das Deployment ausfallsicherer Netzwerkservices diskutiert. In diesem Kontext wird beschrieben, wie sich die Robustheit eingebetteter NFV-Services durch Reservierung zusätzlicher Backup-Ressourcen erhöhen lässt. Aufbauend auf CoordVNF wird dann ein Deploymentalgorithmus vorgestellt, der in der Lage ist, Einbettungen gegenüber Ausfällen abzusichern (SVNF, Survivable deployment of Virtual Network Functions).Network Function Virtualization (NFV) is being considered as an emerging key technology for future mobile network infrastructures. In classical networks, network functions are tightly bound to specific hardware boxes. In contrast, in NFV networks, (software) functionality is separated from hardware components. Highly specific hardware boxes are being replaced by commodity computing, networking, and storage equipment, offering resources for hosting and running more than just one specific type of network function. One of the key concepts of NFV is the integration of cloud computing technology into the network core: This enables virtual network functions to be installed and deployed where they are needed; additional resources can be dynamically provided in times of high demand, whereas virtual functions can also be consolidated on a smaller hardware setting if demand decreases. NFV enables operators to manage network functions in a much more flexible way, without having the need of instructing technicians to manually reconfigure hardware equipment on-site -- instead, network functions can be deployed and managed remotely. Additionally, for reliability reasons, virtual network functions can be easily migrated to backup resources in case of hardware or software failures. This thesis discusses the question on how those virtual network functions can be efficiently deployed within the physical network infrastructure. From a theoretical perspective, finding the optimal deployment of virtual network services (e.g., in terms of embedding cost) is known as a NP-hard optimization problem. In this context, the thesis introduces heuristic approaches for solving the deployment problem. To this end, first, an extensible simulation framework is discussed which enables researchers to thoroughly evaluate both existing and novel deployment algorithms. Second, a distributed algorithm (DPVNE) is presented for embedding virtual networks into a shared physical cloud infrastructure. Here, the main idea is to partition the physical network into several smaller, non-overlapping network regions. Embeddings in those network partitions can then be performed in parallel: Computational efforts can be spread to multiple distributed nodes. This way, solving this NP-hard optimization problem becomes feasible even in large-scale network scenarios where virtual network deployment requests arrive continuously. Third, a backtracking-based algorithm (CoordVNF) is presented in this thesis for the deployment of virtual network functions in NFV scenarios. In contrast to cloud scenarios, in NFV scenarios, the exact chaining of network functions is not always predefined: In fact, the same network service can be provided by several chainings of network functions. The first embedding algorithm presented here aims to deploy those flexible virtual network services in a cost- and time-efficient way, even in large-scale scenarios. Finally, the thesis discusses the deployment of resilient NFV services; in this context, an extension of the CoordVNF algorithm is presented that allocates additional backup resources for protecting network services from failures

    Netzwerkmanagement und Hochgeschwindigkeits- Kommunikation. Teil XVIII. Seminar SS 98

    Get PDF
    Der vorliegende Interne Bericht enthält die Beiträge zum Seminar "Netzwerk-Management und Hochgeschwindigkeits-Kommunikation", das im Sommersemester 1998 zum achtzehnten Mal stattgefunden hat. Die Themenauswahl kann grob in folgende 3 Blöcke gegliedert werden: 1. Der erste Block ist Fragen der effizienten Kommunikation mittels ATM (Asynchronous Transfer Mode) gewidmet. Dabei stehen Vorschläge für eine Verbesserung der Handhabung von Gruppenkommunikation sowie Verfahren für sogenannte parallele Pfade im Vordergrund. Ein weiterer Beitrag in diesem Block erläutert ein integriertes Modell zur benutzergerechten Unterstützung der Dienstgüte in ATM-Netzen. Weiterhin wird eine Technik vorgestellt, um IP-basierte Kommunikation mittels ATM-Switching effizienter zu gestalten. 2. Ein zweiter Block behandelt Verfahren zur Unterstützung der Dienstgüte im IP basierten Internet. Ein Ansatz beschäftigt sich mit der Problematik, dienstgü- teunterstützende Mechanismen auch im LAN-Bereich zur Verfügung zu stellen. Ein weiterer Ansatz definiert Konzepte, um eine möglichst einfach und schnell zu realisierende Unterstützung von Diensten mit unterschiedlicher Charakteristiken zu erreichen. 3. Der dritte Block umfasst den Themenbereich Sicherheit im Internet. Es werden mehrere Protokolle vorgestellt und verglichen, die zur Schlüsselverwaltung in der IP-Sicherheitsarchitektur dienen

    Konzeption und Entwicklung einer Webservice Schnittstelle für ein Prozessmanagementsystem

    Get PDF
    Ziel von Unternehmen ist es die Effektivität und Effizienz ihrer Geschäftsprozesse zu steigern und somit Verwaltungskosten zu senken. Deshalb ist die Betrachtung dieser Geschäftsprozesse und deren Strukturierung, Analyse und Optimierung ein wichti- ges Ziel. Diese Optimierungen können mithilfe von Prozessmanagement durchgeführt und unterstützt werden. Prozessmanagementsysteme, die den Lebenszyklus von Ge- schäftsprozessen unterstützen und eine automatisierte Ausführung von Tätigkeiten ermöglichen, sind hierbei eine wichtige Technologie. Damit eine Integration dieser Syste- me und die Kommunikation zwischen vorhanden Informationssystemen und denselben implementiert werden kann, muss eine geeignete Schnittstelle vorhanden sein. In dieser Arbeit wird ein Konzept einer generischen Webservice Schnittstelle zur Kommu- nikation zwischen beteiligten Informationssystemen und Prozessmanagementsystemen erstellt. Dabei bietet die Webservice Schnittstelle eine standardisierte Vorgehensweise zur Kommunikation in Verbindung mit einer einheitlichen Repräsentation der zu über- mittelnden Daten an. Des Weiteren wird ein Mechanismus vorgestellt, mit dem die jeweiligen Informationssysteme ohne Schnittstellenveränderung ausgetauscht werden können. Zudem wurde eine prototypische Implementierung der Webservice Schnittstelle sowie ein Java Client für diese entwickelt

    Orts-, zeit- und kostenbasiertes Ressourcenmanagement im Cloud Computing

    Get PDF
    Cloud Computing bietet dem Nutzer die Möglichkeit, virtualisierte Applikationen, Plattformen und sogar Hardware wie Dienste zu nutzen. Der bereitstellende Provider kann die nötige Dienstkapazität in der Cloud elastisch an den aktuellen Bedarf anpassen. Durch die beliebige Ressourcenzuschaltung erwächst jedoch eine erhebliche ökologische und ökonomische Verantwortung. Zudem wird meist teuer überprovisioniert, um im Falle von Lastspitzen das Ablehnen von Anfragen zu vermeiden. Bis heute bietet noch kein Anbieter eine voll automatisierte Lösung zum optimalen Ressourcenmanagement an. Zur Gewährleistung der Skalierbarkeit eines Cloud-basierten Systems bestehen lediglich regelbasierte Mechanismen. Der Nutzer muss die Logik manuell einstellen, um die benötigte Anzahl an Maschinen und ihre Lokalität festzulegen. So sind viele Fragen zu der Ressourcenverwaltung und den entstehenden Kosten für den Cloud-Anwender ungelöst. In dieser Arbeit wird ein Protokoll entwickelt, das eine verbesserte Reihenfolge der Anfragenbearbeitung festlegt und die nötige Ressourcenmenge bestimmt. Die Ressourcenzuteilung basiert zum einen auf der Bedarfsreservierung durch die Ressourcen. Zum anderen kann das Nutzungsverhalten durch den Dienst beeinflusst werden. Die Simulationsergebnisse zeigen so stark reduzierte Antwortzeiten und Verwurfsraten. Im Cloud-Umfeld ist die effiziente Bearbeitung der Anfragen allerdings häufig aufgrund von Abhängigkeiten zwischen den dienstbetreibenden Maschinen beeinträchtigt. Deshalb wird das Protokoll um einen Selbstkalibrierungsmechanismus und ein Ressourcenregelverfahren erweitert. Mit der Abbildung der Abhängigkeiten auf einen Graphen ist das Gesamtsystem skalierbar, ohne die Auslastung aller Ressourcen einzeln kontrollieren zu müssen. Vom menschlichen Benutzer kann man jedoch keine Vorabreservierung bezüglich des Zeitpunkts seiner Dienstnutzung fordern - so wie das von Maschinen problemlos möglich ist. Für diesen Fall ermöglicht die vorliegende Arbeit deshalb die Extrapolation der Nutzerdaten aus Aufzeichnungen sozialer Netzwerke. Ohne Belastung der Anwender wird die Identifikation des Ressourcenbedarfs an einem bestimmten Ort realisiert. Für eine solche Systemadaption führt der in dieser Arbeit entworfene Algorithmus eine ortsspezifische Vorhersagende der nötigen Ressourcenanzahl durch. Diese Informationen dienen als Input für das entwickelte Protokoll und bieten so eine wohlproportionierte Provisionierung. Die bei Skalierungen entstehenden Kosten sind meist schwer abzuschätzen. Aus diesem Grund werden im Verlauf dieser Arbeit Kostenfunktionen für den Nutzer und den Anbieter erstellt. Sie machen das optimale Mittel zwischen geringeren Kosten bei niedriger Ressourcenmenge und höherer Nutzerzufriedenheit bei großzügiger Kapazitätsabdeckung berechenbar. Eine prototypische Umsetzung einschließlich verschiedener Simulationen zeigt, dass die entwickelten Ansätze ein deutlich verbessertes automatisiertes Ressourcenmanagement umsetzen.Cloud computing offers the possibility to use virtual applications, platforms and even hardware as a service. The cloud provider can elastically adapt resource capacity to the users' demand. However, from any desired resource provisioning also an enormous ecological and economical responsibility accrues. Besides, often costly overprovisioning is conducted in order to avoid request drops on load peaks. Until today, instance allocation is not yet fully automated by vendors. Only rule-based mechanisms exist to react on load changes. The user needs to manually implement logics for defining the amount of resources, as well as the instance location. Hence, many questions about resource management and emerging costs remain. In this work, a protocol is developed, which defines an optimal schedule for all clients and needed resources. The resource management is based on the demand reservation by the user. On the other hand the client usage can be delayed by the cloud service. The simulation shows good results regarding response times and drop rates. Efficient scheduling in cloud systems, however, is often restricted by dependencies among the claimed resources. For that reason, the protocol was extended by a self-calibration- and a resource-regulation-method. With an appropriate mapping, it is possible to scale the whole system based on the dependency model without observing each instance utilization. Human users can - contrary to machines - not be forced to determine their service usage in advance. By extrapolating records of the social Web, resource demands can be procured without burden the user. With this data, increasing load on popular services at a specific location can be deducted and resources can be scaled accordingly. For system adaptation, the algorithm presented in this work enables location-based determination of required resource amounts. This serves as input for the developed protocol, while offering well-proportioned provisioning. On scaling, generally emerging costs are difficult to estimate. For that reason cost functions for users and providers are developed. This enables the finding of an optimized trade-off between low emerging costs and a high user satisfaction. Proven by prototypical implementation and simulations, all developed approaches enable an optimized and automated resource management

    Eine Untersuchung kommerzieller Terminverwaltungs-Software im Hinblick auf die Kopplung mit natürlichsprachlichen Systemen

    Get PDF
    Das Projekt COSMA (Cooperative Schedule Management Agent) verfolgt das Ziel, einen maschinellen Sekretariatsassistenten zu erstellen, der Termine mit mehreren Teilnehmern über elektronische Post in natürlicher Sprache weitgehend selbständig vereinbart. COSMA stellt natürlichsprachlichen Service für autonome maschinelle Terminplanungs-Agenten zur Verfügung. Eine Anbindung an unterschiedliche kommerzielle Softwareprodukte zur Terminverwaltung könnte die Generalisierbarkeit der in COSMA verfolgten Ansätze nachhaltig plausibel machen. In der hier dokumentierten Untersuchung wurden im Zeitraum März bis Mai 1995 auf dem deutschen Markt befindlichen Produkte untersucht und bewertet. Einige ermöglichen den Zugang zu ihren Termindaten über eine allgemeine Programmierschnittstelle; doch keines stellt Agentenfähigkeit zur Verfügung: Alle Planungs-und Entscheidungsvorgänge bleiben dem Benutzer überlassen. Eine Einbindung in COSMA ist in vielen Fällen technisch möglich, aber erst nach Entwicklung und Einbindung geeigneter Agentensysteme sinnvoll.The project COSMA (Cooperative Schedule Management Agent) is developing a machine secretarial assistent, that can autonomously schedule appointments with several participants via electronic mail in natural language. COSMA provides natural language service for autonomous appointment scheduling machine agents. Adaptation of different commercial software products for appointment management could support the claim of generality of the approaches pursued within COSMA. The study described in this document includes products available on the German market between March and May 1995. Some allow access to their appointment data via an application program interface, but no one provides any agent functionality; i.e. all planning and decision making is left to the user. For some systems, adaptation to COSMA is possible technically, but seems meaningful only after developing and adapting suitable agent systems

    Architektur des Oracle Application-Server 4.0.8 und seine Einsatzmöglichkeiten für HTTP-, EJB- und CORBA-Anwendungen

    Get PDF
    Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen

    Netzwerk-Management und Hochgeschwindigkeits- Kommunikation. Teil XVI. Seminar SS 1997

    Get PDF
    Der vorliegende Interne Bericht enthält die Beiträge zum Seminar "Netzwerk-Management und Hochgeschwindigkeits-Kommunikation", das im Sommersemester 1998 zum achtzehnten Mal stattgefunden hat. Die Themenauswahl kann grob in folgende 3 Blöcke gegliedert werden: 1. Der erste Block ist Fragen der effizienten Kommunikation mittels ATM (Asynchronous Transfer Mode) gewidmet. Dabei stehen Vorschläge für eine Verbesserung der Handhabung von Gruppenkommunikation sowie Verfahren für sogenannte parallele Pfade im Vordergrund. Ein weiterer Beitrag in diesem Block erläutert ein integriertes Modell zur benutzergerechten Unterstützung der Dienstgüte in ATM-Netzen. Weiterhin wird eine Technik vorgestellt, um IP-basierte Kommunikation mittels ATM-Switching effizienter zu gestalten. 2. Ein zweiter Block behandelt Verfahren zur Unterstützung der Dienstgüte im IP basierten Internet. Ein Ansatz beschäftigt sich mit der Problematik, dienstgü- teunterstützende Mechanismen auch im LAN-Bereich zur Verfügung zu stellen. Ein weiterer Ansatz definiert Konzepte, um eine möglichst einfach und schnell zu realisierende Unterstützung von Diensten mit unterschiedlicher Charakteristiken zu erreichen. 3. Der dritte Block umfasst den Themenbereich Sicherheit im Internet. Es werden mehrere Protokolle vorgestellt und verglichen, die zur Schlüsselverwaltung in der IP-Sicherheitsarchitektur dienen

    Kommunikation und Bildverarbeitung in der Automation

    Get PDF
    In diesem Open-Access-Tagungsband sind die besten Beiträge des 9. Jahreskolloquiums "Kommunikation in der Automation" (KommA 2018) und des 6. Jahreskolloquiums "Bildverarbeitung in der Automation" (BVAu 2018) enthalten. Die Kolloquien fanden am 20. und 21. November 2018 in der SmartFactoryOWL, einer gemeinsamen Einrichtung des Fraunhofer IOSB-INA und der Technischen Hochschule Ostwestfalen-Lippe statt. Die vorgestellten neuesten Forschungsergebnisse auf den Gebieten der industriellen Kommunikationstechnik und Bildverarbeitung erweitern den aktuellen Stand der Forschung und Technik. Die in den Beiträgen enthaltenen anschaulichen Beispiele aus dem Bereich der Automation setzen die Ergebnisse in den direkten Anwendungsbezug
    corecore