32 research outputs found

    Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen

    Get PDF
    Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei­ bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-­Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-­Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu­ sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge­ setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se­ quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub-­ und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-­, anwendung-s­ und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen­ setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub-­ und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem­) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations­ verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und Schnittstellen­Aufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter­ einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen­ schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte­ funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten

    Simulation of powerline communication technologies in SmartGrid scenarios with OMNeT++

    Get PDF
    Diese Dissertation befasst sich mit der Implementierung von Powerline-Modulen für, sowie der simulatorischen Eignungsprüfung und dem Vergleich von gängigen Powerline-Kommunikationstechnologien/Realisierungen (Schmalband & Breitband, Access & InHouse) in einem SmartGrid-Umfeld. Diese Arbeit ist in das EEnergy-Projekt „E-DeMa“ eingebettet. Die Grundlage der Simulation ist hierbei das Programm OMNeT++ mit dem INET-Framework das auf einer Eclipse-C++ Umgebung fußt. Der erste Teil der Arbeit befasst sich mit der Implementierung von PLC-Modulen („Power Line Communication“) für das INET-Framework, welches bereits zahlreiche Technologien, z.B. Ethernet, als fertige Module verfügbar hat – aber eben noch nicht Powerline. Derartige Module sind für dieses Framework noch in keiner Weise verfügbar, und das Interesse bei Präsentationen, sowie Anfragen im Nachgang von Veröffentlichungen (siehe Anhang) haben gezeigt, das auch externes Interesse besteht, solche Module zur Verfügung zu haben. Abgegrenzt werden muss diese Implementierung allerdings von den zahlreichen Simulationen, die es bereits für den physikalischen Layer von PLC gibt, z.B. auch mit Hilfe/Unterstützung von digitalen Signalprozessoren. Die Komplexität dieses Layers und seine Besonderheiten schränken die Simulationsgröße zwingend auf wenige Teilnehmer ein. Will man ein SmartGrid (oder auch nur einen Teil davon, z.B. einen Straßenzug) als Ganzes simulieren/betrachten, müssen bestimmte Vereinfachungen getätigt werden, und der Fokus wandert vom physikalischen Layer zu höheren Schichten wie Medienzugriff, Vermittlung und Transport. Der physikalische Layer wird hier nur noch durch statistische Prozesse abgebildet, um die Komplexität im Rahmen zu halten. Dieser (Implementierungs-)Teil ist dabei nicht nur eine Beschreibung der durchgeführten Arbeit, sondern zeigt auch, wie zukünftige oder experimentelle Technologien von Dritten durch Änderungen der Konfigurationsdateien nachgeahmt, und dann auch einfach und schnell simuliert werden können – denn die Module sind so aufgebaut, das sie aus grundlegenden Blöcken bestehen, und nach einem Baukastensystem beliebig zusammengesteckt werden können. Das Ziel der Anstrengungen sind zum einen die Verfügbarkeit einer PLC-Simulationsumgebung für (verhältnismäßig) kleine Netzwerke (etwa Haus oder Straßenzug) und zum Anderen die Bestimmung von mittleren Latenzen, die in diesen Netzen auftreten. Diese, mit Hilfe der vorher implementierten Module ermittelten, Laufzeiten fließen anschließend in ein stark vereinfachtes Kanalmodell ein, welches das Verhalten von PLC in sehr großen Netzwerken simulieren kann. Die detaillierte Simulation arbeitet für diese große Simulation quasi als Vorsimulation. Der zweite Teil der Arbeit befasst sich mit den auf den Implementierungen basierenden Simulationen. Hierfür werden zum Einen für einen Vergleich die implementierten Module an reale verfügbare Produkte angenähert, und zum Anderen, durch Variation der Modem-Eigenschaften, simuliert, wie sich bestimmte Faktoren, z.B. mittlere Datenrate oder das verwendete Kanalzugriffsschema, auf Laufzeiten und Kanalzugriffsverzögerungen sich in typischen SmartGrid-Szenarien überhaupt auswirken. Um dies mit einem vertretbaren Aufwand hinzubekommen, bestehen die Modem-Module, wie schon angedeutet aus Grundelementen, z.B. einem CSMA- und/oder TDMA-Modul, das mit anderen Eigenschaften/Modulen so kombiniert wird, dass das Verhalten eines konkreten, am Markt verfügbaren, Gerätes möglichst exakt nachgebildet werden kann. Im letzten Abschnitt dieser Arbeit wird mit der Untersuchung von „Viele inkompatible Systeme auf einem Medium“-Szenarien und der Untersuchung von MIMO-PLC neben den interessanten Ergebnissen auch gezeigt, wie vielfältig man die PLC-Module eigentlich einsetzen kann.This doctoral thesis deals with the implementation of PLC (narrowband and broadband, inhouse and access) technologies in OMNeT++ with focus on Smart Grid scenarios

    Kopplung von PROFIBUS-Systemen über ATM

    Get PDF
    Die rechnergestützte Automatisierung von Produktionsprozessen hält zunehmend Einzug in Fabrikhallen. Dabei übernehmen untereinander vernetzte Komponenten Steuerungs- und Überwachungsaufgaben. Hõufig sind an das gesamte System, den Feldbus, Echtzeitanforderungen gestellt. Typischerweise ist die maximale Ausdehnung von Feldbussen auf wenige Hundert Meter beschränkt. Gerade in größeren Installationen führt dies zur Entstehung von Feldbus-Inseln, welches einen erhöhten Aufwand für Installation und Wartung nach sich zieht. Daraus leitet sich die Zielstellung der Arbeit ab, derartige Feldbusinseln unter Beibehaltung der Echtzeitfähigkeit des Datenaustauschs über ein Backbone-Netz zu verbinden. Unter der genannten Prämisse wurden zwei Modelle zur Kopplung von PROFIBUS-Segmenten über ATM entworfen. In beiden werden zur Verbindung Brücken eingesetzt, deren grundlegende Funktionalität mit der klassische Brücken vergleichbar ist. Auf der Basis des ersten Modells wird die transparente Zusammenschaltung mehrerer PROFIBUS-Segmente erreicht. Signifikantes Merkmal der Kopplungsvariante ist die systemweite Existenz nur eines Tokens. Mit diesem Ansatz wird in erster Linie eine Ausdehnungsverlängerung des PROFIBUS erreicht. Dem zweiten Modell liegt die Verbindung von unabhängig arbeitenden Segmenten mit jeweils einem Token zugrunde. Hauptcharakteristik hierbei ist die Lasttrennung durch die Filterfunktion der Brücken. Für beide Modelle werden Dienstqualitätsaspekte detailliert untersucht.In recent years, an increasing demand for automated support of production processes could be observed. A seperate group of communication systems - field-buses are especially designed as communication infrastructure. One of the most important characteristics of field buses is their ability to provide real-time data transfer of short data units. Typically such a field bus can only cover an area of a production hall, e.g. a maximum of several hundred meters. This leads especially in larger installations to field bus islands with no communication link between them However, interconnection an interworking of geographically distributed field-buses is desirable in order to ease configuration and diagnostics and the complete management task for such purposes. This work is dedicated to the development of two concepts in order to interconnect PROFIBUS segments through an ATM network using bridges as interworking units. The first concept concerns about PROFIBUS to cover longer distances by interconnecting physically distributed segments which share a single token. The second concept is intended to interconnect multiple independently operating PROFIBUSes, each circulating its own token. The main aspects of this approach are load sharing and enabling a centralized management

    Netzwerk-Management und Hochgeschwindigkeits- Kommunikation. Teil XI. Seminar WS 1994/95

    Get PDF
    Der vorliegende Interne Bericht enthält die Beiträge zum Seminar "Netwerk-Management und Hochgeschwindigkeits-Kommunikation", das im Wintersemester 1994/95 zum elften Mal abgehalten wurde. Im Mittelpunkt stehen zuerst aktuelle Entwicklungen im Internet, die zukünftige Protokollarchitekturen sowie die Möglichkeit zur Gruppenkommmunikation und zur realzeitfähigen Datenkommunikation umfassen. Dabei spielt auch das Problem der Dienstgüte, wie sie beispielsweise von Multi-Media-Anwendungen gefordert wird, eine große Rolle. Der zeite Block befaßt sich mit dem Problem der Sicherheitsvorkehrungen in Kommunikations-und Rechnernetzen. Auch hier werden aktuelle Forschungsergebnisse vorgestellt. Weiterhin wird mit der Common Object Request Broker Architecture eine zukunftsweisende Architektur beschrieben, die umfassendes System-und Netzwerkmanagement ermöglicht. Den Abschluß bildet ein Beitrag zum Management breitbandiger Weitverkehrs- netze, wodurch der Kreis vom Netzwerk-Management hin zur Hochgeschwindig- keits-Kommunikation wieder geschlossen wird

    11. Ilmenauer TK-Manager Workshop: Technische Universität Ilmenau, 17 September 2010 ; Tagungsband

    Get PDF
    Im Februar 1995 veranstaltete das Fachgebiet Kommunikationsnetze erstmalig einen Workshop zu "Branchentypischen Anwendungen in der Informations- und Telekommunikationstechnik". Er diente der Diskussion des Weiterbildungsbedarfs mit Partnern aus der Praxis in Vorbereitung des berufsbegleitenden Weiterbildungsstudienganges "Telekommunikations-Manager". Dieser, kurz TK-Manager genannte Studiengang, wird seit 1996 erfolgreich durchgeführt, hat bereits etwa 100 Absolventen ausgebildet und ist somit zu einer Institution geworden. Seit 1998 findet der "Ilmenauer TK-Manager Workshop" regelmäßig alle zwei Jahre begleitend zum Weiterbildungsstudiengang "TK-Manager" statt. Das Ziel besteht in der Förderung des Erfahrungsaustausches zwischen Absolventen und Studenten des Studienganges und interessierten Partnern aus anderen Bildungseinrichtungen und der Wirtschaft. Das Spektrum der Vorträge umfasst aktuelle Themen aus den Bereichen IT/TK-Technik, Wirtschaft und Recht. Der Workshop stand unter dem Motto: "Informationstechnik als Motor der Zukunft". In diesem Jahr führten wir nunmehr den Workshop zum elften Mal durch und nehmen dies zum Anlass, die Beiträge des Workshops und darüber hinaus aktuelle Forschungsthemen des Fachgebiets Kommunikationsnetze, das für den TK-Manager federführend ist, in einem Tagungsband zu veröffentlichen

    Algorithmen zum effizienten Deployment virtueller Netzwerkservices

    Get PDF
    Die Virtualisierung von Netzfunktionen (NFV, Network Function Virtualization) ist ein zentrales Konzept zukünftiger Mobilfunknetze: Statt wie in klassischen Netzen rein auf Hardwarekomponenten zu setzen, deren Logik untrennbar mit der eigentlichen Hardware verwoben ist, wird die Funktionalität in NFV-Netzen innerhalb virtueller Netzwerkfunktionen gekapselt und von der eigentlichen physischen Hardware separiert. Hochspezialisierte Hardwareboxen werden durch viel flexiblere Standardhardware ersetzt, auf der nun unterschiedliche Netzwerkfunktionen installiert werden können. Ein Kernkonzept dabei ist die Integration von Cloud Computing-Technologien innerhalb der Mobilfunk-Kerninfrastruktur: Dies ermöglicht es dem Mobilfunkprovider, die Konfiguration des Netzes viel dynamischer an die sich ständig verändernden Anforderungen des Marktes anzupassen. Sollen neue Netzwerkservices installiert werden, kann dazu ein Großteil der bereits vorhandenen physischen Infrastruktur wiederverwendet werden; die vorhandene Hardware muss nicht komplett ausgetauscht werden. Die Integration neuer Services erfolgt stattdessen durch den wesentlich kosteneffizienteren Austausch von (virtuellen) Netzwerkfunktionen -- und nicht durch Austausch von Hardware. Mobilfunkprovider werden in Zukunft in der Lage sein, viel einfacher und effizienter zusätzliche Netzfunktionen dort zuzuschalten, wo sie gebraucht werden, ohne dass jedes Mal Änderungen an der eigentlichen Hardware-Konfiguration erforderlich werden. Darüber hinaus können Netzfunktionen flexibel auf andere Komponenten migriert werden, wenn Hardwarekomponenten aus wartungstechnischen Gründen temporär oder dauerhaft außer Betrieb genommen werden. Die vorliegende Arbeit befasst sich mit der Thematik, wie sich derartige virtuelle Netzwerkservices innerhalb des physischen Netzwerks der Provider einbetten lassen. Im Mittelpunkt steht die Frage, auf welchen Hardwarekomponenten die verschiedenen (virtuellen) Netzwerkfunktionen installiert werden sollen. Aus theoretischer Sicht ist die optimale Berechnung eines solchen Deployments ein NP-hartes Optimierungsproblem. Optimale Algorithmen zur Lösung dieses Problems sind daher nur in sehr kleinen Szenarien anwendbar. Für die effiziente Lösung im Zusammenhang mit Szenarien realer Größenordnung kommen aus diesem Grund nur heuristische Ansätze in Betracht, die für die Bestimmung eines guten, aber nicht zwingenderweise optimalen Deployments entworfen werden. Die vorliegende Arbeit befasst sich mit der effizienten, heuristischen Lösung dieses NP-harten Deployment-Problems. Es wird zunächst eine Simulationsumgebung beschrieben, die die umfassende Evaluation von Deploymentalgorithmen ermöglicht. Anders als bisherige Simulationstools lässt sich die hier beschriebene Umgebung sehr einfach um neue Funktionen erweitern. Daran anschließend wird ein verteilter Deployment-Algorithmus vorgestellt, der virtuelle Netze innerhalb von Cloud-Infrastrukturen effizient einbetten kann (DPVNE, Distributed and Parallel Virtual Network Embedding). Kernidee hinter diesem Ansatz ist die Aufteilung der physischen Cloud-Infrastruktur in hierarchisch organisierte Netzwerkpartitionen. Dies ermöglicht die parallele Einbettung virtueller Netze. Durch die Verteilung des Berechnungsaufwands auf mehrere Knoten lässt sich das Deployment-Problem auch in Szenarien mit sehr großen Netzwerkinfrastrukturen lösen. Darüber hinaus wird ein Backtracking-basierter Algorithmus vorgestellt, mit dem das Deployment virtueller Netzwerkservices in NFV-Szenarien durchgeführt werden kann (CoordVNF, Coordinated deployment of Virtual Network Functions). In NFV-Szenarien liegt der Fokus auf der Betrachtung der Netzwerkservices, die zur Verarbeitung von Datenströmen innerhalb der Infrastruktur des Mobilfunkproviders installiert werden. Jeder Netzwerkservice besteht dabei aus mehreren (virtuellen) Netzwerkfunktionen, die verschiedene Operationen auf empfangene Daten anwenden und diese dann zur Weiterverarbeitung an andere Netzwerkfunktionen weitergeben. Die genaue Reihenfolge, in der die Datenströme durch die einzelnen Netzwerkfunktionen geroutet werden, ist dabei nicht eindeutig vorgegeben. Anders als in Cloud-Szenarien ist die Struktur der einzubettenden virtuellen Netze also in Teilen flexibel, was zu interessanten neuen, theoretischen Aspekten bzgl. des Deployment-Problems führt. Der CoordVNF-Algorithmus ist als einer der ersten Ansätze in der Lage, solche flexiblen NFV-Netzwerkservices effizient innerhalb der Infrastruktur des Mobilfunkproviders zu platzieren. Im Gegensatz zu bisherigen Verfahren kann CoordVNF auch im Zusammenhang mit größeren Infrastrukturen verwendet werden. Abschließend wird das Deployment ausfallsicherer Netzwerkservices diskutiert. In diesem Kontext wird beschrieben, wie sich die Robustheit eingebetteter NFV-Services durch Reservierung zusätzlicher Backup-Ressourcen erhöhen lässt. Aufbauend auf CoordVNF wird dann ein Deploymentalgorithmus vorgestellt, der in der Lage ist, Einbettungen gegenüber Ausfällen abzusichern (SVNF, Survivable deployment of Virtual Network Functions).Network Function Virtualization (NFV) is being considered as an emerging key technology for future mobile network infrastructures. In classical networks, network functions are tightly bound to specific hardware boxes. In contrast, in NFV networks, (software) functionality is separated from hardware components. Highly specific hardware boxes are being replaced by commodity computing, networking, and storage equipment, offering resources for hosting and running more than just one specific type of network function. One of the key concepts of NFV is the integration of cloud computing technology into the network core: This enables virtual network functions to be installed and deployed where they are needed; additional resources can be dynamically provided in times of high demand, whereas virtual functions can also be consolidated on a smaller hardware setting if demand decreases. NFV enables operators to manage network functions in a much more flexible way, without having the need of instructing technicians to manually reconfigure hardware equipment on-site -- instead, network functions can be deployed and managed remotely. Additionally, for reliability reasons, virtual network functions can be easily migrated to backup resources in case of hardware or software failures. This thesis discusses the question on how those virtual network functions can be efficiently deployed within the physical network infrastructure. From a theoretical perspective, finding the optimal deployment of virtual network services (e.g., in terms of embedding cost) is known as a NP-hard optimization problem. In this context, the thesis introduces heuristic approaches for solving the deployment problem. To this end, first, an extensible simulation framework is discussed which enables researchers to thoroughly evaluate both existing and novel deployment algorithms. Second, a distributed algorithm (DPVNE) is presented for embedding virtual networks into a shared physical cloud infrastructure. Here, the main idea is to partition the physical network into several smaller, non-overlapping network regions. Embeddings in those network partitions can then be performed in parallel: Computational efforts can be spread to multiple distributed nodes. This way, solving this NP-hard optimization problem becomes feasible even in large-scale network scenarios where virtual network deployment requests arrive continuously. Third, a backtracking-based algorithm (CoordVNF) is presented in this thesis for the deployment of virtual network functions in NFV scenarios. In contrast to cloud scenarios, in NFV scenarios, the exact chaining of network functions is not always predefined: In fact, the same network service can be provided by several chainings of network functions. The first embedding algorithm presented here aims to deploy those flexible virtual network services in a cost- and time-efficient way, even in large-scale scenarios. Finally, the thesis discusses the deployment of resilient NFV services; in this context, an extension of the CoordVNF algorithm is presented that allocates additional backup resources for protecting network services from failures

    Autonomes Netzwerkmanagement für ein dynamisches Routing unter Berücksichtigung von Qualitätsanforderungen

    Get PDF
    This PhD thesis is focused on the question: how can an autonomously working routing management be designed to allow the transmission of application data while considering quality requirements. To answer this the focus is on a dynamic routing, whose decisions depend on the current distribution of available link capacities in the network. The presented new solution contains three protocols which work in a completely autonomous way. They are used to cluster the network and place automatically management instances, to assign addresses in the network as well as to distribute continuously routing data among the network nodes. Based on this, all routing tables are kept up to date, so that they represent the current paths as well as they also describe the available QoS specific capacity for each known route. By the help of this data, the routing algorithm, which is applied in this PhD thesis, allows the transmission of data from different applications while considering their quality requirements. In this context, each needed routing decision is influenced by the currently existing load situation in the network.Despite the introduced complex signaling, the overall system remains compatible to IPv4/v6. Therefore, it can be used for the transmission of audiovisual data in today’s networks. In such a scenario the scalability of the resulting overall system is supported by the data aggregations which are used within the signaling of the routing management.The practical part of the work is divided into two areas. The first one describes the software “Homer Conferencing”. It is usable as standalone solution for video conferences and test environment for audiovisual streams. By its help, qualitative differences in transmissions can be presented. Additionally, the software provides graphical dialogs for quantitative measurements of the data streams and packet losses. The second practical part contains the implementation of the routing management and applies all protocols on packet level. This was used as base for the accomplished quantitative evaluations. They show the caused signaling overhead as well as the resulting benefit of the introduced routing management for selected base topologies of IP networks.Im Fokus dieser Dissertation steht die Frage, wie ein autonom ablaufendes Routingmanagement aussehen kann, um in Netzwerken die Übertragung von Anwendungsdaten unter Berücksichtigung von Qualitätsanforderungen zu ermöglichen. Dabei steht ein dynamisches Routing im Vordergrund, dessen Entscheidungen von der momentanen Verteilung von verfügbaren Linkkapazitäten im Netzwerk abhängen. Die vorgestellte neuwertige Lösung enthält drei vollständig autonom ablaufende Protokolle. Sie dienen zur Netzwerkunterteilung und automatischen Platzierung von Managementinstanzen, zur Adresszuweisung im Netzwerk sowie zur kontinuierlichen Verteilung von Routingdaten unter den Netzwerkknoten. Dadurch werden alle Routingtabellen aktuell gehalten, sodass sie die momentanen Pfade sowie auch die für jede bekannte Route verfügbaren QoS spezifischen Eigenschaften beschreiben. Mit Hilfe dieser Daten ist der in dieser Dissertation eingesetzte Routingalgorithmus in der Lage, die Übertragung von Daten von unterschiedlichen Anwendungen unter Beachtung ihrer Qualitätsanforderungen zu ermöglichen. Dabei beeinflusst die aktuell vorliegende Lastsituation im Netzwerk jede notwendige Routingentscheidung.Trotz der eingeführten komplexen Signalisierungen bleibt das Gesamtsystem kompatibel zu IPv4/v6 und kann somit für die Übertragung von audiovisuellen Daten in heutigen Netzwerken eingesetzt werden. Dabei profitiert die Skalierbarkeit des resultierenden Gesamtsystems von den innerhalb der Signalisierungen des Routingmanagements verwendeten Datenaggregationen.Der praktische Teil dieser Arbeit ist zweigeteilt. Der erste Teil beschreibt die Software „Homer Conferencing“. Sie ist als eigenständige Lösung für Videokonferenzen und Testumgebung für audiovisuelle Ströme einsetzbar. Mit ihrer Hilfe können qualitative Unterschiede in Übertragungen audiovisuell vorgeführt werden. Die Software bietet zusätzlich grafische Dialoge zur quantitativen Bemessung der Datenströme und Paketverluste. Der zweite praktische Teil beinhaltet die Implementierung des Routingmanagements und setzt die Protokolle auf Paketebene vollständig um. Dies diente als Basis für die durchgeführten quantitativen Evaluierungen. Sie stellen für ausgewählte Basistopologien von IP-Netzwerken den verursachten Signalisierungsaufwand sowie den resultierenden Nutzen beim Einsatz des vorgestellten Routingmanagements dar

    Optimizing transmission protocols for enhancement of quality of service in telemedical realtime applications

    Get PDF
    In der Dissertation mit dem Titel „Optimierung von Übertragungsprotokollen zur Verbesserung der Dienstgüte in telemedizinischen Echtzeitanwendungen“ geht es um die Entwicklung einer Protokollmodifikation für Multipath-TCP zur besseren Unterstützung von telemedizinischen Echtzeitanwendungen über das Internet in einem Szenario zwischen global verteilten Standorten. Das Ziel von redundantem Multipath-TCP (rMPTCP) ist es, mehrere Verbindungen gleichzeitig zu nutzen, um mithilfe von Redundanz Verzögerungsspitzen und Datenverluste auszugleichen und somit die Dienstgüte der Übertragung zu verbessern. Hierbei passt sich das Protokoll den aktuellen Gegebenheiten der Datenverbindung adaptiv an, indem es Redundanz, Leitungsqualität, benötigte Datenübertragungsrate sowie den durch das Netzwerk angebotenen Datendurchsatz in Relation setzt. Anwendungen in der Telemedizin unterscheiden sich in ihren kommunikativen und interaktiven Ausprägungen und damit in ihren Dienstgüteanforderungen. Zu diesem Zweck werden grundlegende Anwendungen in der Telemedizin sowie Spezifizierungen der Dienstgüteanforderungen der anfallenden Datenströme behandelt und klassifiziert. Dies geschieht in Hinblick auf ein zwischen der Universität Duisburg-Essen (UDE) und der Universiti Kebangsaan Malaysia (UKM) laufendes Forschungsszenario. Darauf folgt eine Darlegung von Dienstgüte-Mechanismen im Internet. Darin werden die elementaren Funktionsweisen sowie Möglichkeiten diese zu verbessern beschrieben. Die Übertragungsstrecke zwischen den beiden Universitäten wird entsprechend des Basisszenarios in Hinblick auf verschiedene Dienstgüteparameter mit entsprechenden Messwerkzeugen soweit ausgewertet, dass Gegebenheiten und Probleme identifiziert werden können. Eine Evaluierung der verschiedenen verfügbaren Verbindungen zwischen UDE und UKM dient der Ermittlung einer kombinierten Nutzungsweise und den Möglichkeiten bei einer Mehrfachverbindung. Die Modellierung und Entwicklung der Protokollmodifikation wird unter den vorher hergeleiteten Anforderungen durchgeführt. Es werden die grundsätzlichen mathematischen Zusammenhänge diskutiert und eine Einführung in die Funktionalitäten des Protokolls gegeben. Die Eigenschaften und Funktionen des neuen Protokolls werden modelliert und zusätzliche Hilfsmittel, die für die Anwendung innerhalb des Szenarios benötigt werden entwickelt. Die Funktionalitäten werden in praktischen Versuchen ausgewertet und eine abschließende Beurteilung diskutiert. Das Ergebnis dieser Dissertation ist die Entwicklung einer internetkompatiblen redundanten Protokollerweiterung für Multipath-TCP, die in der Lage ist, sich mithilfe verschiedener Algorithmen auf Situationen im Netzwerk anzupassen und verschiedene Maßnahmen bei Störungen zu ergreifen. Die Protokollerweiterung ist in der Lage, eine Dienstgüteverbesserung in Hinblick auf Verzögerungen sowie Verzögerungsvarianzen für Anwendungen mit „Nahe-Echtzeit“-Anforderungen zu erreichen.In the dissertation entitled "Optimization of Transmission Protocols to Improve Quality of Service in Telemedicine Real-Time Applications", the aim is to develop a protocol modification for Multipath-TCP to improve the support for telemedical real-time applications over the Internet in a scenario between globally distributed locations. The goal of redundant Multipath TCP (rMPTCP) is to use multiple connections at the same time to compensate for delay and data losses by means of redundancy and thus to improve the quality of service of the transmission. The protocol adapts to the current circumstances of the data connection by correlating redundancy, connection quality, required data transmission rate as well as the data throughput offered by the network. Applications in telemedicine differ in their communicative and interactive manifestations and thus in their quality of service requirements. For this purpose, basic applications in telemedicine as well as specifications of the quality requirements of the resulting data streams are treated and classified. This is done with regard to a research scenario running between the University of Duisburg-Essen (UDE) and the Universiti Kebangsaan Malaysia (UKM). It is followed by a presentation of quality of service mechanisms on the Internet. The basic functions as well as ways to improve them are described. The transmission distance between the two universities is evaluated according to the basic scenario with regard to different quality of service parameters with appropriate measuring tools in a way that conditions and problems can be identified. An evaluation of the various available connections between UDE and UKM is used to determine a combined usage and the possibilities for a multiple connection. The modeling and development of the protocol modification is performed under the previously-derived requirements. The basic mathematical connections are discussed and an introduction to the functionalities of the protocol is given. The properties and functions of the new protocol are modeled and additional tools developed for utilization within the scenario are designed. The functionalities are evaluated in practical tests and a final assessment is discussed. The result of this dissertation is the development of an Internet-compatible redundant protocol extension for multipath TCP, which is able to adapt to situations in the network by means of different algorithms and to take various measures in case of disturbances. The protocol extension is capable of achieving an improvement in service quality with regard to delays as well as delay variances for applications with "near real-time" requirements
    corecore