7 research outputs found

    Entwurfsbegleitende Leistungsanalyse fĂĽr SDL-basiertes Design multimedialer Internet-Transportsysteme

    Get PDF
    Neben der funktionalen Korrektheit von komplexen Kommunikationssystemen spielt eine ausreichende Performance dieser Systeme eine immer wichtigere Rolle. Dabei ist es notwendig, Performance-Aspekte bereits in frühen Entwurfsphasen und nicht erst nach der Implementierung der Systeme zu berücksichtigen. Die vorliegende Arbeit präsentiert eine Methodik zur entwurfsbegleitenden, modellgestützten Leistungsanalyse von Kommunikationsprotokollen, die mit Hilfe der Sprache SDL formal spezifiziert wurden. Die vorgestellte Methodik verwendet dazu Beschreibungsmechanismen, Verfahren und Werkzeuge, die bereits im Entwurfsprozeß dieser Systeme verwendet werden. Für die wichtigsten Implementierungsansätze von Kommunikationsprotokollen werden Performance-Bausteine vorgestellt und deren Verwendung erläutert. Die Tragfähigkeit der entwickelten Methodik wird durch eine große Fallstudie im Kontext von Reservierungsprotokollen zur Unterstützung von Multimedia-Anwendungen im Internet demonstriert. Dabei werden nicht nur die informellen Angaben der vorhandenen RFCs in formale SDL-Beschreibungen umgesetzt, sondern auch als existent vorausgesetzte Ressource-Management-Funktionen entwickelt und analysiert. Die vorliegende Arbeit schließt so die bisher bestehende Lücke im SDL-basierten Entwurfsprozeß verteilter reaktiver Systeme und ermöglicht die modellgestützte Betrachtung von Performance-Aspekten in den frühen Phasen des Entwurfsprozesses

    Approximative Verfahren auf erweiterten Fork/Join-Warteschlangennetzen zur Analyse von Logistiknetzen

    Get PDF
    Die Modellierung und Analyse Diskreter Ereignisorientierter Dynamischer Systeme (DEDS) ist in der Informatik seit langer Zeit ein wichtiger Themenschwerpunkt. In diesem Kontext haben sich Warteschlangennetze insbesondere im Anwendungsgebiet Computer und Kommunikationssysteme aufgrund der Verfügbarkeit sehr zeit– und platzeffizienter analytisch–algebraischer Analyseverfahren als adäquater Modellformalismus bewährt. Die Verfügbarkeit dieser Methoden in integrierten Modellierungs– und Analysewerkzeugen einerseits und die Interpretation alternativer Anwendungsfäalle als DEDS andererseits legen den Wunsch nahe, das Warteschlangeninstrumentarium auf weitere Anwendungsgebiete anzupassen. Speziell in der Logistik kommt der optimalen Planung, Steuerung und Optimierung von Systemen und damit deren Modellierung und Analyse eine entscheidende Bedeutung zu, da der Erfolg vieler Industrieunternehmen in zunehmendem Maße von der optimalen Auslegung ihrer Logistik beeinflußt wird. Das Warteschlangeninstrumentarium läßt sich häufig zur Analyse sehr grober logistischer Prozeßketten einsetzen, es versagt jedoch für detaillierte Modelle, da die effizienten algebraischen Analyseverfahren einigen typischen Eigenschaften logistischer Systeme nicht zugänglich sind. Mit dieser Motivation liegt das Ziel der vorliegenden Dissertation darin, einen Beitrag hinsichtlich der Anpassung der effizienten Analyseverfahren für Warteschlangennetze auf Prozeßketten zu leisten. Spezielles Augenmerk wird auf den Aspekt der Synchronisation komplexer paralleler Abläufe gelegt, der essentieller Bestandteil vieler logistischer Systeme ist. Aufgrund seiner hohen Flexibilität wird zur Analyse von Prozeßketten das Dekompositionsverfahren nach Kühn/Whitt herangezogen. Diese Methode ist ein approximatives Verfahren zur stationären Analyse einer recht allgemeinen Klasse offener Warteschlangennetze. Die Idee dieses Verfahrens liegt in der Zerlegung eines Warteschlangennetzes in Teilnetze, die isoliert voneinander analysiert werden. Die Interaktion der Teilnetze untereinander wird über das Input/Output–Verhalten hergestellt. Durch die Beschreibung der Netzlast durch sog. Phasenverteilungen wird die Analyse der isolierten Stationen auf die Betrachtung sog. Quasi–Birth–and–Death Prozesse zurückgeführt, die sich anhand Matrix–geometrischer Methoden effizient analysieren lassen. Zur Berücksichtigung paralleler Abläufe wird das Dekompositionsverfahren zunächst um die Analyse eines sehr einfachen Typs sog. Fork/Join–Netze angereichert. Die isolierte Analyse einfacher Fork/Join–Netze basiert auf einem von Balsamo vorgestellten approximativen Modell (Upper-Bound Modell). Im Zentrum der Arbeit steht die Entwicklung einer neuen umgebungsabhägigen Aggregierungstechnik, die es erlaubt, die Analyse komplexer, erweiterter Fork/Join–Netze auf die Analyse einfacher Fork/Join–Netze zurückzuführen. Die Aggregate haben die Eigenschaft, daß sie komplexe Warteschlangennetze hinsichtlich der ersten beiden Momente der Durchlaufzeitverteilung exakt durch FCFS–Single-Server Stationen ersetzen. Die erarbeitete Technik zur Analyse erweiterter Fork/Join–Warteschlangennetze wird anhand zweier Beispiele aus dem Anwendungskontext Logistik und anhand einer Internet–basierten Meta–Suchmaschine erprobt. Zur Beurteilung der Approximationsgüte werden die erzielten Analyseresultate mit Simulationsergebnissen verglichen. Dabei werden fallweise sehr zufriedenstellende Approximationsgüten erreicht

    A reference model for Server Based Computing infrastructures and its application for the capacity management

    Get PDF
    Der weltweit rasant steigende Bedarf an Unterstützung von Anwendern durch leistungsfähige IT-Systeme führt zu einer gleichermaßen steigenden Nachfrage nach Technologien, die es Unternehmen ermöglichen, ihren Endanwendern Desktop-Umgebungen und Applikationen in effizienter und effektiver Weise bereitzustellen. Daraus leitet sich sowohl unter ökologischen als auch unter ökonomischen Aspekten die Anforderung ab, vorhandene Hardware- und Software-Plattformen möglichst passend zum heutigen und zukünftigen Bedarf zu dimensionieren und die Systeme optimal auszulasten. Protokolle zum Zugriff auf Server-Ressourcen unter Microsoft Windows Betriebssystemen nach dem Prinzip der entfernten Präsentation wurden erstmals ca. 1995 implementiert. Seither hat das damit auch unter Windows mögliche Server Based Computing (SBC) mit Terminal Servern und im Nachgang auch virtuellen Desktops eine technische Reife erlangt, die dem Betriebsmodell der verteilten Ausführung und Datenhaltung mittels konventioneller Personal Computer nicht nachsteht. Energie- und ressourcensparende Thin Clients haben sich entsprechend als Alternative zu herkömmlichen Arbeitsplatz-Computern und ihrer lokalen Datenverarbeitung etabliert. Die Leistungsfähigkeit der Thin Clients hängt jedoch maßgeblich von der Kapazität der Server-Infrastruktur im Rechenzentrum ab. Die vorliegende Dissertation greift dieses Thema auf und entwirft ein Referenzmodell für das Kapazitätsmanagement von Server Based Computing Infrastrukturen mit dem Ziel, vorhandene wie auch neu zu konzipierende Systeme zu planen und in einem iterativen Prozess weiterzuentwickeln. Der zu Grunde liegende Ansatz baut auf Methoden und Sprachen der Referenzmodellierung auf. Zunächst wird die aus fünf Schichten bestehende Gesamtsicht einer Server Based Computing Infrastruktur entworfen. Aus diesem Referenzmodell werden nach einem methodischen Vorgehen konkretere Informationsmodelle abgeleitet und in der Sprache der Fundamental Modeling Concepts (FMC) notiert. Ein solches Modell kann anschließend im Rahmen einer Simulation oder einer analytischen Herangehensweise dazu verwendet werden, bereits bei der Konzeption verschiedene Handlungsalternativen zu untersuchen und bezüglich der Kapazität der Ressourcen zu bewerten. Das Referenzmodell und seine Methodik werden anhand eines exemplarischen Szenarios mit verschiedenen Gruppen von Anwendern und Arbeitsplatzgeräten auf der Client-Seite sowie mehreren Profilen von Anwendungen auf der Server-Seite erprobt. Hierbei wird deutlich, dass die modellbasierte Herangehensweise einen wertvollen Beitrag zum Kapazitätsmanagement leisten kann, ohne dass vorab der tatsächliche Aufbau einer neuen IT-Infrastruktur durch die Installation eines physischen Prototypen und die Simulation von Arbeitslasten darauf notwendig wäre.A worldwide rapidly increasing need for assistance of staff by powerful IT-systems leads to an equally ever growing demand for technologies that enable organizations to provide desktop environments and applications to their end users in an efficient and effective way. In terms of both ecologic and economic aspects, the deduced requirement is to size existing hardware and software platforms as suitable as possible for present and future needs, and to allow for an optimum utilization of the system capacities. Access protocols on server resources based on Microsoft Windows operating systems within the scope of remote presentation were implemented for the first time around 1995. Since then, Server Based Computing (SBC), with terminal servers and virtual desktops later on, has reached a technical maturity which is not inferior to the distributed issue of the operating modeland data storage as used in conventional personal computers. Accordingly, energy and resource saving thin clients have established themselves as an alternative to conventional desktop computers and local data processing. Their performance, however, depends significantly on the capacity of the server infrastructure located in the data center. The present thesis takes up this subject and outlines a reference model for the capacity management of Server Based Computing infrastructures with the intention to plan novel designed systems and, further, to develop both these as well as exsisting ones by means of an iterative process. The underlying approach bases upon methods for reference modeling and languages. Initially, a global view of a Server Based Computing infrastructure consisting of five layers is developed. From this reference model, more precise information models are derived following a methodological approach and are stated according to language elements of the Fundamental Modeling Concepts (FMC). Such model can be used subsequently within the scope of a simulation or an analytical approach, hereby aiming to investigate and evaluate various alternative courses of action regarding the capacity of resources already during the conception phase. The reference model and its methodology are evaluated using an exemplary scenario with different groups of users and workstation devices on the client side and several profiles of applications on the server side. This shows clearly that the model-based approach can make a valuable contribution to the capacity management, without requiring the actual implementation of a new IT infrastructure by building a physical prototype and simulating workloads within this prototype

    Integrationsaspekte der Simulation: Technik, Orgnisation und Personal, Karlsruhe, 7. und 8. Oktober 2010 = Integration Aspects of Simulation: Equipment, Organization and Personnell, Karlsruhe, 7th and 8th October 2010

    Get PDF
    Die Integration technischer, organisatorischer und personalorientierter Aspekte in Simulationsverfahren ist das Leitthema der 14. Fachtagung der Arbeitsgemeinschaft Simulation (ASIM) innerhalb der Gesellschaft fĂĽr Informatik, die vom Institut fĂĽr Arbeitswissenschaft und Betriebsorganisation im Oktober 2010 ausgerichtet wurde. Der vorliegende Tagungsband gibt somit einen vertiefenden Einblick in neue Entwicklungen und Beispiele guter Praxis der Simulation ĂĽber den deutschsprachigen Raum hinaus

    Ausgewählte Kapitel der Implementierung objektorientierter Datenbanksysteme

    Get PDF
    Objektorientierte Datenbanksysteme bieten gegenüber klassischen Datenbanksysten, wie bspw. den Relationalen Systemen oder den Netzwerk-Systemen, eine erweiterte Funktionalität, die in vielen Anwendungsbereichen benötigt wird. Beispiele für Anwendungen objektorientierter Datenbanksysteme sind technische Informationssysteme Entwurfsdatenbanken oder Multi-Media-Datenbanken. Die erweiterte Funktionalität objektorientierter Datenbanksysteme erfordert neue Implementierungskonzepte. Das Ziel dieses Seminars, das im Sommersemester 1994 am Institut für Programmstrukturen und Daten organisation der Universität Karlsruhe gehalten wurde, ist die Untersuchung ausgewählter Kapitel bei der Implementierung objektorientierter Daten- banksysteme. Das Seminar ist in vier Teile gegliedert. Im ersten Teil wird - quasi aus Benutzersicht - in die Konzepte objektorientierter Datenmodelle eingeführt Aus Implementierungssicht stellen diese Konzepte die Spezifikation für ein zu implementierendes objektorientiertes Datenbanksystem dar. Der zweite Teil beschäftigt sich mit derSpeicherung von Objekten auf dem Hintergrundspeicher sowie mit dem Umgang mit persistenten Objekten zur Laufzeit. In Teil drei werden zwei spezielle Synchronisations-Verfahren vorgestellt, die im Hinblick auf objektorientierte Datenbanksysteme entworfen wurden. In Teil vier sind zwei Themen zusammengefaßt, die einen Überblick geben über Evolution in objektorientierten Datenbanksystemen und über aktive objectorientierte Datenbanksystem

    Abteilungsübergreifende Termin- und Reihenfolgeplanung in Krankenhäusern mittels multichromosomaler, künstlicher Evolution

    Get PDF
    Seit der Umstellung des Vergütungssystems auf diagnosebezogene Fallpauschalen sind Krankenhäuser gezwungen, effizient zu arbeiten um kostendeckend zu wirtschaften. Unter diesem Gesichtspunkt steigt die Notwendigkeit zur Planung und Optimierung der Abläufe innerhalb dieser. Gegenstand der vorliegenden Arbeit ist eine abteilungsübergreifende Termin- und Reihenfolgeplanung der Patienten, mit dem Ziel, die Krankenhausressourcen möglichst effizient einzusetzen und die Wartezeiten der Patienten zu minimieren. Bis heute werden Lösungsansätze nach ambulanter Aufnahmeplanung, stationärer Aufnahmeplanung sowie OP-Planung differenziert und überwiegend losgelöst voneinander betrachtet. Die bisherigen Lösungsansätze verkennen weitestgehend, dass die stationär und ambulant aufgenommenen Patienten im weiteren Ablauf teils dieselben Ressourcen beanspruchen. Auch lässt sich eine OP-Planung nicht verlässlich durchführen, ohne die Aufnahmeplanung und ohne die vorhandenen Krankenhausressourcen (z.B. Betten, Personal) mit deren jeweiligen Kapazitäten in der Planung zu berücksichtigen. Daher erfolgt erstmalig in der hier entwickelten Planungsmethode eine gesamtheitliche Betrachtung der Problemfelder der stationären Aufnahmeplanung, der ambulanten Aufnahmeplanung und der OP-Planung, unter Berücksichtigung erforderlicher vor- und nachgelagerter Ressourcen, insbesondere der Notaufnahme. Es wird auf den Untersuchungsgegenstand bezogen aufgezeigt, wie die vorliegenden fachübergreifenden und dynamischen Gegebenheiten (fachübergreifende und dynamische Komplexität) berücksichtigt werden können, ohne im Detaillierungsgrad mit vielen stark vereinfachenden Annahmen zu arbeiten (Detailkomplexität), wie es bisherige Arbeiten tun. Um der dynamischen Eigenschaft der zugrundeliegenden Prozesse zu entsprechen (dynamische Komplexität), wurde ein dynamisches Simulationsmodell (ausführbares Modell) entwickelt, welches unter Einsatz einer hier entwickelten Methode zur automatisierten Transformation aus eEPK Prozessbeschreibungen aufgebaut und an Realdaten validiert wurde. Der Arbeit liegen Prozesse und Daten aus drei Kliniken der Maximalversorgung zugrunde (Referenzklinik). Um der Detailkomplexität gerecht zu werden, sind im Modell auf die Planung einwirkende stochastische Einflüsse berücksichtigt, wie u.a. Notfälle, nicht geplantes Patientenaufkommen (nicht-elektiv, walk-ins), Unpünktlichkeit von Patienten, Ausbleiben von Patienten (no-show), Varianzen im Behandlungsverlauf, Varianzen in den Bearbeitungszeiten oder Störungen resp. Ausfälle technischer Ressourcen. Das entwickelte Planungskonzept wird in einer multichromosomalen Repräsentation kodiert. Die Planung und Optimierung erfolgt mit einem hybriden Genetischen Algorithmus (GA), welcher eine hier entwickelte Methode der selbstadaptiven Mutation einsetzt. Im Weiteren werden die Ergebnisse der optimierten Termin- und Reihenfolgeplanung dargelegt und analysiert. Abschließend wird ein konkreter Vorschlag zur Umsetzung im Krankenhaus unterbreitet.Since the compensation system was switched to diagnosis-related payments, hospitals have been forced to work efficiently in order to economize and cover costs. To achieve these objectives, processes have to be planned and optimized. In this work an inter-departmental plan for appointment and patient sequencing is developed, that focus on using hospital resources efficiently and minimize patients waiting time. Up to now the approach has been to find dedicated and independent solutions for the outpatient admission, inpatient admission and operating room (surgery) planning, even so they are dynamically coupled. The current solutions for the most part do not take into consideration that inpatients and outpatients lay claim to many of the same resources in subsequent procedures. Surgery planning cannot be carried out reliably without planning admission or taking the available resources of the hospital (e.g. beds, staff) and their respective capacities into account. The planning method developed here, hence for the first time combines the problem areas in planning admissions for in- and outpatients, and surgeries, taking into account the required upstream and downstream resources, in particular from the emergency department. It is shown, how the inter-departmental, dynamic conditions (inter-departmental and dynamic complexity) can be taken into account without the need to work at a level of detail with numerous grossly simplifying assumptions (detail complexity) as in previous research. In order to consider the dynamics of the underlying processes (dynamic complexity), a dynamic simulation model (executable model) has been developed. An automated transformation method was developed and used to transform an eEPC description of the underlying processes into an executable model. The model was validated for recorded data from a hospital. The research was based on processes and data from three maximum care clinics (reference clinics). To do justice to the detail complexity, stochastic variations which affect planning have been taken into consideration, such as emergencies, unplanned patient volumes (non-electives, walk-ins), patients' lack of punctuality, patient absence (no-show), variances in the course of treatment, variances in processing time or faults and failures of technical resources. The developed planning concept is coded by a multichromosomal representation. For planning and optimization a hybrid genetic algorithm (GA) is used, that employs a method for self-adapting mutation developed here. GA performance for self-adapting mutation rate and several static mutation rates are compared. The results of the optimization are presented and analyzed. It is shown how the developed planning concept may be integrated into an existing hospital IT-system (SAP IS-H*med)
    corecore