18 research outputs found

    Über Reversibilität, Nicht-Determiniertheit und Quantenrechnen in Zellularautomaten [online]

    Get PDF

    Fairneß, Randomisierung und Konspiration in verteilten Algorithmen

    Get PDF
    Fairneß (d.h. faire Konfliktlösung), Randomisierung (d.h. Münzwürfe) und partielle Synchronie sind verschiedene Konzepte, die häufig zur Lösung zentraler Synchronisations- und Koordinationsprobleme in verteilten Systemen verwendet werden. Beispiele für solche Probleme sind das Problem des wechselseitigen Ausschlusses (kurz: Mutex-Problem) sowie das Konsens-Problem. Für einige solcher Probleme wurde bewiesen, daß ohne die oben genannten Konzepte keine Lösung für das betrachtete Problem existiert. Unmöglichkeitsresultate dieser Art verbessern unser Verständnis der Wirkungsweise verteilter Algorithmen sowie das Verständnis des Trade-offs zwischen einem leicht analysierbaren und einem ausdrucksstarken Modell für verteiltes Rechnen. In dieser Arbeit stellen wir zwei neue Unmöglichkeitsresultate vor. Darüberhinaus beleuchten wir ihre Hintergründe. Wir betrachten dabei Modelle, die Randomisierung einbeziehen, da bisher wenig über die Grenzen der Ausdrucksstärke von Randomisierung bekannt ist. Mit einer Lösung eines Problems durch Randomisierung meinen wir, daß das betrachtete Problem mit Wahrscheinlichkeit 1 gelöst wird. Im ersten Teil der Arbeit untersuchen wir die Beziehung von Fairneß und Randomisierung. Einerseits ist bekannt, daß einige Probleme (z.B. das Konsens- Problem) durch Randomisierung nicht aber durch Fairneß lösbar sind. Wir zeigen nun, daß es andererseits auch Probleme gibt (nämlich das Mutex-Problem), die durch Fairneß, nicht aber durch Randomisierung lösbar sind. Daraus folgt, daß Fairneß nicht durch Randomisierung implementiert werden kann. Im zweiten Teil der Arbeit verwenden wir ein Modell, das Fairneß und Randomisierung vereint. Ein solches Modell ist relativ ausdrucksstark: Es erlaubt Lösungen für das Mutex-Problem, das Konsens-Problem, sowie eine Lösung für das allgemeine Mutex-Problem. Beim allgemeinen Mutex-Problem (auch bekannt als Problem der speisenden Philosophen) ist eine Nachbarschaftsrelation auf den Agenten gegeben und ein Algorithmus gesucht, der das Mutex-Problem für jedes Paar von Nachbarn simultan löst. Schließlich betrachten wir das ausfalltolerante allgemeine Mutex-Problem -- eine Variante des allgemeinen Mutex-Problems, bei der Agenten ausfallen können. Wir zeigen, daß sogar die Verbindung von Fairneß und Randomisierung nicht genügt, um eine Lösung für das ausfalltolerante allgemeine Mutex-Problem zu konstruieren. Ein Hintergrund für dieses Unmöglichkeitsresultat ist ein unerwünschtes Phänomen, für das in der Literatur der Begriff Konspiration geprägt wurde. Konspiration wurde bisher nicht adäquat charakterisiert. Wir charakterisieren Konspiration auf der Grundlage nicht-sequentieller Abläufe. Desweiteren zeigen wir, daß Konspiration für eine große Klasse von Systemen durch die zusätzliche Annahme von partieller Synchronie verhindert werden kann, d.h. ein konspirationsbehaftetes System kann zu einem randomisierten System verfeinert werden, das unter Fairneß und partieller Synchronie mit Wahrscheinlichkeit 1 konspirationsfrei ist. Partielle Synchronie fordert, daß alle relativen Geschwindigkeiten im System durch eine Konstante beschränkt sind, die jedoch den Agenten nicht bekannt ist. Die Darstellung der Unmöglichkeitsresultate und die Charakterisierung von Konspiration wird erst durch die Verwendung nicht-sequentieller Abläufe möglich. Ein nicht-sequentieller Ablauf repräsentiert im Gegensatz zu einem sequentiellen Ablauf kausale Ordnung und nicht zeitliche Ordnung von Ereignissen. Wir entwickeln in dieser Arbeit eine nicht-sequentielle Semantik für randomisierte verteilte Algorithmen, da es bisher keine in der Literatur gibt. In dieser Semantik wird kausale Unabhängigkeit durch stochastische Unabhängigkeit widergespiegelt.Concepts such as fairness (i.e., fair conflict resolution), randomization (i.e., coin flips), and partial synchrony are frequently used to solve fundamental synchronization- and coordination-problems in distributed systems such as the mutual exclusion problem (mutex problem for short) and the consensus problem. For some problems it is proven that, without such concepts, no solution to the particular problem exists. Impossibilty results of that kind improve our understanding of the way distributed algorithms work. They also improve our understanding of the trade-off between a tractable model and a powerful model of distributed computation. In this thesis, we prove two new impossibility results and we investigate their reasons. We are in particular concerned with models for randomized distributed algorithms since little is yet known about the limitations of randomization with respect to the solvability of problems in distributed systems. By a solution through randomization we mean that the problem under consideration is solved with probability 1. In the first part of the thesis, we investigate the relationship between fairness and randomization. On the one hand, it is known that to some problems (e.g. to the consensus problem), randomization admits a solution where fairness does not admit a solution. On the other hand, we show that there are problems (viz. the mutex problem) to which randomization does not admit a solution where fairness does admit a solution. These results imply that fairness cannot be implemented by coin flips. In the second part of the thesis, we consider a model which combines fairness and randomization. Such a model is quite powerful, allowing solutions to the mutex problem, the consensus problem, and a solution to the generalized mutex problem. In the generalized mutex problem (a.k.a. the dining philosophers problem), a neighborhood relation is given and mutual exclusion must be achieved for each pair of neighbors. We finally consider the crash-tolerant generalized mutex problem where every hungry agent eventually becomes critical provided that neither itself nor one of its neighbors crashes. We prove that even the combination of fairness and randomization does not admit a solution to the crash-tolerant generalized mutex problem. We argue that the reason for this impossibility is the inherent occurrence of an undesirable phenomenon known as conspiracy. Conspiracy was not yet properly characterized. We characterize conspiracy on the basis of non-sequential runs, and we show that conspiracy can be prevented by help of the additional assumption of partial synchrony, i.e., we show that every conspiracy-prone system can be refined to a randomized system which is, with probability 1, conspiracy-free under the assumptions of partial synchrony and fairness. Partial synchrony means that each event consumes a bounded amount of time where, however, the bound is not known. We use a non-sequential semantics for distributed algorithms which is essential to some parts of the thesis. In particular, we develop a non-sequential semantics for randomized distributed algorithms since there is no such semantics in the literature. In this non-sequential semantics, causal independence is reflected by stochastic independence

    Stochastic modelling of large trader gains for strategies of finite quadratic variation

    Get PDF
    Die vorliegende Dissertation analysiert Großinvestorhandelsstrategien in illiquiden Finanzmärkten. Ein Großinvestor beeinflusst die Preise der Wertpapiere, die er handelt, so dass der daraus resultierende Feedbackeffekt berücksichtigt werden muss. Der Preisprozess wird durch eine Familie von cadlag Semimartingalen modelliert, die in dem zusätzlichen Parameter stetig differenzierbar ist. Ziel ist es, eine möglichst allgemeine Strategiemenge zu bestimmen, für die eine Vermögensdynamik definiert werden kann. Es sind dies vorhersehbare Prozesse von wohldefinierter quadratischer Variation entlang Stoppzeiten. Sie erweisen sich als laglad. Die Vermögensdynamikzerlegung zeigt, dass bei stetigen adaptierten Strategien von endlicher Variation (zahme Strategien) die quadratischen Transaktionskostenterme verschwinden und der Gewinnprozess nur noch aus einem nichtlinearen stochastischen Integral besteht. Es wird gezeigt, unter welchen Bedingungen gewisse Approximationen vorhersehbarer laglad Strategien durch adaptierte stetige Strategien von endlicher Variation möglich sind. Im Fall, dass der Approximationsfehler für die Risikoeinstellung des Großinvestors erträglich ist, kann er seine Investmentziele durch Verwendung dieser zahmen Strategien, Liquiditätskosten vermeidend, erreichen. In diesem Fall ist der Gewinnprozess durch das nicht-lineare stochastische Integral gegeben.The present dissertation analyses large trader strategies in illiquid financial markets. A large trader moves the prices of securities which he trades, so that the resulting feedback effect has taken into account. The price process is modeled by a family of cadlag semimartingales which are continuous differentiable in the spatial parameter. The goal is to obtain a as much as possible generic set of strategies for which a wealth process can be defined. They turn out to be predictable processes of well-defined quadratic variation along stopping times. They prove to be laglad. The wealth decomposition shows, that for continuous adapted strategies of finite variation (tame strategies) the quadratic transaction costs terms disappear and the gain process consists solely of a non-linear stochastic integral. It is shown under which conditions certain approximations of predictable laglad processes by adapted continuous processes of finite variation are attainable. In the case that the approximation error is tolerable w.r.t. the large investors attitude to risk he is able to achieve his investment goals by such tame strategies avoiding liquidity costs. In this case the gain process is given by the non-linear stochastic integral

    Zur kategoriellen Beschreibung von Schichtenarchitekturen

    Get PDF
    Es wird ein kategorieller Modellierungsansatz für Schichtenarchitekturen vorgestellt. Das Modell gliedert sich in ein graphbasiertes statisches Modell, das die Konfiguration der Komponenten und Konnektoren beschreibt, und ein dynamisches Modell, in dem die Berechnung von Aufrufen zur Laufzeit untersucht wird. Das Verhalten einer Komponente wird als Morphismus in einer lextensiven Kategorie beschrieben. Untersuchungen zu Terminierungsfragen und Verhaltensähnlichkeit sowie ein formaler Ansatz für Modelltransformationen schließen sich an

    Über Ausströmraten spezieller Flüsse

    Get PDF
    This thesis examines escape rates for suspension flows with a hole, focusing on the relation between the escape rate and the ceiling function. It is shown that the escape rate depends continuously on the ceiling function with regard to the supremum norm, that the reciprocal of the escape rate is sublinear if the base transformation of the flow is a Markov shift and that the escape rate can be expressed as an induced pressure. For the local escape rate it is shown that under suitable conditions its value depends on the ceiling function only through its integral. Furthermore, the behaviour of the escape rate is investigated for holes shrinking towards a periodic point. For flows that arise from a cylinder function over a Markov shift, one obtains a kind of power series expansion for the escape rate. It is shown that it is sufficient to know the escape rates with respect to the flow and the measure of sets in the basis in order to recover the orbit lengths of periodic points of the flow

    Rostocker Mathematisches Kolloquium. Heft 44 (1991)

    Get PDF

    Modalwertschätzung in der nichtparametrischen Kurvenschätzung und Blockwise Bootstrap für den geschätzten empirischen Prozess

    Get PDF
    Die folgende Arbeit befasst sich mit Fragestellungen der asymptotischen Statistik. Der erste Teil ist der Modalwertschätzung im Rahmen der nichtparametrischen Kurvenschätzung in verschiedenen Modellen gewidmet. Zunächst wird das Problem der Modalwertschätzung in Dekonvolutionsmodellen betrachtet, wo interessierende Zufallsvariablen nicht direkt beobachtet werden können, sondern mit einer additiven Störgröße versehen sind. Durch Verwendung von für diese Problematik üblichen Kernschätzern für die Kurven selbst werden Konvergenzraten für den Modalwertschätzer erzielt, der durch Maximierung der Kurvenschätzer definiert ist. Die erzielten Konvergenzraten im Modell der Dichteschätzung und der Errors-in-Variables-Regression sind von der Glattheit der mindestens als zweimal stetig differenzierbar angenommen Kurve sowie der Schlechtgestelltheit des Dekonvolutionsproblems abhängig und erweisen sich als asymptotisch optimal. Im Modell mit direkten Beobachtungen wird der Fall einer Kurve mit nichtdifferenzierbarer Modalstelle unter Vorliegen stark mischender Beobachtungen beleuchtet. Zur Schätzung des Modalwertes wird sowohl die Maximierung des Kurvenschätzers über dem Kontinuum sowie über einem Gitter herangezogen, beide Schätzer erweisen sich wiederum als asymptotisch optimal. Der zweite Teil dieser Arbeit behandelt den empirischen Prozesses mit geschätztem Parameter, basierend auf schwach abhängigen Beobachtungen. Zahlreiche Teststatistiken beruhen auf dem geschätzten empirischen Prozess, jedoch ist deren Verteilung von unbekannten Parametern abhängig. Daher wird der Originalprozess durch einen Prozess imitiert, welcher auf Pseudo-Beobachtungen beruht, die durch ein geeignetes Resampling-Verfahren generiert wurden. Für den Prozess der zugrundeliegenden Beobachtungen wird das auf Doukhan und Louhichi basierende Abhängigkeitskonzept der -Weak Dependence verwendet, welches allgemeiner ist als das Mixing-Konzept und etwa auch innovationsgesteuerte Prozesse mit diskret verteilten Innovationen umfasst. Es wird zunächst die Verteilungskonvergenz des geschätzten empirischen Prozesses gegen einen zentrierten Gaußprozess nachgewiesen. Weiterhin wird für den Bootstrap-Prozess die Verteilungskonvergenz in Wahrscheinlichkeit gegen einen zentrierten Gaußprozess gezeigt und daraus für geeignete Teststatistiken die schwache Konsistenz des Bootstrap-Verfahrens in der Supremums-Metrik abgeleitet

    Periodenübergreifende Budgetallokation in der Instandhaltung modularer Systeme - Ein Anwendungsfall von Deep Reinforcement Learning

    Get PDF
    Eine funktionsfähige Infrastruktur ist zentrale Voraussetzung für die Wettbewerbsfähigkeit einer Volkswirtschaft. Daher sieht beispielsweise der Bundesverkehrswegeplan bis zum Jahr 2030 allein 141,6 Mrd. Euro für die Instandhaltung der bundesdeutschen Verkehrswege vor. Netzwerke von Straßen oder Brücken sind Beispiele für modulare Systeme, in denen der effiziente Ressourceneinsatz für Instandhaltungsmaßnahmen eine herausragende Rolle spielt. Hier möchte diese Arbeit einen Beitrag leisten, indem sie Planungsansätze vorstellt, die eine effiziente Budgetallokation auf einzelne Komponenten wie z. B. Straßenabschnitte und Perioden ermöglicht, um eine größtmögliche Leistungsfähigkeit des Gesamtsystems zu erreichen. Die Festlegung einer geeigneten Budgetallokation für modulare Systeme unter Unsicherheit stellt eine anspruchsvolle Planungsaufgabe dar, die in der Literatur für unterschiedliche Annahmesysteme untersucht wurde. Besonderheiten der in der Dissertation untersuchten Problemstellung bestehen darin, dass die Planung sich auf einen mehrperiodigen Zeitraum bezieht, für den ein periodenübergreifendes Gesamtbudget zur Verfügung steht, und bei der Modellierung der zeitlichen Entwicklung der Komponentenzustände instationäre stochastische Verschleißprozesse zugelassen werden. Die Wirkungen der Investitionen in Instandhaltungsmaßnahmen der Komponenten auf deren Zustände werden durch eine Funktion beschrieben, die sich als Lösung eines Anfangswertproblems für eine nichtlineare partielle Differentialgleichung ergibt. Die Abhängigkeit der Systemleistung von den Komponentenzuständen wird in Anlehnung an die in der Instandhaltungstheorie übliche Strukturfunktion über eine monoton wachsende Strukturbewertungsfunktion modelliert, wobei der Spezialfall einer quasikonkaven Strukturbewertungsfunktion vertiefend untersucht wird. Als Zielsetzung wird die Maximierung der minimalen Perioden-Systemleistung betrachtet. Als erster Planungsansatz wird eine rollierende Planung untersucht, die unter Verwendung eines Erwartungswertmodells durchgeführt wird. Für die einperiodige Planung wird ein Grenznutzenalgorithmus entwickelt, der in einem Karush-Kuhn-Tucker-Punkt konvergiert, indem als homogener Grenznutzen positiver Investitionsentscheidungen der Lagrange-Multiplikator der Budgetrestriktion angenähert wird. Der Grenznutzen einer Instandhaltungsinvestition ergibt sich dabei jeweils als Produkt aus aktueller Birnbaum- Importanz der Komponente und Effektivität der Investition. Für den Fall quasikonkaver Strukturbewertungsfunktionen konnte die globale Optimalität von Karush-Kuhn-Tucker- Punkten auch für den mehrperiodigen Fall bewiesen werden. Der zweite Planungsansatz entspricht der Umsetzung einer flexiblen Planung zur Berechnung einer Politik, die für jede Periode und jedes Restbudget in Abhängigkeit eines beliebigen zulässigen Systemzustands eine gute Lösung für die zugehörige Budgetallokation liefert. Dazu wird das Optimierungsproblem als stochastisches dynamisches Programm aufgefasst, und die gesuchte Politik wird über die Gewichte eines tiefen neuronalen Netzes repräsentiert. Das Training dieses Netzes geschieht mittels Deep Reinforcement Learning, wobei das eingesetzte Actor-Critic-Verfahren „Deep Deterministic Policy Gradient“ spezifisch auf den Umgang mit überabzählbaren Zustands- und Aktionsräumen ausgelegt ist. Die beiden Planungsansätze werden anhand von zufällig generierten Instanzen für verschiedene Systemstrukturen (Serien-, Parallel-, Serien-Parallel- und Brückenschaltungen) mit einer zufälligen Budgetallokation und untereinander verglichen. Aus diesem Vergleich werden Handlungsempfehlungen für die geeignete Budgetallokation abgeleitet. Mit den in der Arbeit entwickelten Methoden ist es erstmalig möglich, gute periodenübergreifende Budgetallokationen für Probleme der Instandhaltungsplanung modularer Systeme unter instationären Verschleißprozessen innerhalb realistischer Rechenzeiten von – je nach Planungsansatz – einigen Sekunden bis wenigen Stunden zu berechnen.A functioning infrastructure is a key prerequisite for the competitiveness of an economy. For this reason, the German Federal Transport Infrastructure Plan, for example, earmarks 141.6 billion euros for the maintenance of Germany’s transport routes alone by 2030. Networks of roads or bridges are examples of modular systems in which the efficient use of resources for maintenance measures plays a prominent role. This thesis aims to make a contribution by presenting planning approaches that allow efficient budget allocation to individual components such as road sections and periods in order to achieve the highest possible performance of the overall system. Determining an appropriate budget allocation for modular systems under uncertainty is a challenging planning task that has been studied in the literature for different assumption systems. Special features of the problem studied in the dissertation are that the planning refers to a multi-period time frame for which a total budget spanning several periods is available, and non-stationary stochastic deterioration processes are allowed for when modeling the temporal evolution of the component states. The effects of component maintenance investments on their states are described by a function that results as a solution to an initial value problem for a nonlinear partial differential equation. The dependence of the system performance on the component states is modeled by a monotonically increasing structure evaluation function following the structure function commonly used in maintenance theory, and the special case of a quasiconcave structure evaluation function is studied in depth. The maximization of the minimum period system performance is considered as the objective. As a first planning approach, rolling planning is investigated using an expected value model. For single-period planning, a marginal utility algorithm is developed that converges to a Karush-Kuhn-Tucker point by approximating the Lagrange multiplier of the budget constraint as the homogeneous marginal utility of positive investment decisions. In each case, the marginal utility of a maintenance investment is the product of the current Birnbaum importance of the component and the effectiveness of the investment. For the case of quasiconcave structure valuation functions, the global optimality of Karush-Kuhn- Tucker points could also be proven for the multi-period case. The second planning approach corresponds to the implementation of flexible planning to compute a policy that provides a good solution for the associated budget allocation for each period and residual budget depending on any feasible system state. For this purpose, the optimization problem is conceived as a stochastic dynamic program, and the policy sought is represented by the weights of a deep neural network. The training of this network is done using Deep Reinforcement Learning, and the Actor-Critic method "Deep Deterministic Policy Gradient" used is specifically designed to deal with overcountable state and action spaces. The two planning approaches are compared using randomly generated instances for different system structures (series, parallel, series-parallel, and bridge networks) with a random budget allocation and with each other. From this comparison, recommended actions for appropriate budget allocation are derived. With the methods developed in the thesis, it is for the first time possible to compute good period-spanning budget allocations for problems of maintenance planning of modular systems under nonstationary deterioration processes within realistic computation times of - depending on the planning approach - a few seconds to a few hours

    Relevanzbasierte Informationsbeschaffung für die informierte Entscheidungsfindung intelligenter Agenten

    Get PDF
    This dissertation introduces relevance-based information acquisition for intelligent software agents based on Howard s information value theory and decision networks. Active information acquisition is crucial in domains with partial observability in order to establish situation awareness of autonomous systems for deliberate decisions. The new semi-myopic approach addresses the complexity challenge of decision-theoretic relevance computation by reducing the set of variables to be evaluated in the first place. Links in a decision network encode stochastic dependencies of variables. Through utility dependency analysis using Pearl s d-separation criterion, the set of relevant variables can be efficiently reduced to a proven minimum without actually computing information value. In addition to an implementation with detailed runtime performance analysis, the applicability of the approach is shown in the domain of intelligent logistics control

    AUSz: Acta Scientiarum Mathematicarum Tomus VIII.

    Get PDF
    corecore