81 research outputs found

    Auswertung der Skorokhodmetrik

    Full text link
    Die Skorokhodmetrik steht ĂŒblicherweise im Zusammenhang mit stochastischen Grenzwerten. Eine Formel zur Auswertung der Skorokhodmetrik stĂŒckweise konstanter Pfade auf dem Einheitsintervall wird hergeleitet. Basierend auf dieser Formel wird ferner ein Algorithmus zur Auswertung in polynomieller Zeit sowie ein Approximationsschema fĂŒr den Skorokhodabstand monotoner cĂ dlĂ g-Funktionen mit beliebiger Genauigkeit entwickelt

    Expandergraphen und Derandomisierung

    Get PDF
    In der vorliegenden Arbeit wird der Artikel 'Derandomizing the Ahlswede-Winter matrix-valued Chernoff bound using pessimistic estimators, and applications' von Wigderson und Xiao detailliert nachvollzogen. Es wird aufgezeigt, wie der Beweis der matrixwertigen Chernoff-Ungleichung von Ahlswede und Winter verlĂ€uft. Mit diesen Ergebnissen und der Methode der pessimistischen SchĂ€tzer wird schließlich der Beweis des Alon-Roichman-Theorems entrandomisiert

    Das zufĂ€llige ErfĂŒllbarkeitsproblem

    Get PDF
    Die Arbeit befasst sich insbesondere mit dem PhasenĂŒbergang des zufĂ€lligen k-SAT Problems

    On the algorithmic complexity of regular languages

    Get PDF
    Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulĂ€ren AusdrĂŒcken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulĂ€ren AusdrĂŒcken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulĂ€rer Ausdruck der GrĂ¶ĂŸe n gegeben ist, löst ein Approximationsalgorithmus fĂŒr das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollstĂ€ndiges Problem. Wenn wir uns auf NFAs oder regulĂ€re AusdrĂŒcke ĂŒber einem unĂ€ren - also einelementigen - Alphabet beschrĂ€nken, so ist das Problem der exakten Minimierung NP-vollstĂ€ndig. Wir weisen nach, dass effiziente Approximationen fĂŒr das unĂ€re Minimierungsproblem mit Approximationsfaktor n^(1-delta) fĂŒr jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n ZustĂ€nden vor, kann sie exponentiell grĂ¶ĂŸer sein als ein Ă€quivalenter NFA oder regulĂ€rer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der ÜbergĂ€nge oder ZustĂ€nde in einem Ă€quivalenten NFA oder die LĂ€nge eines Ă€quivalenten regulĂ€ren Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfĂŒr keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) fĂŒr die Zahl der ÜbergĂ€nge im NFA oder die LĂ€nge des regulĂ€ren Ausdrucks garantieren kann. FĂŒr die Zahl der ZustĂ€nde im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme fĂŒr regulĂ€re Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es fĂŒr das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. FĂŒr den unĂ€ren Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus fĂŒr unĂ€re regulĂ€re Sprachen, die von DFAs mit n ZustĂ€nden akzeptiert werden. FĂŒr unĂ€re Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollstĂ€ndige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unĂ€ren Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) ZustĂ€nden konstruiert, wenn ein minimaler konsistenter NFA opt ZustĂ€nde hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. FĂŒr den nicht-unĂ€ren Fall ist bekannt, dass exponentiell viele Fragen fĂŒr DFAs mit n ZustĂ€nden benötigt werden. FĂŒr unĂ€re zyklische DFAs mit primer ZykluslĂ€nge und höchstens n ZustĂ€nden zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir grĂ¶ĂŸere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n ZustĂ€nden durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d ZustĂ€nden fĂŒr d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.We consider the approximate minimization of NFAs and regular expressions. It is known that exact minimization is PSpace hard in the general case. We show that even weak approximations solve hard problems and thus efficient approximations with reasonable approximation factors probably don't exist. We also consider the problem of learning regular languages and show positive and negative results for the problem of learning of learning a unary regular language in some well known frameworks of machine learning

    Entwicklung einer Programmierhilfe fĂŒr die Diehl Combitron

    Get PDF
    Die Diehl Combitron ist ein Tischrechner aus den spĂ€ten sechziger Jahren, der mit einem turingvollstĂ€ndigen Computer ausgestattet ist. Dieser Computer besitzt eine exotische Architektur, welche ohne BefehlszĂ€hler oder Speicheradressiereinheit auskommt. Da dieser Computer nur sehr wenig Dokumentation in Form von zwei ServicehandbĂŒchern besitzt, wird in dieser Arbeit nun eine ausfĂŒhrlichere, zusammenhĂ€ngende Dokumentation erstellt. Zudem werden fĂŒr den Computer Programmierwerkzeuge entwickelt, unter anderem ein Assembler und eine Programmanalyse-Werkzeug. Diese Werkzeuge werden in Entwicklung, Benutzung sowie Funktionsweise dokumentiert

    Algorithmische Aspekte des Lokalen LovĂĄsz Lemmas

    Get PDF
    Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen LovĂĄsz Lemmas (LLL) beschrieben und ein Überblick ĂŒber die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von JĂłszef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke BeschĂ€ftigung mit dem Thema und eine FĂŒlle von Verbesserungen entwickelt. In Kapitel 1 wird als Motivation eine kurze EinfĂŒhrung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul ErdƑs eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu fĂŒhren. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee. In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht. In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsĂ€chlichen Konstruktion derselben zu gelangen. In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet

    Fairneß, Randomisierung und Konspiration in verteilten Algorithmen

    Get PDF
    Fairneß (d.h. faire Konfliktlösung), Randomisierung (d.h. MĂŒnzwĂŒrfe) und partielle Synchronie sind verschiedene Konzepte, die hĂ€ufig zur Lösung zentraler Synchronisations- und Koordinationsprobleme in verteilten Systemen verwendet werden. Beispiele fĂŒr solche Probleme sind das Problem des wechselseitigen Ausschlusses (kurz: Mutex-Problem) sowie das Konsens-Problem. FĂŒr einige solcher Probleme wurde bewiesen, daß ohne die oben genannten Konzepte keine Lösung fĂŒr das betrachtete Problem existiert. Unmöglichkeitsresultate dieser Art verbessern unser VerstĂ€ndnis der Wirkungsweise verteilter Algorithmen sowie das VerstĂ€ndnis des Trade-offs zwischen einem leicht analysierbaren und einem ausdrucksstarken Modell fĂŒr verteiltes Rechnen. In dieser Arbeit stellen wir zwei neue Unmöglichkeitsresultate vor. DarĂŒberhinaus beleuchten wir ihre HintergrĂŒnde. Wir betrachten dabei Modelle, die Randomisierung einbeziehen, da bisher wenig ĂŒber die Grenzen der AusdrucksstĂ€rke von Randomisierung bekannt ist. Mit einer Lösung eines Problems durch Randomisierung meinen wir, daß das betrachtete Problem mit Wahrscheinlichkeit 1 gelöst wird. Im ersten Teil der Arbeit untersuchen wir die Beziehung von Fairneß und Randomisierung. Einerseits ist bekannt, daß einige Probleme (z.B. das Konsens- Problem) durch Randomisierung nicht aber durch Fairneß lösbar sind. Wir zeigen nun, daß es andererseits auch Probleme gibt (nĂ€mlich das Mutex-Problem), die durch Fairneß, nicht aber durch Randomisierung lösbar sind. Daraus folgt, daß Fairneß nicht durch Randomisierung implementiert werden kann. Im zweiten Teil der Arbeit verwenden wir ein Modell, das Fairneß und Randomisierung vereint. Ein solches Modell ist relativ ausdrucksstark: Es erlaubt Lösungen fĂŒr das Mutex-Problem, das Konsens-Problem, sowie eine Lösung fĂŒr das allgemeine Mutex-Problem. Beim allgemeinen Mutex-Problem (auch bekannt als Problem der speisenden Philosophen) ist eine Nachbarschaftsrelation auf den Agenten gegeben und ein Algorithmus gesucht, der das Mutex-Problem fĂŒr jedes Paar von Nachbarn simultan löst. Schließlich betrachten wir das ausfalltolerante allgemeine Mutex-Problem -- eine Variante des allgemeinen Mutex-Problems, bei der Agenten ausfallen können. Wir zeigen, daß sogar die Verbindung von Fairneß und Randomisierung nicht genĂŒgt, um eine Lösung fĂŒr das ausfalltolerante allgemeine Mutex-Problem zu konstruieren. Ein Hintergrund fĂŒr dieses Unmöglichkeitsresultat ist ein unerwĂŒnschtes PhĂ€nomen, fĂŒr das in der Literatur der Begriff Konspiration geprĂ€gt wurde. Konspiration wurde bisher nicht adĂ€quat charakterisiert. Wir charakterisieren Konspiration auf der Grundlage nicht-sequentieller AblĂ€ufe. Desweiteren zeigen wir, daß Konspiration fĂŒr eine große Klasse von Systemen durch die zusĂ€tzliche Annahme von partieller Synchronie verhindert werden kann, d.h. ein konspirationsbehaftetes System kann zu einem randomisierten System verfeinert werden, das unter Fairneß und partieller Synchronie mit Wahrscheinlichkeit 1 konspirationsfrei ist. Partielle Synchronie fordert, daß alle relativen Geschwindigkeiten im System durch eine Konstante beschrĂ€nkt sind, die jedoch den Agenten nicht bekannt ist. Die Darstellung der Unmöglichkeitsresultate und die Charakterisierung von Konspiration wird erst durch die Verwendung nicht-sequentieller AblĂ€ufe möglich. Ein nicht-sequentieller Ablauf reprĂ€sentiert im Gegensatz zu einem sequentiellen Ablauf kausale Ordnung und nicht zeitliche Ordnung von Ereignissen. Wir entwickeln in dieser Arbeit eine nicht-sequentielle Semantik fĂŒr randomisierte verteilte Algorithmen, da es bisher keine in der Literatur gibt. In dieser Semantik wird kausale UnabhĂ€ngigkeit durch stochastische UnabhĂ€ngigkeit widergespiegelt.Concepts such as fairness (i.e., fair conflict resolution), randomization (i.e., coin flips), and partial synchrony are frequently used to solve fundamental synchronization- and coordination-problems in distributed systems such as the mutual exclusion problem (mutex problem for short) and the consensus problem. For some problems it is proven that, without such concepts, no solution to the particular problem exists. Impossibilty results of that kind improve our understanding of the way distributed algorithms work. They also improve our understanding of the trade-off between a tractable model and a powerful model of distributed computation. In this thesis, we prove two new impossibility results and we investigate their reasons. We are in particular concerned with models for randomized distributed algorithms since little is yet known about the limitations of randomization with respect to the solvability of problems in distributed systems. By a solution through randomization we mean that the problem under consideration is solved with probability 1. In the first part of the thesis, we investigate the relationship between fairness and randomization. On the one hand, it is known that to some problems (e.g. to the consensus problem), randomization admits a solution where fairness does not admit a solution. On the other hand, we show that there are problems (viz. the mutex problem) to which randomization does not admit a solution where fairness does admit a solution. These results imply that fairness cannot be implemented by coin flips. In the second part of the thesis, we consider a model which combines fairness and randomization. Such a model is quite powerful, allowing solutions to the mutex problem, the consensus problem, and a solution to the generalized mutex problem. In the generalized mutex problem (a.k.a. the dining philosophers problem), a neighborhood relation is given and mutual exclusion must be achieved for each pair of neighbors. We finally consider the crash-tolerant generalized mutex problem where every hungry agent eventually becomes critical provided that neither itself nor one of its neighbors crashes. We prove that even the combination of fairness and randomization does not admit a solution to the crash-tolerant generalized mutex problem. We argue that the reason for this impossibility is the inherent occurrence of an undesirable phenomenon known as conspiracy. Conspiracy was not yet properly characterized. We characterize conspiracy on the basis of non-sequential runs, and we show that conspiracy can be prevented by help of the additional assumption of partial synchrony, i.e., we show that every conspiracy-prone system can be refined to a randomized system which is, with probability 1, conspiracy-free under the assumptions of partial synchrony and fairness. Partial synchrony means that each event consumes a bounded amount of time where, however, the bound is not known. We use a non-sequential semantics for distributed algorithms which is essential to some parts of the thesis. In particular, we develop a non-sequential semantics for randomized distributed algorithms since there is no such semantics in the literature. In this non-sequential semantics, causal independence is reflected by stochastic independence
    • 

    corecore