8 research outputs found

    Frog Model Wakeup Time on the Complete Graph

    Get PDF
    The frog model is a system of random walks where active particles set sleeping particles in motion. On the complete graph with n vertices it is equivalent to a well-understood rumor spreading model. We given an alternate and elementary proof that the wakeup time, that is, the expected time for every particle to be activated, is &Theta(log n). Additionally, we give an explicit distributional equation for the wakeup time as a mixture of geometric random variables

    Universal Protocols for Information Dissemination Using Emergent Signals

    Get PDF
    We consider a population of nn agents which communicate with each other in a decentralized manner, through random pairwise interactions. One or more agents in the population may act as authoritative sources of information, and the objective of the remaining agents is to obtain information from or about these source agents. We study two basic tasks: broadcasting, in which the agents are to learn the bit-state of an authoritative source which is present in the population, and source detection, in which the agents are required to decide if at least one source agent is present in the population or not.We focus on designing protocols which meet two natural conditions: (1) universality, i.e., independence of population size, and (2) rapid convergence to a correct global state after a reconfiguration, such as a change in the state of a source agent. Our main positive result is to show that both of these constraints can be met. For both the broadcasting problem and the source detection problem, we obtain solutions with a convergence time of O(log2n)O(\log^2 n) rounds, w.h.p., from any starting configuration. The solution to broadcasting is exact, which means that all agents reach the state broadcast by the source, while the solution to source detection admits one-sided error on a ε\varepsilon-fraction of the population (which is unavoidable for this problem). Both protocols are easy to implement in practice and have a compact formulation.Our protocols exploit the properties of self-organizing oscillatory dynamics. On the hardness side, our main structural insight is to prove that any protocol which meets the constraints of universality and of rapid convergence after reconfiguration must display a form of non-stationary behavior (of which oscillatory dynamics are an example). We also observe that the periodicity of the oscillatory behavior of the protocol, when present, must necessarily depend on the number ^\\# X of source agents present in the population. For instance, our protocols inherently rely on the emergence of a signal passing through the population, whose period is \Theta(\log \frac{n}{^\\# X}) rounds for most starting configurations. The design of clocks with tunable frequency may be of independent interest, notably in modeling biological networks

    Robustness of randomized rumour spreading

    Get PDF
    In this work we consider three well-studied broadcast protocols: push, pull and push&pull. A key property of all these models, which is also an important reason for their popularity, is that they are presumed to be very robust, since they are simple, randomized and, crucially, do not utilize explicitly the global structure of the underlying graph. While sporadic results exist, there has been no systematic theoretical treatment quantifying the robustness of these models. Here we investigate this question with respect to two orthogonal aspects: (adversarial) modifications of the underlying graph and message transmission failures. We explore in particular the following notion of local resilience: beginning with a graph, we investigate up to which fraction of the edges an adversary may delete at each vertex, so that the protocols need significantly more rounds to broadcast the information. Our main findings establish a separation among the three models. On one hand, pull is robust with respect to all parameters that we consider. On the other hand, push may slow down significantly, even if the adversary may modify the degrees of the vertices by an arbitrarily small positive fraction only. Finally, push&pull is robust when no message transmission failures are considered, otherwise it may be slowed down. On the technical side, we develop two novel methods for the analysis of randomized rumour-spreading protocols. First, we exploit the notion of self-bounding functions to facilitate significantly the round-based analysis: we show that for any graph the variance of the growth of informed vertices is bounded by its expectation, so that concentration results follow immediately. Second, in order to control adversarial modifications of the graph we make use of a powerful tool from extremal graph theory, namely Szemeredi's Regularity Lemma

    Rumor spreading: robustness and limiting distributions

    Get PDF
    In this thesis, we study mathematical aspects of information dissemination. The four collected works investigate randomized rumor spreading with regard to its robustness and asymptotic runtime as well as adversarial effects on opinion forming. In the first contribution, Robustness of Randomized Rumor Spreading, we investigate the popular randomized rumor spreading algorithms push, pull and pushpull. These are used to spread information quickly through large networks, typically modelled by graphs. Starting with one informed vertex and depending on the used algorithm the information is spread in a round based manner. Using push, every informed vertex chooses a random neighbour and passes the information forward. With pull, each vertex yet uninformed connects to a randomly chosen neighbor and receives the information, if the vertex it connected to is informed. pushpull is a combination of push and pull. Every vertex chooses a random neighbour, if one of them is informed then the other will be informed as well. Their advantages over deterministic algorithms are, that they are easy to implement, fast and very robust against failures. However, there is only sporadic information available to substantiate the claimed robustness. The aim of this work is to close this gap. To that end, three orthogonal properties and their effects on the speed of the dissemination are studied. First, we show that the density of the graph does not play an important role. For fast dissemination it is not relevant how many edges there are, but how evenly they are distributed in the graph. Thus, a network could have many faulty connections, but as long as the remaining ones are spread evenly the speed of the dissemination is not significantly impacted. This begs the question how evenly the remaining edges need to be spread to guarantee a fast dissemination. Surprisingly, the answer to this question is not the same for all three rumor spreading algorithms. pull and pushpull are very robust. Starting from a graph with evenly distributed edges and thus fast dissemination one may introduce irregularities by deleting up to one half of all edges at each node and the dissemination remains fast. However, for push the dissemination already slows down significantly if only few irregularities are introduced. Lastly, we additionally consider random message transmission failures. From previous works, we know that on "nice" graphs all three algorithms only slow down proportionally to the failure probability. However, when considering the effect of density and irregularities together with transmission failures, the picture changes once more. pull alone retains its fast dissemination. With a suitable choice of parameters, pushpull similar to \push can be slowed down significantly. Thus, we can not unconditionally confirm the claimed robustness for all three rumor spreading algorithms, only pull proved to be robust against all introduced challenges, push and pushpull, however, did not. In the second contribution, Asymptotics for Push on the Complete Graph, we move from the general approach of quantifying the robustness of all three randomized rumor spreading algorithms on a broad range of networks to very precisely describing the runtime of push on complete graphs only. Thereby, the runtime is defined as the time until the information is disseminated to all vertices in the graph. In this work, we completely describe the limiting distribution of the runtime of push on the complete graph in terms of a Gumbel distributed random variable. We made a surprising observation, the asymptotic distribution does not converge everywhere, only on suitable subsequences. This results in the phenomena, that the expected runtime is not constant either but infimum and supremum over all n differ by about 10^-4. After successfully solving push on the complete graph, a natural question is to ask whether the same can be achieved for other rumor spreading algorithms. The third contribution, Asymptotics for Pull on the Complete Graph, answers this question for pull, describing the asymptotic distribution of the runtime of pull on the complete graph in terms of a martingale limit. Again we observed that the limiting distribution only exists on suitable subsequences. We study the expected runtime numerically, finding strong evidence that it is not constant either. The last contribution, The Effect of Iterativity on Adversarial Opinion Forming, deviates from the previously considered model and introduces a second competing piece of information. We interpret them as opinions and assume one to be the truth and the other one to be a falsehood. The opinions are spread through the network by a simple majority rule, i.e. uninformed vertices take the majority opinion of their informed neighbours. Known properties that guarantee robustness are the degree being sufficiently bounded or the edges being evenly distributed. The question considered in this contribution is whether an alternative iterative dissemination process influences robustness. Alon et al. conjecture that iterativity is always beneficial for the adversary. We refute that conjecture by giving a graph where iterativity benefits robustness.In dieser Arbeit beschäftigen wir uns mit mathematischen Aspekten der Informationsverbreitung in Netzwerken. Die vier gesammelten Beiträge untersuchen randomisierte Gerüchteverbreitungsalgorithmen hinsichtlich ihrer Robustheit und asymptotischen Laufzeit, sowie gegnerische Auswirkungen auf die Meinungsbildung. Der erste Beitrag, Robustness of Randomized Rumor Spreading, befasst sich mit den populären randomisierten Gerüchteverbreitungsalgorithmen Push, Pull und Push&Pull. Diese werden dazu verwendet, um Informationen schnell durch große, als Graphen modellierte Netzwerke zu verteilen. Beginnend mit einem informierten Knoten und in Runden verfahrend, werden die Informationen abhängig vom verwendeten Algorithmus verteilt. Wird \push benutzt, so wählt jeder informierte Knoten einen zufälligen Nachbarn und gibt die Information weiter. Mit Pull wählen uninformierte Knoten zufällige Nachbarn und werden informiert, falls der gewählte Nachbar informiert ist. Push&Pull ist eine Kombination aus Push und Pull. Jeder Knoten wählt einen zufälligen Nachbarn aus, ist einer der beiden informiert, so wird auch der andere informiert. Mit einer einfachen Implementierung, hohen Geschwindigkeit und einer starken Robustheit heben sich die randomisierten Gerüchteverbreitungsalgorithmen positiv von deterministischen Algorithmen ab. Bisher liegen jedoch nur sporadische Informationen vor, um die beobachtete Robustheit auch rigoros zu belegen. Ziel dieser Arbeit ist es, diese Lücke zu schließen. Dafür betrachten wir drei verschiedene, strukturelle Eigenschaften der Graphen, um deren Auswirkungen auf die Geschwindigkeit der Verbreitung zu studieren. Als erstes Ergebnis zeigen wir, dass die Dichte des Netzwerks keinen nennenswerten Einfluss hat. Für eine schnelle Verbreitung der Informationen ist nicht die Anzahl der Kanten relevant, sondern deren gleichmäßige Verteilung. Ein Netzwerk könnte folglich viele fehlerhafte Verbindungen haben, aber solange die verbleibenden Verbindungen gleichmäßig verteilt sind, wird die Verbreitung nicht wesentlich verlangsamt. Dies regt die Untersuchung an, wie gleichmäßig die verbleibenden Kanten sein müssen, um eine schnelle Verbreitung zu gewährleisten. Wider Erwarten konnten wir Unterschiede in Abhängigkeit des gewählten Gerüchteverbreitungsalgorithmus aufzeigen. Pull und Push&Pull sind sehr widerstandsfähig. Denn ausgehend von einem „schönen“ Graph mit gleichmäßig verteilten Kanten können durch Löschen von Kanten Unregelmäßigkeiten eingebracht werden durch die sich die Geschwindigkeit der Gerüchteverbreitung nicht nennenswert verändert. Im Gegensatz dazu verlangsamt sich die Verbreitung mit Push bereits erheblich, wenn nur wenige Unregelmäßigkeiten auftreten. Abschließend befassen wir uns ergänzend mit zufällig auftretenden Übertragungsfehlern. Aus früheren Arbeiten wissen wir, dass sich bei „schönen“ Graphen alle drei Algorithmen nur proportional zur Ausfallswahrscheinlichkeit verlangsamen. Betrachten wir hingegen die Auswirkungen der Dichte und der Unregelmäßigkeiten mit Übertragungsfehlern zusammen, entsteht eine neue Sachlage. Dabei behält nur Pull seine schnelle Verbreitung bei, Push&Ppull kann bei einer entsprechenden Wahl der Parameter ähnlich wie Push verlangsamt werden. Somit ist eine Bestätigung der behaupteten Robustheit der drei Gerüchteverbreitungsalgorithmen nicht bedingungslos möglich. Lediglich Pull erwies sich als widerstandsfähig gegenüber allen betrachteten Problemen, Push und Push&Pull jedoch nicht. Im zweiten Beitrag, Asymptotics for Push on the Complete Graph, gehen wir vom allgemeinen Ansatz der Beschreibung der Robustheit aller drei randomisierten Gerüchteverbreitungsalgorithmen auf einem breiten Spektrum von Netzwerken zu einer sehr präzise Beschreibung der Laufzeit von Push auf vollständigen Graphen über. Dabei definiert sich die Laufzeit als die Zeit, in der die Information an alle Knoten im Graph verteilt wird. In dieser Arbeit beschreiben wir die Grenzverteilung der Laufzeit von Push auf dem vollständigen Graph. Dabei haben wir eine überraschende Beobachtung gemacht, denn die asymptotische Verteilung konvergiert nicht überall, sondern nur auf geeigneten Teilfolgen. Dies resultiert in dem Phänomen, dass die erwartete Laufzeit nicht konstant ist, vielmehr unterscheiden sich Supremum und Infimum über alle n um ungefähr 10^-4. Nach dieser erkenntnisreichen Arbeit stellt sich die natürliche Frage, ob dasselbe für die anderen Gerüchteverbreitungsalgorithmen gilt. Die daran anschließende Arbeit Asymptotics for Pull on the Complete Graph bejaht die aufgeworfene Frage für Pull, indem die asymptotische Verteilung der Laufzeit von Pull auf vollständigen Graph mit Hilfe eines Martingalgrenzwertes beschrieben wird. Ferner wird beobachtet, dass die Grenzverteilung nur auf geeigneten Teilfolgen existiert. Die erwartete Laufzeit wird mit Hilfe dieser Beschreibungen empirisch untersucht, wobei es eine starke Evidenz gibt, dass auch diese nicht konstant ist. Der letzte Beitrag, The Effect of Iterativity on Adversarial Opinion Forming, weicht vom bisher betrachteten Modell ab und führt eine zweite, konkurrierende Information ein. Diese interpretieren wir als Meinungen und nehmen eine davon als wahr an. Die Meinungen werden durch eine einfache Mehrheitsregel im Netzwerk verbreitet, d.h. uninformierte Knoten nehmen die Mehrheitsmeinung ihrer informierten Nachbarn an. Dabei sehen wir ein Netzwerk als robust an, wenn selbst ein Kontrahent die anfangs informierten Knoten nur so wählen kann, dass am Ende der Verbreitung stets die Mehrheit der Knoten von der Wahrheit überzeugt ist. Bekannte Beispiele robuster Netzwerke sind solche mit hinreichend beschränkten Knotengraden oder mit ausreichend gleichmäßig verteilten Kanten. In unserem Beitrag betrachten wir die Frage, inwiefern Robustheit durch einen alternativen, iterativen Verbreitungsprozess beeinflusst wird. Alon et al. vermuten eine negative Auswirkung von Iteration auf Robustheit. Wir widerlegen diese Vermutung durch Konstruktion eines Graphen, auf welchem ein iterativer Prozess die Verbreitung der Wahrheit begünstigt

    Tight Analysis of Randomized Rumor Spreading in Complete Graphs

    No full text

    Tight(er) bounds for similarity measures, smoothed approximation and broadcasting

    Get PDF
    In this thesis, we prove upper and lower bounds on the complexity of sequence similarity measures, the approximability of geometric problems on realistic inputs, and the performance of randomized broadcasting protocols. The first part approaches the question why a number of fundamental polynomial-time problems - specifically, Dynamic Time Warping, Longest Common Subsequence (LCS), and the Levenshtein distance - resists decades-long attempts to obtain polynomial improvements over their simple dynamic programming solutions. We prove that any (strongly) subquadratic algorithm for these and related sequence similarity measures would refute the Strong Exponential Time Hypothesis (SETH). Focusing particularly on LCS, we determine a tight running time bound (up to lower order factors and conditional on SETH) when the running time is expressed in terms of all input parameters that have been previously exploited in the extensive literature. In the second part, we investigate the approximation performance of the popular 2-Opt heuristic for the Traveling Salesperson Problem using the smoothed analysis paradigm. For the Fréchet distance, we design an improved approximation algorithm for the natural input class of c-packed curves, matching a conditional lower bound. Finally, in the third part we prove tighter performance bounds for processes that disseminate a piece of information, either as quickly as possible (rumor spreading) or as anonymously as possible (cryptogenography).Die vorliegende Dissertation beweist obere und untere Schranken an die Komplexität von Sequenzähnlichkeitsmaßen, an die Approximierbarkeit geometrischer Probleme auf realistischen Eingaben und an die Effektivität randomisierter Kommunikationsprotokolle. Der erste Teil befasst sich mit der Frage, warum für eine Vielzahl fundamentaler Probleme im Polynomialzeitbereich - insbesondere für das Dynamic-Time-Warping, die längste gemeinsame Teilfolge (LCS) und die Levenshtein-Distanz - seit Jahrzehnten keine Algorithmen gefunden werden konnten, die polynomiell schneller sind als ihre einfachen Lösungen mittels dynamischer Programmierung. Wir zeigen, dass ein (im strengen Sinne) subquadratischer Algorithmus für diese und verwandte Ähnlichkeitsmaße die starke Exponentialzeithypothese (SETH) widerlegen würde. Für LCS zeigen wir eine scharfe Schranke an die optimale Laufzeit (unter der SETH und bis auf Faktoren niedrigerer Ordnung) in Abhängigkeit aller bisher untersuchten Eingabeparameter. Im zweiten Teil untersuchen wir die Approximationsgüte der klassischen 2-Opt-Heuristik für das Problem des Handlungsreisenden anhand des Smoothed-Analysis-Paradigmas. Weiterhin entwickeln wir einen verbesserten Approximationsalgorithmus für die Fréchet-Distanz auf einer Klasse natürlicher Eingaben. Der letzte Teil beweist neue Schranken für die Effektivität von Prozessen, die Informationen entweder so schnell wie möglich (Rumor-Spreading) oder so anonym wie möglich (Kryptogenografie) verbreiten

    27th Annual European Symposium on Algorithms: ESA 2019, September 9-11, 2019, Munich/Garching, Germany

    Get PDF
    corecore