10 research outputs found

    Approximated distributed minimum vertex cover algorithms for bounded degree graphs

    No full text
    LNCS v. 6196 is the Conference Proceedings of COCOON 2010In this paper, two distributed algorithms for the minimum vertex cover problem are given. In the unweighted case, we propose a 2.5-approximation algorithm with round complexity O(Δ), where Δ is the maximal degree of G, improving the previous 3-approximation result with the same round complexity O(Δ). For the weighted case, we give a 4-approximation algorithm with round complexity O(Δ). © 2010 Springer-Verlag Berlin Heidelberg.link_to_subscribed_fulltextThe 16th Annual International Computing and Combinatorics Conference (COCOON 2010), Nha Trang, Vietnam, 19-21 July 2010. In Lecture Notes in Computer Science, 2010, v. 6196, p. 100–10

    Optimal Dynamic Subset Sampling: Theory and Applications

    Full text link
    We study the fundamental problem of sampling independent events, called subset sampling. Specifically, consider a set of nn events S={x1,
,xn}S=\{x_1, \ldots, x_n\}, where each event xix_i has an associated probability p(xi)p(x_i). The subset sampling problem aims to sample a subset T⊆ST \subseteq S, such that every xix_i is independently included in SS with probability pip_i. A naive solution is to flip a coin for each event, which takes O(n)O(n) time. However, the specific goal is to develop data structures that allow drawing a sample in time proportional to the expected output size ÎŒ=∑i=1np(xi)\mu=\sum_{i=1}^n p(x_i), which can be significantly smaller than nn in many applications. The subset sampling problem serves as an important building block in many tasks and has been the subject of various research for more than a decade. However, most of the existing subset sampling approaches are conducted in a static setting, where the events or their associated probability in set SS is not allowed to be changed over time. These algorithms incur either large query time or update time in a dynamic setting despite the ubiquitous time-evolving events with changing probability in real life. Therefore, it is a pressing need, but still, an open problem, to design efficient dynamic subset sampling algorithms. In this paper, we propose ODSS, the first optimal dynamic subset sampling algorithm. The expected query time and update time of ODSS are both optimal, matching the lower bounds of the subset sampling problem. We present a nontrivial theoretical analysis to demonstrate the superiority of ODSS. We also conduct comprehensive experiments to empirically evaluate the performance of ODSS. Moreover, we apply ODSS to a concrete application: influence maximization. We empirically show that our ODSS can improve the complexities of existing influence maximization algorithms on large real-world evolving social networks.Comment: ACM SIGKDD 202

    The Partial Visibility Representation Extension Problem

    Full text link
    For a graph GG, a function ψ\psi is called a \emph{bar visibility representation} of GG when for each vertex v∈V(G)v \in V(G), ψ(v)\psi(v) is a horizontal line segment (\emph{bar}) and uv∈E(G)uv \in E(G) iff there is an unobstructed, vertical, Δ\varepsilon-wide line of sight between ψ(u)\psi(u) and ψ(v)\psi(v). Graphs admitting such representations are well understood (via simple characterizations) and recognizable in linear time. For a directed graph GG, a bar visibility representation ψ\psi of GG, additionally, puts the bar ψ(u)\psi(u) strictly below the bar ψ(v)\psi(v) for each directed edge (u,v)(u,v) of GG. We study a generalization of the recognition problem where a function ψâ€Č\psi' defined on a subset Vâ€ČV' of V(G)V(G) is given and the question is whether there is a bar visibility representation ψ\psi of GG with ψ(v)=ψâ€Č(v)\psi(v) = \psi'(v) for every v∈Vâ€Čv \in V'. We show that for undirected graphs this problem together with closely related problems are \NP-complete, but for certain cases involving directed graphs it is solvable in polynomial time.Comment: Appears in the Proceedings of the 24th International Symposium on Graph Drawing and Network Visualization (GD 2016

    Lossy Kernelization

    Get PDF
    In this paper we propose a new framework for analyzing the performance of preprocessing algorithms. Our framework builds on the notion of kernelization from parameterized complexity. However, as opposed to the original notion of kernelization, our definitions combine well with approximation algorithms and heuristics. The key new definition is that of a polynomial size α\alpha-approximate kernel. Loosely speaking, a polynomial size α\alpha-approximate kernel is a polynomial time pre-processing algorithm that takes as input an instance (I,k)(I,k) to a parameterized problem, and outputs another instance (Iâ€Č,kâ€Č)(I',k') to the same problem, such that ∣Iâ€Č∣+kâ€Č≀kO(1)|I'|+k' \leq k^{O(1)}. Additionally, for every c≄1c \geq 1, a cc-approximate solution sâ€Čs' to the pre-processed instance (Iâ€Č,kâ€Č)(I',k') can be turned in polynomial time into a (c⋅α)(c \cdot \alpha)-approximate solution ss to the original instance (I,k)(I,k). Our main technical contribution are α\alpha-approximate kernels of polynomial size for three problems, namely Connected Vertex Cover, Disjoint Cycle Packing and Disjoint Factors. These problems are known not to admit any polynomial size kernels unless NP⊆coNP/polyNP \subseteq coNP/poly. Our approximate kernels simultaneously beat both the lower bounds on the (normal) kernel size, and the hardness of approximation lower bounds for all three problems. On the negative side we prove that Longest Path parameterized by the length of the path and Set Cover parameterized by the universe size do not admit even an α\alpha-approximate kernel of polynomial size, for any α≄1\alpha \geq 1, unless NP⊆coNP/polyNP \subseteq coNP/poly. In order to prove this lower bound we need to combine in a non-trivial way the techniques used for showing kernelization lower bounds with the methods for showing hardness of approximationComment: 58 pages. Version 2 contain new results: PSAKS for Cycle Packing and approximate kernel lower bounds for Set Cover and Hitting Set parameterized by universe siz

    Tree-Structured Problems and Parallel Computation

    Get PDF
    Turing-Maschinen sind das klassische Beschreibungsmittel fĂŒr Wortsprachen und werden daher auch benĂŒtzt, um KomplexitĂ€tsklassen zu definieren. Dies geschieht zum Beispiel durch das EinschrĂ€nken des Platz- oder Zeitaufwandes der Berechnung zur Lösung eines Problems. FĂŒr sehr niedrige KomplexitĂ€t wie etwa sublineare Laufzeit, werden Schaltkreise verwendet. Schaltkreise können auf natĂŒrliche Art KomplexitĂ€ten wie etwa logarithmische Laufzeit modellieren. Ebenso können sie als eine Art paralleles Rechenmodell gesehen werden. Eine wichtige parallele KomplexitĂ€tsklasse ist NC1. Sie wird beschrieben durch Boolesche Schaltkreise logarithmischer Tiefe und beschrĂ€nktem Eingangsgrad der Gatter. Eine initiale Beobachtung, die die vorliegende Arbeit motiviert, ist, dass viele schwere Probleme in NC1 eine Ă€hnliche Struktur haben und auf Ă€hnliche Art und Weise gelöst werden. Das Auswertungsproblem fĂŒr Boolesche Formeln ist eines der reprĂ€sentativsten Probleme aus dieser Klasse: Gegeben ist hier eine aussagenlogische Formel samt Belegung fĂŒr die Variablen; gefragt ist, ob sie zu wahr oder zu falsch auswertet. Dieses Problem wird in NC1 gelöst durch den Algorithmus von Buss. Auf Ă€hnliche Art können arithmetische Formeln in #NC1 ausgewertet oder das Wortproblem fĂŒr Visibly-Pushdown-Sprachen gelöst werden. Zu besagter Klasse an Problemen gehört auch Courcelles Theorem, welches Berechnungen in Baumautomaten involviert. Zu bemerken ist, dass alle angesprochenen Probleme gemeinsam haben, dass sie aus Instanzen bestehen, die baumartig sind. Formeln sind BĂ€ume, Visibly-Pushdown-Sprachen enthalten als Wörter kodierte BĂ€ume und Courcelles Theorem betrachtet Graphen mit beschrĂ€nkter Baumweite, d.h. Graphen, die sich als Baum darstellen lassen. Insbesondere Letzteres ist ein Schema, das hĂ€ufiger auftritt. Zum Beispiel gibt es NP-vollstĂ€ndige Graphprobleme wie das Finden von Hamilton-Kreisen, welches unter beschrĂ€nkter Baumweite in P fĂ€llt. Neuere Analysen konnten diese Schranke weiter zu SAC1 verbessern, was eine parallele KomplexitĂ€tsklasse ist. Die angesprochenen Probleme kommen aus unterschiedlichen Bereichen und haben individuelle Lösungen. Hauptthese dieser Arbeit ist, dass sich diese Vielfalt vereinheitlichen lĂ€sst. Es wird ein generisches Lösungskonzept vorgestellt, welches darauf beruht, dass sich die Probleme auf ein Termevaluierungsproblem reduzieren lassen. KernstĂŒck ist daher ein Termevaluierungsalgorithmus, der unabhĂ€ngig von der Algebra, ĂŒber welche der Term evaluiert werden soll, ist. Resultat ist, dass eine Vielzahl, darunter die oben angesprochenen Probleme, sich auf analoge Art lösen lassen, und dass sich ebenso leicht neue Resultate zeigen lassen. Diese Menge an Resultaten hĂ€tte sich ohne den vereinheitlichten Lösungsansatz nicht innerhalb des Rahmens einer Arbeit wie der vorliegenden zeigen lassen. Der entwickelte Lösungsansatz fĂŒhrt stets zu Schaltkreisfamilien polylogarithmischer Tiefe. Es wird jedoch auch die Frage behandelt, wie mĂ€chtig Schaltkreisfamilien konstanter Tiefe noch bezĂŒglich Termevaluierung sind. Die Klasse AC0 ist hierfĂŒr ein natĂŒrlicher Kandidat; sie entspricht der Menge der Sprachen, die durch Logik erster Ordung beschreibbar sind. Um dieses Problem anzugehen, wird zunĂ€chst das Termevaluierungsproblem ĂŒber endlichen Algebren betrachtet. Dieses wiederum lĂ€sst sich in das Wortproblem von Visibly-Pushdown-Sprachen einbetten. Daher handelt dieser Teil der Arbeit vornehmlich von der Beschreibbarkeit von Visibly-Pushdown-Sprachen in Logik erster Ordnung. Hierbei treten ungelöste Probleme zu Tage, welche ein Indiz dafĂŒr sind, wie schlecht die KomplexitĂ€t konstanter Tiefe bisher noch verstanden ist, und das, trotz des Resultats von Furst, Saxe und Sipser, bzw. HĂ„stads. Die bis jetzt beschrieben Inhalte sind Teil einer kontinuierlichen Entwicklung. Es gibt jedoch ein Thema in dieser Arbeit, das orthogonal dazu ist: Automaten und im speziellen Cost-Register-Automaten. Zum einen sind, wie oben angedeutet, Automaten Beispiele fĂŒr Anwendungen des hier entwickelten generischen Lösungsansatzes. Zum anderen können sie selbst zur Beschreibung von Termevaluierungsproblemen dienen; so können Visibly-Pushdown-Automaten Termevaluierung ĂŒber endlichen Algebren ausfĂŒhren. Um ĂŒber endliche Algebren hinauszugehen, benötigen die Automaten mehr Speicher. Visibly-Pushdown-Automaten haben einen Keller, der genau dafĂŒr geeignet ist, die Baumstruktur einer Eingabeformel zu verifizieren. FĂŒr nichtendliche Algebren eignet sich ein Modell, welches hier vorgestellt werden soll. Es kombiniert Visibly-Pushdown-Automaten mit Cost-Register-Automaten. Ein Cost-Register-Automat ist ein endlicher Automat, welcher mit zusĂ€tzlichen Registern ausgestattet ist. Die Register können Werte einer Algebra speichern und werden in jedem Schritt in AbhĂ€ngigkeit des Eingabezeichens und des Zustandes aktualisiert. Dieser Einwegdatenfluss von ZustĂ€nden zu Registern sorgt dafĂŒr, dass dieses Modell nicht nur entscheidbar bleibt, sondern, in AbhĂ€ngigkeit der Algebra, auch niedrige KomplexitĂ€t hat. Das neue Modell der Cost-Register-Visibly-Pushdown-Automaten kann nun Terme evaluieren. Es werden grundlegende Eigenschaften gezeigt, einschließlich KomplexitĂ€tsaussagen

    Applications of matching theory in constraint programming

    Get PDF
    [no abstract
    corecore