27 research outputs found

    Portfolios in Stochastic Local Search: Efficiently Computing Most Probable Explanations in Bayesian Networks

    Get PDF
    Portfolio methods support the combination of different algorithms and heuristics, including stochastic local search (SLS) heuristics, and have been identified as a promising approach to solve computationally hard problems. While successful in experiments, theoretical foundations and analytical results for portfolio-based SLS heuristics are less developed. This article aims to improve the understanding of the role of portfolios of heuristics in SLS. We emphasize the problem of computing most probable explanations (MPEs) in Bayesian networks (BNs). Algorithmically, we discuss a portfolio-based SLS algorithm for MPE computation, Stochastic Greedy Search (SGS). SGS supports the integration of different initialization operators (or initialization heuristics) and different search operators (greedy and noisy heuristics), thereby enabling new analytical and experimental results. Analytically, we introduce a novel Markov chain model tailored to portfolio-based SLS algorithms including SGS, thereby enabling us to analytically form expected hitting time results that explain empirical run time results. For a specific BN, we show the benefit of using a homogenous initialization portfolio. To further illustrate the portfolio approach, we consider novel additive search heuristics for handling determinism in the form of zero entries in conditional probability tables in BNs. Our additive approach adds rather than multiplies probabilities when computing the utility of an explanation. We motivate the additive measure by studying the dramatic impact of zero entries in conditional probability tables on the number of zero-probability explanations, which again complicates the search process. We consider the relationship between MAXSAT and MPE, and show that additive utility (or gain) is a generalization, to the probabilistic setting, of MAXSAT utility (or gain) used in the celebrated GSAT and WalkSAT algorithms and their descendants. Utilizing our Markov chain framework, we show that expected hitting time is a rational function - i.e. a ratio of two polynomials - of the probability of applying an additive search operator. Experimentally, we report on synthetically generated BNs as well as BNs from applications, and compare SGSs performance to that of Hugin, which performs BN inference by compilation to and propagation in clique trees. On synthetic networks, SGS speeds up computation by approximately two orders of magnitude compared to Hugin. In application networks, our approach is highly competitive in Bayesian networks with a high degree of determinism. In addition to showing that stochastic local search can be competitive with clique tree clustering, our empirical results provide an improved understanding of the circumstances under which portfolio-based SLS outperforms clique tree clustering and vice versa

    Boosting Answer Set Optimization with Weighted Comparator Networks

    Get PDF
    Answer set programming (ASP) is a paradigm for modeling knowledge intensive domains and solving challenging reasoning problems. In ASP solving, a typical strategy is to preprocess problem instances by rewriting complex rules into simpler ones. Normalization is a rewriting process that removes extended rule types altogether in favor of normal rules. Recently, such techniques led to optimization rewriting in ASP, where the goal is to boost answer set optimization by refactoring the optimization criteria of interest. In this paper, we present a novel, general, and effective technique for optimization rewriting based on comparator networks, which are specific kinds of circuits for reordering the elements of vectors. The idea is to connect an ASP encoding of a comparator network to the literals being optimized and to redistribute the weights of these literals over the structure of the network. The encoding captures information about the weight of an answer set in auxiliary atoms in a structured way that is proven to yield exponential improvements during branch-and-bound optimization on an infinite family of example programs. The used comparator network can be tuned freely, e.g., to find the best size for a given benchmark class. Experiments show accelerated optimization performance on several benchmark problems.Comment: 36 page

    Engineering SAT Applications

    Get PDF
    Das Erfüllbarkeitsproblem der Aussagenlogik (SAT) ist nicht nur in der theoretischen Informatik ein grundlegendes Problem, da alle NP-vollständigen Probleme auf SAT zurückgeführt werden können. Durch die Entwicklung von sehr effizienten SAT Lösern sind in den vergangenen 15 Jahren auch eine Vielzahl von praktischen Anwendungsmöglichkeiten entwickelt worden. Zu den bekanntesten gehört die Verifikation von Hardware- und Software-Bausteinen. Bei der Berechnung von unerfüllbaren SAT-Problemen sind Entwickler und Anwender oftmals an einer Erklärung für die Unerfüllbarkeit interessiert. Eine Möglichkeit diese zu ermitteln ist die Berechnung von minimal unerfüllbaren Teilformeln. Es sind drei grundlegend verschiedene Strategien zur Berechnung dieser Teilformeln bekannt: mittels Einfügen von Klauseln in ein erfüllbares Teilproblem, durch Entfernen von Kauseln aus einem unerfüllbaren Teilproblem und eine Kombination der beiden erstgenannten Methoden. In der vorliegenden Arbeit entwickeln wir zuerst eine interaktive Variante der Strategie, die auf Entfernen von Klauseln basiert. Sie ermöglicht es den Anwendern interessante Bereiche des Suchraumes manuell zu erschließen und aussagekräftige Erklärung für die Unerfüllbarkeit zu ermitteln. Der theoretische Hintergrund, der für die interaktive Berechnung von minimal unerfüllbaren Teilformeln entwickelt wurde, um dem Benutzer des Prototyps unnötige Schritte in der Berechnung der Teilformeln zu ersparen werden im Anschluss für die automatische Aufzählung von mehreren minimal unerfüllbaren Teilformeln verwendet, um dort die aktuell schnellsten Algorithmen weiter zu verbessern. Die Idee dabei ist mehrere Klauseln zu einem Block zusammenzufassen. Wir zeigen, wie diese Blöcke die Berechnungen von minimal unerfüllbaren Teilformeln positiv beeinflussen können. Durch die Implementierung eines Prototypen, der auf den aktuellen Methoden basiert, konnten wir die Effektivität unserer entwickelten Ideen belegen. Nachdem wir im ersten Teil der Arbeit grundlegende Algorithmen, die bei unerfüllbaren SAT-Problemen angewendet werden, verbessert haben, wenden wir uns im zweiten Teil der Arbeit neuen Anwendungsmöglichkeiten für SAT zu. Zuerst steht dabei ein Problem aus der Bioinformatik im Mittelpunkt. Wir lösen das sogenannte Kompatibilitätproblem für evolutionäre Bäume mittels einer Kodierung als Erfüllbarkeitsproblem und zeigen anschließend, wie wir mithilfe dieser neuen Kodierung ein nah verwandtes Optimierungsproblem lösen können. Den von uns neu entwickelten Ansatz vergleichen wir im Anschluss mit den bisher effektivsten Ansätzen das Optmierungsproblem zu lösen. Wir konnten zeigen, dass wir für den überwiegenden Teil der getesteten Instanzen neue Bestwerte in der Berechnungszeit erreichen. Die zweite neue Anwendung von SAT ist ein Problem aus der Graphentheorie, bzw. dem Graphenzeichen. Durch eine schlichte, intuitive, aber dennoch effektive Formulierung war es uns möglich neue Resultate für das Book Embedding Problem zu ermitteln. Zum einen konnten wir eine nicht triviale untere Schranke von vier für die benötigte Seitenzahl von 1-planaren Graphen ermitteln. Zum anderen konnten wir zeigen, dass es nicht für jeden planaren Graphen möglich ist, eine Einbettung in drei Seiten mittels einer sogenannten Schnyder-Aufteilung in drei verschiedene Bäume zu berechnen

    On the Complexity of Alternative Solutions

    Get PDF
    Diese Dissertation untersucht die Komplexität alternativer Lösungen. Das heißt, wir betrachten die Frage, ob eine oder mehrere gegebene Lösungen eines Problems, das Finden weiterer Lösungen vereinfacht. In der Praxis relevant ist diese Fragestellung zum Beispiel, wenn sich eine mit großem Aufwand berechnete Lösung eines schwierigen Problems im Nachhinein als unzureichend erweist. In diesem Falle ist es notwendig nach alternativen Lösungen zu suchen, wobei nun die bereits gefundene Lösung als Ausgangspunkt der Berechnung genutzt werden kann. Darüber hinaus hat die untersuchte Aufgabenstellung eine Bedeutung in der Erstellung von (auch hier immer beliebteren) japanischen Rätseln wie Sudoku, Kakkuro oder Nurikabe. Beispielsweise werden im Fall von Sudoku, ausgehend von einem vollständig ausgefüllten Gitter (Startlösung), Ziffern so gestrichen dass die Startlösung die eindeutige Lösung des Rätsels bleibt. Dazu muss während des Streichprozesses wiederholt geprüft werden, ob es neben der Startlösung alternative Lösungen gibt. Im ersten Teil der Arbeit (Kapitel 3 und 4) betrachten wir die Klasse der NP-vollständigen Probleme. Wir formalisieren den Begriff der Lösung mittels sogenannter Verifier und das Problem alternativer Lösungen für NP-Sprachen. Indem wir die Härte des Problems alternativer Lösungen für einige Probleme zeigen, motivieren wir die Vermutung, dass eine gegebene Lösung das Finden alternativer Lösungen nicht vereinfacht. Wir entwickeln den Begriff des universellen Verifiers, der es ermöglicht, einen geeigneten Lösungsbegriff für ein Problem formal zu charakterisieren. Darüber hinaus zeigen wir, dass es möglich ist, mit einer einzigen sogenannten -Reduzierung einen Lösungsbegriff für ein Problem als geeignet zu identifizieren sowie die Härte des Problems alternativer Lösungen für jede Anzahl gegebener Lösungen zu zeigen. Unter Benutzung dieser Reduzierung, erhärten wir die obige Vermutung, indem wir für eine große Zahl NP-vollständiger Probleme wie zum Beispiel 0/1-Integer Programming, 3Dimensional Matching, Minimum Edge Cost Flow und Vertex Cover zeigen, dass bezüglich eines geeigneten Lösungsbegriffes alternative Lösungen nicht leicht zu berechnen sind. Darüber hinaus übertragen wir die Theorie für NP-Probleme auch auf die Klasse RE der aufzählbaren Sprachen (Kapitel 5) und die Klassen der Polynomialzeithierarchie (Kapitel 6). Für RE zeigen wir damit, dass das Problem alternativer Lösungen für RE wenig sinnvoll ist, da wir für jedes RE-Problem einen geeigneten Lösungsbegriff finden, der höchstens eine Lösung zulässt. Die Situation in der Polynomialzeithierarchie ist vermutlich ähnlich zum NP-Fall. Für können wir die Härte des Problems alternativer Lösungen für einige typische Probleme zeigen, z.B. für Generalized Subset Sum und Strongest Implicant Core. Deshalb und wegen der starken strukturellen Ähnlichkeit zu NP (Die Polynomialzeithierarchie ist eine Verallgemeinerung von NP, insbesondere gilt = NP) vermuten wir auch hier, dass alternative Lösungen im Allgemeinen genauso schwer zu finden sind, wie eine erste Lösung

    Proceedings of the 21st Conference on Formal Methods in Computer-Aided Design – FMCAD 2021

    Get PDF
    The Conference on Formal Methods in Computer-Aided Design (FMCAD) is an annual conference on the theory and applications of formal methods in hardware and system verification. FMCAD provides a leading forum to researchers in academia and industry for presenting and discussing groundbreaking methods, technologies, theoretical results, and tools for reasoning formally about computing systems. FMCAD covers formal aspects of computer-aided system design including verification, specification, synthesis, and testing

    Decision-Focused Learning: Foundations, State of the Art, Benchmark and Future Opportunities

    Full text link
    Decision-focused learning (DFL) is an emerging paradigm in machine learning which trains a model to optimize decisions, integrating prediction and optimization in an end-to-end system. This paradigm holds the promise to revolutionize decision-making in many real-world applications which operate under uncertainty, where the estimation of unknown parameters within these decision models often becomes a substantial roadblock. This paper presents a comprehensive review of DFL. It provides an in-depth analysis of the various techniques devised to integrate machine learning and optimization models, introduces a taxonomy of DFL methods distinguished by their unique characteristics, and conducts an extensive empirical evaluation of these methods proposing suitable benchmark dataset and tasks for DFL. Finally, the study provides valuable insights into current and potential future avenues in DFL research.Comment: Experimental Survey and Benchmarkin
    corecore