15 research outputs found

    Recognition and Exploitation of Gate Structure in SAT Solving

    Get PDF
    In der theoretischen Informatik ist das SAT-Problem der archetypische Vertreter der Klasse der NP-vollstĂ€ndigen Probleme, weshalb effizientes SAT-Solving im Allgemeinen als unmöglich angesehen wird. Dennoch erzielt man in der Praxis oft erstaunliche Resultate, wo einige Anwendungen Probleme mit Millionen von Variablen erzeugen, die von neueren SAT-Solvern in angemessener Zeit gelöst werden können. Der Erfolg von SAT-Solving in der Praxis ist auf aktuelle Implementierungen des Conflict Driven Clause-Learning (CDCL) Algorithmus zurĂŒckzufĂŒhren, dessen LeistungsfĂ€higkeit weitgehend von den verwendeten Heuristiken abhĂ€ngt, welche implizit die Struktur der in der industriellen Praxis erzeugten Instanzen ausnutzen. In dieser Arbeit stellen wir einen neuen generischen Algorithmus zur effizienten Erkennung der Gate-Struktur in CNF-Encodings von SAT Instanzen vor, und außerdem drei AnsĂ€tze, in denen wir diese Struktur explizit ausnutzen. Unsere BeitrĂ€ge umfassen auch die Implementierung dieser AnsĂ€tze in unserem SAT-Solver Candy und die Entwicklung eines Werkzeugs fĂŒr die verteilte Verwaltung von Benchmark-Instanzen und deren Attribute, der Global Benchmark Database (GBD)

    Ein FĂ€rbungsproblem in partitionierten Graphen

    Get PDF
    A Graph Coloring Problem on Partitioned Graphs is introduced, and Heuristics to solve the Problem are developed and compared

    SAT Solving mit GPU UnterstĂŒtzung

    Get PDF
    Vorgestellt wird eine Implementierung des Survey Propagation Algorithmus (SP) auf einer GPU mit CUDA, sowie ein SAT Solver auf Basis von Mini- SAT, der SP als zusÀtzliche Heuristik verwendet, um zufÀllige k-SAT Probleme schneller lösen zu können

    Untersuchung der kapazitiven Eigenschaften von 3D-Clusterstrukturen in einer 0,35 ”m CMOS-Technologie und deren mögliche kryptografische Anwendungen

    Full text link
    In dieser Arbeit wird ein neuartiges Verfahren zur Generierung von reproduzierbaren, zufĂ€lligen "on-chip"-SchlĂŒsseln fĂŒr kryptografische Anwendungen prĂ€sentiert. Die hierbei vorgeschlagene Technik basiert auf der Erkenntnis, dass komplexe und irregulĂ€re Strukturen von zufĂ€llig ineinander verwobenen Verbindungsleitungen, die sogenannten 3D-Cluster, als Bart eines SchlĂŒssels aufgefasst und in dieser Weise verwendet werden können, wenn der geheime SchlĂŒssel aus der KapazitĂ€t dieser Strukturen abgeleitet wird. Zu diesem Zweck wurde eine analoge Schaltung entwickelt, die in der Lage ist, KapazitĂ€ten im Femtofarad-Bereich zu messen und eine Auflösung von 0,1 fF und darunter aufweist

    Datengesteuertes Lernen von syntaktischen EinschrĂ€nkungen des Hypothesenraumes fĂŒr modellbasiertes Lernen

    Get PDF
    Lernverfahren fĂŒr prĂ€dikatenlogische Formalismen eignen sich als Werkzeuge, die den Aufbau und die Wartung komplexer Sachbereichstheorien unterstĂŒtzen, da sie sowohl Hintergrundwissen in den Lernvorgang einbeziehen als auch relationale Beziehungen zwischen den Objekten der Theorie behandeln können. Die im Vergleich zu klassischen, auf Aussagenlogik basierenden Verfahren erweiterte AusdrucksstĂ€rke fĂŒhrt aber auch zu einer grösseren KomplexitĂ€t der Lernaufgabe. Das induktive Lernverfahren RDT der Werkbank MOBAL verwendet Modellwissen in Form von Regelmodellen um den Suchraum einzuschrĂ€nken. Diese syntaktischen Vorgaben an das Lernziel ermöglichen zwar eine genaue Steuerung der Lernaufgabe durch den Benutzer, fehlen aber die zum Lernziel korrespondierenden Formelschemata, kann das Lernziel nicht erreicht werden. Die vorliegende Arbeit prĂ€sentiert daher einen heuristischen Ansatz zum automatischen Erwerb von Regelmodellen, der auf der Berechnung speziellster Generalisierungen beruht. Um Hintergrundwissen zu berĂŒcksichtigen, werden die fĂŒr das Lernziel relevanten Teile dieses Wissens mit den Beispielen verknĂŒpft. Die Berechnung speziellster Generalisierungen von Regelmodellen dient zur schrittweisen Verallgemeinerung der Regelmodelle. Eine neue Erweiterung der theta-Subsumtion auf Regelmodelle und ein Redundanzbegriff fĂŒr solche Formelschemata sind weitere Bestandteile dieser Arbeit. The paper is written in German

    Average-Case Analyse parametrisierter und probabilistischer Algorithmen

    Get PDF
    In both Theoretical Computer Science and practical work it is a disappointing outcome if the considered problem is NP complete. There is almost no hope for an efficient algorithm. However, many approaches have been developed to overcome this barrier: - The study of parameterized complexity allows in many cases the concentration of the explosion of the running time in a given parameter. - The behavior of problems not only in the worst case but also in average cases are studied. Or the data to work with is slightly perturbed. Then the concept of a smoothed analysis gives new insides - Also sometimes the use of randomness in the computing process can help to circumvent some obstacles. - And maybe an approximation is also nearly as good as an optimal solution. All these approaches are well studied on its own, but interactions between them, and the use of multiple approaches together, is a mostly unstudied field of research. In this thesis we study a part of these interactions for some test problems. We show that the reduction rules, given by Gramm et al., for the Clique-Cover problem with high probability not only reduce yes instances, but solve them entirely. We also consider the paradigm of bounded search trees, which is widely used for parameterizd problems. We find that the expected running time of a simple bounded search tree algorithm is much lower than the worst case bound for FPT problems Vertex-Cover and d-Hitting-Set. For certain sets of parameter values expected FPT running time for the W[1] and W[2] complete problems Clique and Hitting-Set is achieved, too. Furthermore, we study a simple probabilistic generalization of greedy approximation algorithms. For the Vertex-Cover, Hitting-Set, and the Triangle-Vertex-Deletion problem we find that the probabilistic algorithms we give have a substantially smaller expected approximation ratio than their deterministic equivalents. There is also a trade off: With more time one can expect better solutions

    Mehrheitsbildung in der Kombinatorischen Optimierung

    Get PDF
    In der Kombinatorischen Optimierung geht man von einer Problemstellung des folgenden Typs aus: Gegeben sei eine endliche Menge V sowie eine Abbildung f: V->R. Gesucht ist ein Element von V mit grĂ¶ĂŸtem f-Wert. Ist das Problem schwierig, etwa NP-vollstĂ€ndig, ist man gezwungen, Algorithmen zur exakten Lösung des Problems durch Heuristiken zur Bestimmung einer oder mehrerer suboptimaler Lösungen zu ersetzen. Statt der unabhĂ€ngigen Ermittlung von k solchen Lösungen bietet sich die Alternative an, nur L=k-1 suboptimale Lösungen v1,vL in V unabhĂ€ngig zu bestimmen und diese in die Ermittlung einer (L+1)-ten suboptimalen Lösung v(L+1) aus V miteinzubeziehen. Im Fall V={0,1}n und L ungerade besteht eine Möglichkeit hierfĂŒr darin, einen Konsens aus v1,vL mit vj = (v_1j,v_2j,v_nj) fĂŒr j=1, L im folgenden Sinne zu bilden: In der i-ten Komponente (i=1,n) eines neuen Vektors v aus V wird der mehrheitlich vorkommende Eintrag aus v_i1, v_i2, v_iL ĂŒbernommen (Mehrheitsbildung). Die Erwartung ist, dass die Heuristik bei Eingabe von v zu einer suboptimalen Lösung v(L+1) fĂŒhrt, die besser als v1,vL ist. Im Rahmen der Dissertation werden experimentelle Ergebnisse bei verschiedenen Optimierungsproblemen mit Lösungsraum {0,1}n vorgestellt. Mehrheitsbildung wird sowohl einstufig als auch wiederholt zur Rekombination in Genetischen Algorithmen untersucht. Ferner werden randomisierte Varianten der Mehrheitsbildung diskutiert. Bei Max-SAT-Problemen, Dynamischen Optimierungsproblemen, Ising-Spinglas-Problemen und Shiftregister-Problemen lĂ€sst sich beobachten, dass die verwendeten Heuristiken besonders bei großen Problemparametern von einem Einsatz der Mehrheitsbildung profitieren. Über die randomisierten Mehrheitsbildungen im {0,1}n hinaus wird eine spezielle Konsensbildung bei Scheduling-Problemen behandelt, nĂ€mlich die Mittelwertbildung der Anfangszeiten von Tasks. Auch bei dieser Art der Konsensbildung treten Ă€hnliche Effekte wie bei der Mehrheitsbildung im {0,1}n auf

    Verifikation von systemnaher Software mittels Bounded Model Checking

    Get PDF

    Computer aided DNA sequence design

    Get PDF
    In der Nanotechnologie werden "bottom-up"-Konstruktionsverfahren, bei der sich Bausteine mit GrĂ¶ĂŸe im Nanometerbereich durch lokale Wechselwirkungen zusammenfĂŒgen, zunehmend interessant, da sie einige Probleme von "top-down"-Verfahren, bei denen solche Bausteine mit meist weit grĂ¶ĂŸeren Werkzeugen manipuliert werden, vermeiden. Eine wichtige erforderliche Eigenschaft fĂŒr ein erfolgreiches selbsttĂ€tiges ZusammenfĂŒgen (Self-Assembly) der Bausteine ist die Programmierbarkeit des Vorgangs, d. h. durch Wahl bestimmter Eigenschaften der Bausteine kann möglichst exakt vorherbestimmt werden, zu welchen Strukturen sich die Bausteine durch die lokalen Wechselwirkungen zusammenfĂŒgen. DNA, hier unabhĂ€ngig von ihrer biologischen Rolle als TrĂ€ger der Erbinformation betrachtet, ist ein Ă€ußerst geeigneter Baustoff fĂŒr das programmierbare Self-Assembly, da durch die Wahl komplementĂ€rer Basensequenzen von DNA-MolekĂŒlen ihr ZusammenfĂŒgen (die Hybridisierung) in gewissem Maß vorherbestimmbar ist. Leider ist diese Programmierung aber nicht perfekt deterministisch, so daß es gilt, die Basensequenzen so zu wĂ€hlen, daß die gewollten Hybridisierungen möglichst wahrscheinlich und die ungewollten möglichst unwahrscheinlich sind. Die Suche nach einer Menge solcher Sequenzen bildet das DNA-Sequenz-Design-Problem. Es lĂ€ĂŸt sich in zwei Teilprobleme zerlegen: Zum Einen muß ein möglichst realistisches Modell fĂŒr die Wahrscheinlichkeit der Hybridisierung zweier DNA-MolekĂŒle gefunden werden, das trotzdem einfach zu berechnen ist. Zum Anderen muß ein Algorithmus entwickelt werden, der eine Menge von DNA-Sequenzen findet, die gemĂ€ĂŸ dieses Modells die gewĂŒnschten Strukturen mit hoher und alle anderen mit möglichst geringer Wahrscheinlichkeit bilden. Je nach Anwendung des programmierbaren Self-Assembly können ZusĂ€tzliche Anforderungen wie z. B. EinschrĂ€nkungen physikalischer oder chemischer Eigenschaften der MolekĂŒle das Designproblem erschweren. Es stellt sich nicht nur in der Nanotechnologie, sondern auch im Bereich des DNA-Computing sowie fĂŒr alltĂ€gliche Molekularbiologische Methode wie DNA-Microarrays oder der Polymerasekettenreaktion. Diese Arbeit untersucht Lösungen fĂŒr die genannten zwei Teilprobleme und ihre GĂŒte in einer Reihe von Experimenten, die sowohl im Rechner als auch im Labor durchgefĂŒhrt wurden. Da ein erstes Experiment gezeigt hat, daß oft verwendete Stringdistanzmaße wie Hamming-Distanz oder Edit-Distanz fĂŒr die Modellierung der Hybridisierungswahrscheinlichkeit eher ungeeignet sind, wurde als Lösung fĂŒr das erste Teilproblem ein SequenzunĂ€hnlichkeitskriterium gewĂ€hlt, das auf dem einmaligen Vorkommen von Subsequenzen fixer LĂ€nge beruht. Das zweite Teilproblem wurde mit einem einfachen graphbasierten Algorithmus gelöst, der die Abbildung von unĂ€hnlichen Sequenzen auf knotendiskunkte Pfade durch einen bestimmten Graphen ausnutzt. Dieser konnte durch einfache Erweiterungen auch zusĂ€tzliche Anforderungen an die MolekĂŒle realisieren. Die Experimente zeigen, daß der Algorithmus eine zufriedenstellende Ausbeute an Sequenzen erzielt, und daß das Modell durchaus sinnvoll gewĂ€hlt ist und eine EinschrĂ€nkung der Hybridisierungswahrscheinlichkeit von DNA-MolekĂŒlen zulĂ€ĂŸt
    corecore