5 research outputs found

    Circuit Complexity of Visual Search

    Full text link
    We study computational hardness of feature and conjunction search through the lens of circuit complexity. Let x=(x1,...,xn)x = (x_1, ... , x_n) (resp., y=(y1,...,yn)y = (y_1, ... , y_n)) be Boolean variables each of which takes the value one if and only if a neuron at place ii detects a feature (resp., another feature). We then simply formulate the feature and conjunction search as Boolean functions FTRn(x)=⋁i=1nxi{\rm FTR}_n(x) = \bigvee_{i=1}^n x_i and CONJn(x,y)=⋁i=1nxi∧yi{\rm CONJ}_n(x, y) = \bigvee_{i=1}^n x_i \wedge y_i, respectively. We employ a threshold circuit or a discretized circuit (such as a sigmoid circuit or a ReLU circuit with discretization) as our models of neural networks, and consider the following four computational resources: [i] the number of neurons (size), [ii] the number of levels (depth), [iii] the number of active neurons outputting non-zero values (energy), and [iv] synaptic weight resolution (weight). We first prove that any threshold circuit CC of size ss, depth dd, energy ee and weight ww satisfies log⁥rk(MC)≀ed(log⁥s+log⁥w+log⁥n)\log rk(M_C) \le ed (\log s + \log w + \log n), where rk(MC)rk(M_C) is the rank of the communication matrix MCM_C of a 2n2n-variable Boolean function that CC computes. Since CONJn{\rm CONJ}_n has rank 2n2^n, we have n≀ed(log⁥s+log⁥w+log⁥n)n \le ed (\log s + \log w + \log n). Thus, an exponential lower bound on the size of even sublinear-depth threshold circuits exists if the energy and weight are sufficiently small. Since FTRn{\rm FTR}_n is computable independently of nn, our result suggests that computational capacity for the feature and conjunction search are different. We also show that the inequality is tight up to a constant factor if ed=o(n/log⁥n)ed = o(n/ \log n). We next show that a similar inequality holds for any discretized circuit. Thus, if we regard the number of gates outputting non-zero values as a measure for sparse activity, our results suggest that larger depth helps neural networks to acquire sparse activity

    Cryptography from Sublinear-Time Average-Case Hardness of Time-Bounded Kolmogorov Complexity

    Get PDF
    Let \mktp[s] be the set of strings xx such that Kt(x)≀s(∣x∣)K^t(x) \leq s(|x|), where Kt(x)K^t(x) denotes the tt-bounded Kolmogorov complexity of the truthtable described by xx. Our main theorem shows that for an appropriate notion of mild average-case hardness, for every Δ>0\varepsilon>0, polynomial t(n)≄(1+Δ)nt(n) \geq (1+\varepsilon)n, and every ``nice\u27\u27 class \F of super-polynomial functions, the following are equivalent: - the existence of some function T \in \F such that TT-hard one-way functions (OWF) exists (with non-uniform security); - the existence of some function T \in \F such that \mktp[T^{-1}] is mildly average-case hard with respect to sublinear-time non-uniform algorithms (with running-time nÎŽn^{\delta} for some 0<ÎŽ<10<\delta<1). For instance, existence of subexponentially-hard (resp. quasi-polynomially-hard) OWFs is equivalent to mild average-case hardness of \mktp[\poly\log n] (resp. \mktp[2^{O(\sqrt{\log n})})]) w.r.t. sublinear-time non-uniform algorithms. We additionally note that if we want to deduce TT-hard OWFs where security holds w.r.t. uniform TT-time probabilistic attackers (i.e., uniformly-secure OWFs), it suffices to assume sublinear time hardness of \mktp w.r.t. uniform probabilistic sublinear-time attackers. We complement this result by proving lower bounds that come surprisingly close to what is required to unconditionally deduce the existence of (uniformly-secure) OWFs: \mktp[\poly\log n] is worst-case hard w.r.t. uniform probabilistic sublinear-time algorithms, and \mktp[n-\log n] is mildly average-case hard for all O(t(n)/n3)O(t(n)/n^3)-time deterministic algorithms

    On One-way Functions and the Worst-case Hardness of Time-Bounded Kolmogorov Complexity

    Get PDF
    Whether one-way functions (OWF) exist is arguably the most important problem in Cryptography, and beyond. While lots of candidate constructions of one-way functions are known, and recently also problems whose average-case hardness characterize the existence of OWFs have been demonstrated, the question of whether there exists some \emph{worst-case hard problem} that characterizes the existence of one-way functions has remained open since their introduction in 1976. In this work, we present the first ``OWF-complete\u27\u27 promise problem---a promise problem whose worst-case hardness w.r.t. \BPP (resp. \Ppoly) is \emph{equivalent} to the existence of OWFs secure against \PPT (resp. \nuPPT) algorithms. The problem is a variant of the Minimum Time-bounded Kolmogorov Complexity problem (\mktp[s] with a threshold ss), where we condition on instances having small ``computational depth\u27\u27. We furthermore show that depending on the choice of the threshold ss, this problem characterizes either ``standard\u27\u27 (polynomially-hard) OWFs, or quasi polynomially- or subexponentially-hard OWFs. Additionally, when the threshold is sufficiently small (e.g., 2O(n)2^{O(\sqrt{n})} or \poly\log n) then \emph{sublinear} hardness of this problem suffices to characterize quasi-polynomial/sub-exponential OWFs. While our constructions are black-box, our analysis is \emph{non- black box}; we additionally demonstrate that fully black-box constructions of OWF from the worst-case hardness of this problem are impossible. We finally show that, under Rudich\u27s conjecture, and standard derandomization assumptions, our problem is not inside \coAM; as such, it yields the first candidate problem believed to be outside of \AM \cap \coAM, or even SZK{\bf SZK}, whose worst case hardness implies the existence of OWFs

    The Exact Complexity of Pseudorandom Functions and Tight Barriers to Lower Bound Proofs

    Get PDF
    How much computational resource do we need for cryptography? This is an important question of both theoretical and practical interests. In this paper, we study the problem on pseudorandom functions (PRFs) in the context of circuit complexity. Perhaps surprisingly, we prove extremely tight upper and lower bounds in various circuit models. * In general B2B_2 circuits, assuming the existence of PRFs, PRFs can be constructed in 2n+o(n)2n + o(n) size, simplifying and improving the O(n)O(n) bound by Ishai et al. (STOC 2008). We show that such construction is almost optimal by giving an unconditional 2n−O(1)2n-O(1) lower bound. * In logarithmic depth circuits, assuming the existence of NC1NC^1 PRFs, PRFs can be constructed in 2n+o(n)2n + o(n) size and (1+Ï”)log⁥n(1+\epsilon) \log n depth simultaneously. * In constant depth linear threshold circuits, assuming the existence of TC0TC^0 PRFs, PRFs can be constructed with wire complexity n1+O(1.61−d)n^{1+O(1.61^{-d})}. We also give an n1+Ω(c−d)n^{1+\Omega(c^{-d})} wire complexity lower bound for some constant cc. The upper bounds are proved with generalized Levin\u27s trick and novel constructions of almost universal hash functions; the lower bound for general circuits is proved via a tricky but elementary wire-counting argument; and the lower bound for TC0TC^0 circuits is proved by extracting a black-box property of TC0TC^0 circuits from the white-box restriction lemma of Chen, Santhanam, and Srinivasan (Theory Comput. 2018). As a byproduct, we prove unconditional tight upper and lower bounds for almost universal hashing, which we believe to have independent interests. Following Natural Proofs by Razborov and Rudich (J. Comput. Syst. Sci. 1997), our results make progress in realizing the difficulty to improve known circuit lower bounds which recently becomes significant due to the discovery of several bootstrapping results . In TC0TC^0, this reveals the limitation of the current restriction-based methods; in particular, it brings new insights in understanding the strange phenomenon of sharp threshold results such as the one presented by Chen and Tell (STOC 2019)

    Sublinear-Time Cellular Automata and Connections to Complexity Theory

    Get PDF
    Im Gebiet des verteilten Rechnens werden Modelle untersucht, in denen sich mehrere Berechnungseinheiten koordinieren, um zusammen ein gemeinsames Ziel zu erreichen, wobei sie aber nur ĂŒber begrenzte Ressourcen verfĂŒgen — sei diese Zeit-, Platz- oder KommunikationskapazitĂ€ten. Das Hauptuntersuchungsobjekt dieser Dissertation ist das wohl einfachste solche Modell ĂŒberhaupt: (eindimensionale) Zellularautomaten. Unser Ziel ist es, einen besseren Überblick ĂŒber die FĂ€higkeiten und EinschrĂ€nkungen des Modells und ihrer Varianten zu erlangen in dem Fall, dass die gesamte Bearbeitungszeit deutlich kleiner als die GrĂ¶ĂŸe der Eingabe ist (d. h. Sublinear-Zeit). Wir fĂŒhren unsere Analyse von dem Standpunkt der KomplexitĂ€tstheorie und stellen dabei auch BezĂŒge zwischen Zellularautomaten und anderen Gebieten wie verteiltes Rechnen und Streaming-Algorithmen her. Sublinear-Zeit Zellularautomaten. Ein Zellularautomat (ZA) besteht aus identischen Zellen, die entlang einer Linie aneinandergereiht sind. Jede Zelle ist im Wesentlichen eine sehr primitive Berechnungseinheit (nĂ€mlich ein deterministischer endlicher Automat), die mit deren beiden Nachbarn interagieren kann. Die Berechnung entsteht durch die Aktualisierung der ZustĂ€nde der Zellen gemĂ€ĂŸ derselben ZustandsĂŒberfĂŒhrungsfunktion, die gleichzeitig ĂŒberall im Automaten angewendet wird. Die von uns betrachteten Varianten sind unter anderem schrumpfende ZAs, die (gewissermaßen) dynamisch rekonfigurierbar sind, sowie eine probabilistische Variante, in der jede Zelle mit Zugriff auf eine faire MĂŒnze ausgestattet ist. Trotz ĂŒberragendem Interesse an Linear- und Real-Zeit-ZAs scheint der Fall von Sublinear-Zeit im Großen und Ganzen von der wissenschaftlichen Gemeinschaft vernachlĂ€ssigt worden zu sein. Wir arbeiten die ĂŒberschaubare Anzahl an Vorarbeiten zu dem Thema auf, die vorhanden ist, und entwickeln die daraus stammenden Techniken weiter, sodass deren Spektrum an Anwendungsmöglichkeiten wesentlich breiter wird. Durch diese BemĂŒhungen entsteht unter anderem ein Zeithierarchiesatz fĂŒr das deterministische Modell. Außerdem ĂŒbertragen wir Techniken zum Beweis unterer Schranken aus der KomplexitĂ€tstheorie auf das Modell der schrumpfenden ZAs und entwickeln neue Techniken, die auf probabilistische Sublinear-Zeit-ZAs zugeschnitten sind. Ein Bezug zu HĂ€rte-Magnifizierung. Ein Bezug zu KomplexitĂ€tstheorie, die wir im Laufe unserer Untersuchungen herstellen, ist ein Satz ĂŒber HĂ€rte-Magnifizierung (engl. hardness magnification) fĂŒr schrumpfende ZAs. Hier bezieht sich HĂ€rte-Magnifizierung auf eine Reihe neuerer Arbeiten, die bezeugen, dass selbst geringfĂŒgig nicht-triviale untere Schranken sehr beeindruckende Konsequenzen in der KomplexitĂ€tstheorie haben können. Unser Satz ist eine Abwandlung eines neuen Ergebnisses von McKay, Murray und Williams (STOC, 2019) fĂŒr Streaming-Algorithmen. Wie wir zeigen kann die Aussage dabei genauso in Bezug auf schrumpfende ZAs formuliert werden, was sie auch beweisbar verstĂ€rkt. Eine Verbindung zu Sliding-Window Algorithmen. Wir verknĂŒpfen das verteilte Zellularautomatenmodell mit dem sequenziellen Streaming-Algorithmen-Modell. Wie wir zeigen, können (gewisse Varianten von) ZAs von Streaming-Algorithmen simuliert werden, die bestimmten LokalitĂ€tseinschrĂ€nkungen unterliegen. Konkret ist der aktuelle Zustand des Algorithmus vollkommen bestimmt durch den Inhalt eines Fensters fester GrĂ¶ĂŸe, das wenige letzte Symbole enthĂ€lt, die vom Algorithmus verarbeitet worden sind. Dementsprechend nennen wir diese eingeschrĂ€nkte Form eines Streaming-Algorithmus einen Sliding-Window-Algorithmus. Wir zeigen, dass Sliding-Window-Algorithmen ZAs sehr effizient simulieren können und insbesondere in einer solchen Art und Weise, dass deren PlatzkomplexitĂ€t eng mit der ZeitkomplexitĂ€t des simulierten ZA verbunden ist. Derandomisierungsergebnisse. Wir zeigen Derandomisierungsergebnisse fĂŒr das Modell von Sliding-Window-Algorithmen, die Zufall aus einer binĂ€ren Zufallsquelle beziehen. Dazu stĂŒtzen wir uns auf die robuste Maschinerie von Branching-Programmen, die den gĂ€ngigen Ansatz zur Derandomisierung von Platz-beschrĂ€nkten Maschinen in der KomplexitĂ€tstheorie darstellen. Als eine Anwendung stellen sich Derandomisierungsergebnisse fĂŒr probabilistische Sublinear-Zeit-ZAs heraus, die durch die oben genannten VerknĂŒpfung erlangt werden. Vorhersageproblem fĂŒr Pilz-Sandhaufen. Ein letztes Problem, das wir behandeln und das auch einen Bezug zu Sublinear-ZeitkomplexitĂ€t im Rahmen von Zellularautomaten hat (obwohl nicht zu Sublinear-Zeit-Zellularautomaten selber), ist das Vorhersageproblem fĂŒr Sandhaufen-Zellularautomaten. Diese Automaten sind basierend auf zweidimensionalen ZAs definiert und modellieren einen deterministischen Prozess, in dem sich Partikel (in der Regel denkt man an Sandkörnern) durch den Raum verbreiten. Das Vorhersageproblem fragt ob, gegeben eine Zellennummer yy und eine initiale Konfiguration fĂŒr den Sandhaufen, die Zelle mit Nummer yy irgendwann vor einer gewissen Zeitschranke einen von Null verschiedenen Zustand erreichen wird. Die KomplexitĂ€t dieses mindestens zwei Jahrzehnte alten Vorhersageproblems ist fĂŒr zweidimensionelle Sandhaufen bemerkenswerterweise nach wie vor offen. Wir lösen diese Frage im Wesentlichen fĂŒr eine neue Variante von Sandhaufen namens Pilz-Sandhaufen, die von Goles u. a. (Phys. Lett. A, 2020) vorgeschlagen worden ist. Unser Ergebnis ist besonders relevant, weil es innovative Erkenntnisse und neue Techniken liefert, die fĂŒr die Lösung des offenen Problems im allgemeinen Fall von hoher Relevanz sein könnten
    corecore