5 research outputs found
Circuit Complexity of Visual Search
We study computational hardness of feature and conjunction search through the
lens of circuit complexity. Let (resp., ) be Boolean variables each of which takes the value one if and only if a
neuron at place detects a feature (resp., another feature). We then simply
formulate the feature and conjunction search as Boolean functions and , respectively. We employ a threshold circuit or a discretized
circuit (such as a sigmoid circuit or a ReLU circuit with discretization) as
our models of neural networks, and consider the following four computational
resources: [i] the number of neurons (size), [ii] the number of levels (depth),
[iii] the number of active neurons outputting non-zero values (energy), and
[iv] synaptic weight resolution (weight).
We first prove that any threshold circuit of size , depth , energy
and weight satisfies ,
where is the rank of the communication matrix of a
-variable Boolean function that computes. Since has rank
, we have . Thus, an exponential
lower bound on the size of even sublinear-depth threshold circuits exists if
the energy and weight are sufficiently small. Since is computable
independently of , our result suggests that computational capacity for the
feature and conjunction search are different. We also show that the inequality
is tight up to a constant factor if . We next show that a
similar inequality holds for any discretized circuit. Thus, if we regard the
number of gates outputting non-zero values as a measure for sparse activity,
our results suggest that larger depth helps neural networks to acquire sparse
activity
Cryptography from Sublinear-Time Average-Case Hardness of Time-Bounded Kolmogorov Complexity
Let \mktp[s] be the set of strings such that , where denotes the -bounded Kolmogorov complexity of the truthtable described by . Our main theorem shows that for an appropriate notion of mild average-case hardness, for every , polynomial , and every ``nice\u27\u27 class \F of super-polynomial functions, the following are equivalent:
- the existence of some function T \in \F such that -hard one-way functions (OWF) exists (with non-uniform security);
- the existence of some function T \in \F such that \mktp[T^{-1}] is mildly average-case hard with respect to sublinear-time non-uniform algorithms (with running-time for some ).
For instance, existence of subexponentially-hard (resp. quasi-polynomially-hard) OWFs is equivalent to mild average-case hardness of \mktp[\poly\log n] (resp. \mktp[2^{O(\sqrt{\log n})})]) w.r.t. sublinear-time non-uniform algorithms.
We additionally note that if we want to deduce -hard OWFs where security holds w.r.t. uniform -time probabilistic attackers (i.e., uniformly-secure OWFs), it suffices to assume sublinear time hardness of \mktp w.r.t. uniform probabilistic sublinear-time attackers. We complement this result by proving lower bounds that come surprisingly close to what is required to unconditionally deduce the existence of (uniformly-secure) OWFs: \mktp[\poly\log n] is worst-case hard w.r.t. uniform probabilistic sublinear-time algorithms, and \mktp[n-\log n] is mildly average-case hard for all -time deterministic algorithms
On One-way Functions and the Worst-case Hardness of Time-Bounded Kolmogorov Complexity
Whether one-way functions (OWF) exist is arguably the most important
problem in Cryptography, and beyond. While lots of candidate
constructions of one-way functions are known, and recently also
problems whose average-case hardness characterize the existence of
OWFs have been demonstrated, the question of
whether there exists some \emph{worst-case hard problem} that characterizes
the existence of one-way functions has remained open since their
introduction in 1976.
In this work, we present the first ``OWF-complete\u27\u27 promise
problem---a promise problem whose worst-case hardness w.r.t. \BPP
(resp. \Ppoly) is \emph{equivalent} to the existence of OWFs secure
against \PPT (resp. \nuPPT) algorithms. The problem is a
variant of the Minimum Time-bounded Kolmogorov Complexity
problem (\mktp[s] with a threshold ), where we condition on
instances having small ``computational depth\u27\u27.
We furthermore show that depending on the choice of the
threshold , this problem characterizes either ``standard\u27\u27
(polynomially-hard) OWFs, or quasi polynomially- or
subexponentially-hard OWFs. Additionally, when the threshold is
sufficiently small (e.g., or \poly\log n) then
\emph{sublinear} hardness of this problem suffices to characterize
quasi-polynomial/sub-exponential OWFs.
While our constructions are black-box, our analysis is \emph{non-
black box}; we additionally demonstrate that fully black-box constructions
of OWF from the worst-case hardness of this problem are impossible.
We finally show that, under Rudich\u27s conjecture, and standard derandomization
assumptions, our problem is not inside \coAM; as such, it
yields the first candidate problem believed to be outside of \AM \cap \coAM,
or even , whose worst case hardness implies the existence of OWFs
The Exact Complexity of Pseudorandom Functions and Tight Barriers to Lower Bound Proofs
How much computational resource do we need for cryptography? This is an important question of both theoretical and practical interests. In this paper, we study the problem on pseudorandom functions (PRFs) in the context of circuit complexity. Perhaps surprisingly, we prove extremely tight upper and lower bounds in various circuit models.
* In general circuits, assuming the existence of PRFs, PRFs can be constructed in size, simplifying and improving the bound by Ishai et al. (STOC 2008). We show that such construction is almost optimal by giving an unconditional lower bound.
* In logarithmic depth circuits, assuming the existence of PRFs, PRFs can be constructed in size and depth simultaneously.
* In constant depth linear threshold circuits, assuming the existence of PRFs, PRFs can be constructed with wire complexity . We also give an wire complexity lower bound for some constant .
The upper bounds are proved with generalized Levin\u27s trick and novel constructions of almost universal hash functions; the lower bound for general circuits is proved via a tricky but elementary wire-counting argument; and the lower bound for circuits is proved by extracting a black-box property of circuits from the white-box restriction lemma of Chen, Santhanam, and Srinivasan (Theory Comput. 2018). As a byproduct, we prove unconditional tight upper and lower bounds for almost universal hashing, which we believe to have independent interests.
Following Natural Proofs by Razborov and Rudich (J. Comput. Syst. Sci. 1997), our results make progress in realizing the difficulty to improve known circuit lower bounds which recently becomes significant due to the discovery of several bootstrapping results . In , this reveals the limitation of the current restriction-based methods; in particular, it brings new insights in understanding the strange phenomenon of sharp threshold results such as the one presented by Chen and Tell (STOC 2019)
Sublinear-Time Cellular Automata and Connections to Complexity Theory
Im Gebiet des verteilten Rechnens werden Modelle untersucht, in denen sich mehrere Berechnungseinheiten koordinieren, um zusammen ein gemeinsames Ziel zu erreichen, wobei sie aber nur ĂŒber begrenzte Ressourcen verfĂŒgen â sei diese Zeit-, Platz- oder KommunikationskapazitĂ€ten. Das Hauptuntersuchungsobjekt dieser Dissertation ist das wohl einfachste solche Modell ĂŒberhaupt: (eindimensionale) Zellularautomaten. Unser Ziel ist es, einen besseren Ăberblick ĂŒber die FĂ€higkeiten und EinschrĂ€nkungen des Modells und ihrer Varianten zu erlangen in dem Fall, dass die gesamte Bearbeitungszeit deutlich kleiner als die GröĂe der Eingabe ist (d. h. Sublinear-Zeit). Wir fĂŒhren unsere Analyse von dem Standpunkt der KomplexitĂ€tstheorie und stellen dabei auch BezĂŒge zwischen Zellularautomaten und anderen Gebieten wie verteiltes Rechnen und Streaming-Algorithmen her.
Sublinear-Zeit Zellularautomaten. Ein Zellularautomat (ZA) besteht aus identischen Zellen, die entlang einer Linie aneinandergereiht sind. Jede Zelle ist im Wesentlichen eine sehr primitive Berechnungseinheit (nĂ€mlich ein deterministischer endlicher Automat), die mit deren beiden Nachbarn interagieren kann. Die Berechnung entsteht durch die Aktualisierung der ZustĂ€nde der Zellen gemÀà derselben ZustandsĂŒberfĂŒhrungsfunktion, die gleichzeitig ĂŒberall im Automaten angewendet wird. Die von uns betrachteten Varianten sind unter anderem schrumpfende ZAs, die (gewissermaĂen) dynamisch rekonfigurierbar sind, sowie eine probabilistische Variante, in der jede Zelle mit Zugriff auf eine faire MĂŒnze ausgestattet ist. Trotz ĂŒberragendem Interesse an Linear- und Real-Zeit-ZAs scheint der Fall von Sublinear-Zeit im GroĂen und Ganzen von der wissenschaftlichen Gemeinschaft vernachlĂ€ssigt worden zu sein. Wir arbeiten die ĂŒberschaubare Anzahl an Vorarbeiten zu dem Thema auf, die vorhanden ist, und entwickeln die daraus stammenden Techniken weiter, sodass deren Spektrum an Anwendungsmöglichkeiten wesentlich breiter wird. Durch diese BemĂŒhungen entsteht unter anderem ein Zeithierarchiesatz fĂŒr das deterministische Modell. AuĂerdem ĂŒbertragen wir Techniken zum Beweis unterer Schranken aus der KomplexitĂ€tstheorie auf das Modell der schrumpfenden ZAs und entwickeln neue Techniken, die auf probabilistische Sublinear-Zeit-ZAs zugeschnitten sind.
Ein Bezug zu HĂ€rte-Magnifizierung. Ein Bezug zu KomplexitĂ€tstheorie, die wir im Laufe unserer Untersuchungen herstellen, ist ein Satz ĂŒber HĂ€rte-Magnifizierung (engl. hardness magnification) fĂŒr schrumpfende ZAs. Hier bezieht sich HĂ€rte-Magnifizierung auf eine Reihe neuerer Arbeiten, die bezeugen, dass selbst geringfĂŒgig nicht-triviale untere Schranken sehr beeindruckende Konsequenzen in der KomplexitĂ€tstheorie haben können. Unser Satz ist eine Abwandlung eines neuen Ergebnisses von McKay, Murray und Williams (STOC, 2019) fĂŒr Streaming-Algorithmen. Wie wir zeigen kann die Aussage dabei genauso in Bezug auf schrumpfende ZAs formuliert werden, was sie auch beweisbar verstĂ€rkt.
Eine Verbindung zu Sliding-Window Algorithmen. Wir verknĂŒpfen das verteilte Zellularautomatenmodell mit dem sequenziellen Streaming-Algorithmen-Modell. Wie wir zeigen, können (gewisse Varianten von) ZAs von Streaming-Algorithmen simuliert werden, die bestimmten LokalitĂ€tseinschrĂ€nkungen unterliegen. Konkret ist der aktuelle Zustand des Algorithmus vollkommen bestimmt durch den Inhalt eines Fensters fester GröĂe, das wenige letzte Symbole enthĂ€lt, die vom Algorithmus verarbeitet worden sind. Dementsprechend nennen wir diese eingeschrĂ€nkte Form eines Streaming-Algorithmus einen Sliding-Window-Algorithmus. Wir zeigen, dass Sliding-Window-Algorithmen ZAs sehr effizient simulieren können und insbesondere in einer solchen Art und Weise, dass deren PlatzkomplexitĂ€t eng mit der ZeitkomplexitĂ€t des simulierten ZA verbunden ist.
Derandomisierungsergebnisse. Wir zeigen Derandomisierungsergebnisse fĂŒr das Modell von Sliding-Window-Algorithmen, die Zufall aus einer binĂ€ren Zufallsquelle beziehen. Dazu stĂŒtzen wir uns auf die robuste Maschinerie von Branching-Programmen, die den gĂ€ngigen Ansatz zur Derandomisierung von Platz-beschrĂ€nkten Maschinen in der KomplexitĂ€tstheorie darstellen. Als eine Anwendung stellen sich Derandomisierungsergebnisse fĂŒr probabilistische Sublinear-Zeit-ZAs heraus, die durch die oben genannten VerknĂŒpfung erlangt werden.
Vorhersageproblem fĂŒr Pilz-Sandhaufen. Ein letztes Problem, das wir behandeln und das auch einen Bezug zu Sublinear-ZeitkomplexitĂ€t im Rahmen von Zellularautomaten hat (obwohl nicht zu Sublinear-Zeit-Zellularautomaten selber), ist das Vorhersageproblem fĂŒr Sandhaufen-Zellularautomaten. Diese Automaten sind basierend auf zweidimensionalen ZAs definiert und modellieren einen deterministischen Prozess, in dem sich Partikel (in der Regel denkt man an Sandkörnern) durch den Raum verbreiten. Das Vorhersageproblem fragt ob, gegeben eine Zellennummer und eine initiale Konfiguration fĂŒr den Sandhaufen, die Zelle mit Nummer irgendwann vor einer gewissen Zeitschranke einen von Null verschiedenen Zustand erreichen wird. Die KomplexitĂ€t dieses mindestens zwei Jahrzehnte alten Vorhersageproblems ist fĂŒr zweidimensionelle Sandhaufen bemerkenswerterweise nach wie vor offen. Wir lösen diese Frage im Wesentlichen fĂŒr eine neue Variante von Sandhaufen namens Pilz-Sandhaufen, die von Goles u. a. (Phys. Lett. A, 2020) vorgeschlagen worden ist. Unser Ergebnis ist besonders relevant, weil es innovative Erkenntnisse und neue Techniken liefert, die fĂŒr die Lösung des offenen Problems im allgemeinen Fall von hoher Relevanz sein könnten