190 research outputs found

    Compact Routing on Internet-Like Graphs

    Full text link
    The Thorup-Zwick (TZ) routing scheme is the first generic stretch-3 routing scheme delivering a nearly optimal local memory upper bound. Using both direct analysis and simulation, we calculate the stretch distribution of this routing scheme on random graphs with power-law node degree distributions, PkkγP_k \sim k^{-\gamma}. We find that the average stretch is very low and virtually independent of γ\gamma. In particular, for the Internet interdomain graph, γ2.1\gamma \sim 2.1, the average stretch is around 1.1, with up to 70% of paths being shortest. As the network grows, the average stretch slowly decreases. The routing table is very small, too. It is well below its upper bounds, and its size is around 50 records for 10410^4-node networks. Furthermore, we find that both the average shortest path length (i.e. distance) dˉ\bar{d} and width of the distance distribution σ\sigma observed in the real Internet inter-AS graph have values that are very close to the minimums of the average stretch in the dˉ\bar{d}- and σ\sigma-directions. This leads us to the discovery of a unique critical quasi-stationary point of the average TZ stretch as a function of dˉ\bar{d} and σ\sigma. The Internet distance distribution is located in a close neighborhood of this point. This observation suggests the analytical structure of the average stretch function may be an indirect indicator of some hidden optimization criteria influencing the Internet's interdomain topology evolution.Comment: 29 pages, 16 figure

    Polynomial systems : graphical structure, geometry, and applications

    Get PDF
    Thesis: Ph. D., Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science, 2018.This electronic version was submitted by the student author. The certified thesis is available in the Institute Archives and Special Collections.Cataloged from student-submitted PDF version of thesis.Includes bibliographical references (pages 199-208).Solving systems of polynomial equations is a foundational problem in computational mathematics, that has several applications in the sciences and engineering. A closely related problem, also prevalent in applications, is that of optimizing polynomial functions subject to polynomial constraints. In this thesis we propose novel methods for both of these tasks. By taking advantage of the graphical and geometrical structure of the problem, our methods can achieve higher efficiency, and we can also prove better guarantees. Various problems in areas such as robotics, power systems, computer vision, cryptography, and chemical reaction networks, can be modeled by systems of polynomial equations, and in many cases the resulting systems have a simple sparsity structure. In the first part of this thesis we represent this sparsity structure with a graph, and study the algorithmic and complexity consequences of this graphical abstraction. Our main contribution is the introduction of a novel data structure, chordal networks, that always preserves the underlying graphical structure of the system. Remarkably, many interesting families of polynomial systems admit compact chordal network representations (of size linear in the number of variables), even though the number of components is exponentially large. Our methods outperform existing techniques by orders of magnitude in applications from algebraic statistics and vector addition systems. We then turn our attention to the study of graphical structure in the computation of matrix permanents, a classical problem from computer science. We provide a novel algorithm that requires Õ(n 2[superscript w]) arithmetic operations, where [superscript w] is the treewidth of its bipartite adjacency graph. We also investigate the complexity of some related problems, including mixed discriminants, hyperdeterminants, and mixed volumes. Although seemingly unrelated to polynomial systems, our results have natural implications on the complexity of solving sparse systems. The second part of this thesis focuses on the problem of minimizing a polynomial function subject to polynomial equality constraints. This problem captures many important applications, including Max-Cut, tensor low rank approximation, the triangulation problem, and rotation synchronization. Although these problems are nonconvex, tractable semidefinite programming (SDP) relaxations have been proposed. We introduce a methodology to derive more efficient (smaller) relaxations, by leveraging the geometrical structure of the underlying variety. The main idea behind our method is to describe the variety with a generic set of samples, instead of relying on an algebraic description. Our methods are particularly appealing for varieties that are easy to sample from, such as SO(n), Grassmannians, or rank k tensors. For arbitrary varieties we can take advantage of the tools from numerical algebraic geometry. Optimization problems from applications usually involve parameters (e.g., the data), and there is often a natural value of the parameters for which SDP relaxations solve the (polynomial) problem exactly. The final contribution of this thesis is to establish sufficient conditions (and quantitative bounds) under which SDP relaxations will continue to be exact as the parameter moves in a neighborhood of the original one. Our results can be used to show that several statistical estimation problems are solved exactly by SDP relaxations in the low noise regime. In particular, we prove this for the triangulation problem, rotation synchronization, rank one tensor approximation, and weighted orthogonal Procrustes.by Diego Cifuentes.Ph. D

    Proceedings of the 8th Cologne-Twente Workshop on Graphs and Combinatorial Optimization

    No full text
    International audienceThe Cologne-Twente Workshop (CTW) on Graphs and Combinatorial Optimization started off as a series of workshops organized bi-annually by either Köln University or Twente University. As its importance grew over time, it re-centered its geographical focus by including northern Italy (CTW04 in Menaggio, on the lake Como and CTW08 in Gargnano, on the Garda lake). This year, CTW (in its eighth edition) will be staged in France for the first time: more precisely in the heart of Paris, at the Conservatoire National d’Arts et Métiers (CNAM), between 2nd and 4th June 2009, by a mixed organizing committee with members from LIX, Ecole Polytechnique and CEDRIC, CNAM

    Certification of many-body systems

    Get PDF
    Quantum physics is arguably both the most successful and the most counterintuitive physical theory of all times. Its extremely accurate predictions on the behaviour of microscopic particles have led to unprecedented technological advances in various fields and yet, many quantum phenomena defy our classical intuition. Starting from the 1980’s, however, a paradigm shift has gradually taken hold in the scientific community, consisting in studying quantum phenomena not as inexplicable conundrums but as useful resources. This shift marked the birth of the field of quantum information science, which has since then explored the advantages that quantum theory can bring to the way we process and transfer information. In this thesis, we introduce scalable certification tools that apply to various operational properties of many-body quantum systems. In the first three cases we consider, we base our certification protocols on the detection of nonlocal correlations. These kinds of non-classical correlations that can displayed by quantum states allow one to assess relevant properties in a device-independent manner, that is, without assuming anything about the specific functioning of the device producing the state of interest or the implemented measurements. In the first scenario we present an efficient method to detect multipartite entanglement in a device-independent way. We do so by introducing a numerical test for nonlocal correlations that involves computational and experimental resources that scale polynomially with the system number of particles. We show the range of applicability of the method by using it to detect entanglement in various families of multipartite systems. In multipartite systems, however, it is often more informative to provide quantitative statements. We address this problem in the second scenario by introducing scalable methods to quantify the nonlocality depth of a multipartite systems, that is, the number of particles sharing nonlocal correlations among each other. We show how to do that by making use of the knowledge of two-body correlations only and we apply the resulting techniques to experimental data from a system of a few hundreds of atoms. In the third scenario, we move to consider self-testing, which is the most informative certification method based on nonlocality. Indeed, in a self-testing task, one is interested in characterising the state of the system and the measurement performed on it, by simply looking at the resulting correlations. We introduce the first scalable self-testing method based on Bell inequalities and apply it to graph states, a well-known family of multipartite quantum states. Moreover, we show that the certification achieved with our method is robust against experimental imperfections. Lastly, we address the problem of certifying the result of quantum optimizers. They are quantum devices designed to estimate the groundstate energy of classical spin systems. We provide a way to efficiently compute a convergent series of upper and lower bounds to the minimum of interest, which at each step allows one to certify the output of any quantum optimizer.La física cuántica es posiblemente la teoría física más exitosa y la más contraintuitiva jamás desarollada. A pesar de que sus predicciones extremadamente precisas sobre el comportamiento de las partículas microscópicas han llevado a avances tecnológicos sin precedentes en varios campos, muchos fenómenos cuánticos desafían nuestra intuición basada en una concepción clásica de la física. Sin embargo, a partir de la década de 1980 tuvo lugar un cambio de paradigma en la comunidad científica, que se orientó en estudiar los fenómenos cuánticos no como enigmas inexplicables, sino como recursos útiles. Este cambio marcó el nacimiento del campo de la ciencia de la información cuántica, que desde entonces ha explorado las ventajas que la teoría cuántica puede aportar a la forma en que procesamos y transferimos la información. Hoy en día es un hecho bien establecido que la codificación de información en partículas cuánticas puede llevar, por ejemplo, a procesos de cálculo más eficientes, así como a comunicaciones extremadamente seguras. Además, debido a sus aplicaciones prácticas a la vida cotidiana, la ciencia de la información cuántica ha atraído un gran interés político y económico. Recientemente se han lanzado varias iniciativas con el propósito de cerrar la brecha entre la ciencia básica y la industria en este campo, tanto a nivel nacional como internacional. Al mismo tiempo, cada vez más empresas están incrementando sus esfuerzos para producir dispositivos cuánticos a nivel comercial. No hay duda de que hemos entrado en la era de la primera generación de dispositivos cuánticos, en la cual los sistemas cuánticos controlables compuestos de decenas o cientos de partículas son cada vez más accesibles. En tal escenario, el certificar que estos dispositivos exhiben sus atractivas propiedades cuánticas constituye un problema fundamental. Es importante destacar que, para que los métodos de certificación deseados sean aplicables en situaciones reales, éstos deben ser escalables con el tamaño del sistema. En otras palabras, tienen que basarse en requerimientos computacionales y experimentales que crezcan, a lo sumo,polinomialmente con el número de partículas en el sistema de interés. En esta tesis, introducimos herramientas de certificación escalables que se aplican a varias propiedades operativas de sistemas cuánticos de muchos cuerpos. En los primeros tres casos que consideramos, basamos nuestros protocolos de certificación en la detección de correlaciones no locales. Estos tipos de correlaciones no clásicas, que únicamente pueden ser producidas por sistemas cuánticos, permiten evaluar propiedades relevantes de forma independiente del dispositivo, es decir, sin realizar hipótesis acerca del funcionamiento específico del dispositivo que produce el estado de interés o las mediciones implementadas. En el primer escenario, presentamos un método eficiente para detectar entrelazamiento en sistemas multipartitos de forma independiente del dispositivo. Lo hacemos mediante la introducción de una prueba numérica para las correlaciones no locales que involucra recursos computacionales y experimentales que escalan polinomialmente con el número de partículas del sistema. Mostramos el rango de aplicabilidad de dicho método usándolo para detectar entrelazamiento en varias familias de sistemas multipartitos. Sin embargo, al tratar con sistemas de muchos cuerpos a menudo es más informativo proporcionar informaciones cuantitativas. Abordamos este problema en el segundo escenario mediante la introducción de métodos escalables para cuantificar la profundidad no local (non-locality depth) de un sistema multipartito, es decir, la cantidad de partículas que comparten correlaciones no locales entre sí. Mostramos cómo realizar dicha cuantificación a partir del conocimiento únicamente de los correladores de dos cuerpos, y aplicamos las técnicas resultantes a los datos experimentales de un sistema de unos pocos cientos de átomos. En el tercer escenario, pasamos a considerar el caso de self-testing, que es el método de certificación más informativo basado en la no localidad. De hecho, en una tarea de self-testing, el objetivo es caracterizar el estado del sistema y las mediciones realizadas en él, simplemente observando las correlaciones resultantes. Introducimos el primer método de self-testing escalable basado en las desigualdades de Bell y lo aplicamos a estados de grafo, una familia muy conocida de estados cuánticos multipartitos. Además, demostramos que la certificación lograda con nuestro método es robusta a imperfecciones experimentales. Por último, consideramos el problema de certificar el resultado de optimizadores cuánticos. Estos son dispositivos cuánticos diseñados para estimar la energía del estado fundamental de sistemas de espines clásicos. Desarollamos un método eficiente para calcular una serie convergente de límites superiores e inferiores al mínimo de interés, que en cada paso permite certificar el resultado de cualquier optimizador cuántic

    Certification of many-body systems

    Get PDF
    Quantum physics is arguably both the most successful and the most counterintuitive physical theory of all times. Its extremely accurate predictions on the behaviour of microscopic particles have led to unprecedented technological advances in various fields and yet, many quantum phenomena defy our classical intuition. Starting from the 1980’s, however, a paradigm shift has gradually taken hold in the scientific community, consisting in studying quantum phenomena not as inexplicable conundrums but as useful resources. This shift marked the birth of the field of quantum information science, which has since then explored the advantages that quantum theory can bring to the way we process and transfer information. In this thesis, we introduce scalable certification tools that apply to various operational properties of many-body quantum systems. In the first three cases we consider, we base our certification protocols on the detection of nonlocal correlations. These kinds of non-classical correlations that can displayed by quantum states allow one to assess relevant properties in a device-independent manner, that is, without assuming anything about the specific functioning of the device producing the state of interest or the implemented measurements. In the first scenario we present an efficient method to detect multipartite entanglement in a device-independent way. We do so by introducing a numerical test for nonlocal correlations that involves computational and experimental resources that scale polynomially with the system number of particles. We show the range of applicability of the method by using it to detect entanglement in various families of multipartite systems. In multipartite systems, however, it is often more informative to provide quantitative statements. We address this problem in the second scenario by introducing scalable methods to quantify the nonlocality depth of a multipartite systems, that is, the number of particles sharing nonlocal correlations among each other. We show how to do that by making use of the knowledge of two-body correlations only and we apply the resulting techniques to experimental data from a system of a few hundreds of atoms. In the third scenario, we move to consider self-testing, which is the most informative certification method based on nonlocality. Indeed, in a self-testing task, one is interested in characterising the state of the system and the measurement performed on it, by simply looking at the resulting correlations. We introduce the first scalable self-testing method based on Bell inequalities and apply it to graph states, a well-known family of multipartite quantum states. Moreover, we show that the certification achieved with our method is robust against experimental imperfections. Lastly, we address the problem of certifying the result of quantum optimizers. They are quantum devices designed to estimate the groundstate energy of classical spin systems. We provide a way to efficiently compute a convergent series of upper and lower bounds to the minimum of interest, which at each step allows one to certify the output of any quantum optimizer.La física cuántica es posiblemente la teoría física más exitosa y la más contraintuitiva jamás desarollada. A pesar de que sus predicciones extremadamente precisas sobre el comportamiento de las partículas microscópicas han llevado a avances tecnológicos sin precedentes en varios campos, muchos fenómenos cuánticos desafían nuestra intuición basada en una concepción clásica de la física. Sin embargo, a partir de la década de 1980 tuvo lugar un cambio de paradigma en la comunidad científica, que se orientó en estudiar los fenómenos cuánticos no como enigmas inexplicables, sino como recursos útiles. Este cambio marcó el nacimiento del campo de la ciencia de la información cuántica, que desde entonces ha explorado las ventajas que la teoría cuántica puede aportar a la forma en que procesamos y transferimos la información. Hoy en día es un hecho bien establecido que la codificación de información en partículas cuánticas puede llevar, por ejemplo, a procesos de cálculo más eficientes, así como a comunicaciones extremadamente seguras. Además, debido a sus aplicaciones prácticas a la vida cotidiana, la ciencia de la información cuántica ha atraído un gran interés político y económico. Recientemente se han lanzado varias iniciativas con el propósito de cerrar la brecha entre la ciencia básica y la industria en este campo, tanto a nivel nacional como internacional. Al mismo tiempo, cada vez más empresas están incrementando sus esfuerzos para producir dispositivos cuánticos a nivel comercial. No hay duda de que hemos entrado en la era de la primera generación de dispositivos cuánticos, en la cual los sistemas cuánticos controlables compuestos de decenas o cientos de partículas son cada vez más accesibles. En tal escenario, el certificar que estos dispositivos exhiben sus atractivas propiedades cuánticas constituye un problema fundamental. Es importante destacar que, para que los métodos de certificación deseados sean aplicables en situaciones reales, éstos deben ser escalables con el tamaño del sistema. En otras palabras, tienen que basarse en requerimientos computacionales y experimentales que crezcan, a lo sumo,polinomialmente con el número de partículas en el sistema de interés. En esta tesis, introducimos herramientas de certificación escalables que se aplican a varias propiedades operativas de sistemas cuánticos de muchos cuerpos. En los primeros tres casos que consideramos, basamos nuestros protocolos de certificación en la detección de correlaciones no locales. Estos tipos de correlaciones no clásicas, que únicamente pueden ser producidas por sistemas cuánticos, permiten evaluar propiedades relevantes de forma independiente del dispositivo, es decir, sin realizar hipótesis acerca del funcionamiento específico del dispositivo que produce el estado de interés o las mediciones implementadas. En el primer escenario, presentamos un método eficiente para detectar entrelazamiento en sistemas multipartitos de forma independiente del dispositivo. Lo hacemos mediante la introducción de una prueba numérica para las correlaciones no locales que involucra recursos computacionales y experimentales que escalan polinomialmente con el número de partículas del sistema. Mostramos el rango de aplicabilidad de dicho método usándolo para detectar entrelazamiento en varias familias de sistemas multipartitos. Sin embargo, al tratar con sistemas de muchos cuerpos a menudo es más informativo proporcionar informaciones cuantitativas. Abordamos este problema en el segundo escenario mediante la introducción de métodos escalables para cuantificar la profundidad no local (non-locality depth) de un sistema multipartito, es decir, la cantidad de partículas que comparten correlaciones no locales entre sí. Mostramos cómo realizar dicha cuantificación a partir del conocimiento únicamente de los correladores de dos cuerpos, y aplicamos las técnicas resultantes a los datos experimentales de un sistema de unos pocos cientos de átomos. En el tercer escenario, pasamos a considerar el caso de self-testing, que es el método de certificación más informativo basado en la no localidad. De hecho, en una tarea de self-testing, el objetivo es caracterizar el estado del sistema y las mediciones realizadas en él, simplemente observando las correlaciones resultantes. Introducimos el primer método de self-testing escalable basado en las desigualdades de Bell y lo aplicamos a estados de grafo, una familia muy conocida de estados cuánticos multipartitos. Además, demostramos que la certificación lograda con nuestro método es robusta a imperfecciones experimentales. Por último, consideramos el problema de certificar el resultado de optimizadores cuánticos. Estos son dispositivos cuánticos diseñados para estimar la energía del estado fundamental de sistemas de espines clásicos. Desarollamos un método eficiente para calcular una serie convergente de límites superiores e inferiores al mínimo de interés, que en cada paso permite certificar el resultado de cualquier optimizador cuánticoPostprint (published version
    corecore