6 research outputs found

    Variational approach to rare event simulation using least-squares regression

    Get PDF
    We propose an adaptive importance sampling scheme for the simulation of rare events when the underlying dynamics is given by a diffusion. The scheme is based on a Gibbs variational principle that is used to determine the optimal (i.e. zero-variance) change of measure and exploits the fact that the latter can be rephrased as a stochastic optimal control problem. The control problem can be solved by a stochastic approximation algorithm, using the Feynman-Kac representation of the associated dynamic programming equations, and we discuss numerical aspects for high-dimensional problems along with simple toy examples.Comment: 28 pages, 7 figure

    A critical analysis of quantum error correction methods for realistic noise processes

    Get PDF
    Contrôler des systèmes quantiques avec une précision arbitraire semble être un défi insurmontable en raison de l'influence de l'environnement se manifestant sous forme d'erreurs dans les algorithmes quantiques. Cependant, il existe des protocoles de tolérance aux fautes qui résolvent ce problème en stockant l'information quantique de manière redondante dans un état à plusieurs qubits. Il est crucial d'optimiser ces protocoles, en les adaptant aux processus de génération du bruit, dans le but de minimiser l'ajout d'espace et de temps aux calculs quantiques. Les méthodes actuelles se basent sur un cycle d'optimisation comprenant la caractérisation du matériel, la modélisation du bruit et des simulations numériques. Pour la majorité des études sur la tolérance aux fautes, le bruit est modélisé comme l'application stochastique de matrices de Pauli. Cette approche, communément appelé le modèle d'erreurs de Pauli est l'exemple typique de décohérence induite par l'environnement. Les probabilités associées à chacune des matrices de Pauli définissent le taux d'erreurs. Même si ce modèle d'erreurs est utilisé pour réaliser des preuves analytiques et effectuer des simulations classiques, le niveau de précision de ce dernier dépend de la nature quantique de la source d'erreurs. Toutefois, un dispositif quantique réaliste est affecté par un processus bruyant qui n'est pas très bien approximé par le modèle d'erreurs de Pauli. Un exemple extrême étant les erreurs cohérentes causées par rotation excessive d'un qubit. De plus, un modèle général de bruit quantique illustre beaucoup plus de caractéristiques que le modèle simplifié de Pauli. La notion de taux d'erreurs est alors moins bien définie dans ces cas. Ainsi, nous avons besoin d'une mesure appropriée pour quantifier l'effet du bruit qui s'intègre bien aux preuves de tolérance aux fautes. Pour ce faire, il existe plusieurs options dont la fidélité et la norme diamant. Les simulations numériques ont été centrales au développement des protocoles de tolérance aux fautes. Généralement, des simulations impliquant des modèles de bruits spécifiques sont utilisées pour évaluer l'efficacité de ces méthodes. Dans le cas du modèle simplifié d'erreurs de Pauli, la source du bruit est simulée par un algorithme classique appliquant une matrice de Pauli tirée selon une distribution prédéterminée. Cependant, il n'est généralement pas nécessaire d'assumer que le bruit est généré de façon stochastique. Par exemple, il est possible de décrire le bruit comme une évolution temporelle du système. Malgré cela, il existe des techniques pour mesurer numériquement la performance d'un protocole de tolérance aux fautes. Dans la présente thèse, nous faisons une étude critique des méthodes actuelles d'optimisation des protocoles de tolérances aux fautes et nous appuyons nos analyses sur des observations provenant de simulations numériques. D'abord, nous montrons que les protocoles de tolérance aux fautes sont sensibles à certains détails du modèle bruits qui ne sont pas bien décrits pas les métriques standards. Alors que la valeur d'une métrique peut être la même pour deux processus bruyants, nous observons que la performance d'un protocole de tolérance aux fautes peut différer grandement pour ces deux processus. Ainsi, nous avons défini de nouvelles métriques ne reposant pas sur les méthodes standards. Ces métriques s'appuient plutôt sur des méthodes d'apprentissage automatique qui considèrent les propriétés importantes des processus bruyants et qui permettent de prédire avec plus de précision la performance d'un protocole de tolérance aux fautes. Par la suite, nous argumentons que la présence d'événements rares détériore la précision des simulations numériques. En d'autres termes, les événements bruyants qui affectent significativement la performance d'un protocole de tolérances aux fautes sont rarement observés, ce qui engendre une grande erreur statistique dans les estimations numériques. Pour pallier partiellement à ce problème, nous présentons des méthodes d'échantillonnages préférentielles. Toutefois, la recherche de meilleures méthodes demeure ouverte. Finalement, la mauvaise qualité des précisions des métriques et la difficulté des simulations numériques nous amènent à conclure que la portée des méthodes actuelles d'optimisation des protocoles de tolérances aux fautes est très limitée. Nous supposons qu'une caractérisation expérimentale d'un tel protocole sur un ordinateur quantique de taille modeste permettrait de surmonter ces difficultés. Cela pourrait paver le chemin à la réalisation d'un ordinateur quantique tolérant les fautes.Abstract: Controlling quantum systems to arbitrary precision appears to be unobtainable due to environmental influences that manifest themselves as errors in a quantum algorithm. Fault tolerance schemes that exist to address this problem redundantly store quantum information in multi-qubit states. It is crucial to optimize fault tolerance schemes by tailoring them to the prevalent noise processes, to minimize the space and time overhead for quantum computation. Current methods envision an optimization cycle comprised of hardware characterization, noise modelling and numerical simulations. Most studies in fault tolerance model noise by a probabilistic action of Pauli matrices, which are archetypal examples of environment-induced decoherence. These are commonly known as Pauli error models and the probabilities associated with the Pauli matrices specify an error rate. While Pauli error models are convenient for analytical proofs and classical simulation, the level of accuracy of such a model depends on the quantum mechanical nature of the error source. A realistic quantum device is often affected by a noise process that is poorly approximated by a Pauli error model, an extreme example being coherent errors which are caused by miscalibration. Furthermore, a generic quantum noise process possesses many more features than the simplified Pauli error model. The notion of an error rate is less clear for such processes. Hence, we need appropriate metrics to quantify the strength of noise which integrate well into fault tolerance proofs. There are many candidate metrics, for instance, the fidelity and the diamond norm. Numerical simulations have been at the heart of fault tolerance studies. The efficacy of a scheme is often tested by numerically simulating the scheme under a specified noise process. In the simplified Pauli error model, the error-source is simulated by applying a Pauli matrix, sampled according to a predetermined distribution. However, generic quantum noise processes need not assume a probabilistic description, for instance, they can be described by a time-evolution. Despite this, there exist techniques to numerically measure the success of a fault tolerance scheme. In this thesis, we provide a critical analysis of the current methods in optimizing fault tolerance schemes. We supplement our analysis by observations from numerical simulations. Firstly, we show that fault-tolerance schemes are sensitive to the details of the noise model that are not effectively captured by the standard error-metrics. While a metric can be the same for two physical noise processes, we observe that the success of a quantum error correction scheme can differ drastically between the two cases. Going beyond the realm of standard error-metrics, we show how machine learning techniques can be used to define new measures of noise strength that capture key properties of the noise process and provide a more accurate prediction of the success of a fault tolerant scheme. Secondly, we argue that numerical simulations of fault tolerance schemes are plagued by the problem of characterizing rare events. In other words, malignant noise processes that significantly degrade the success of a fault tolerant scheme are observed rarely. This entails a large statistical error in the numerical simulation estimates. We present importance sampling methods that take steps towards addressing this issue, although the problem remains largely open. The poor predictive power of error-metrics on the success of a fault-tolerant scheme and the difficulty of numerical simulations of fault-tolerant protocols lead us to the conclusion that the current methods of optimizing fault tolerance schemes are of very limited scope. We speculate that an experimental characterization of a fault-tolerant scheme on a small quantum computer would bypass most of the challenges, and could provide a bootstrapping path to full-scale fault-tolerant quantum computatio
    corecore