25 research outputs found

    Hardness of decoding quantum stabilizer codes

    Full text link
    In this article we address the computational hardness of optimally decoding a quantum stabilizer code. Much like classical linear codes, errors are detected by measuring certain check operators which yield an error syndrome, and the decoding problem consists of determining the most likely recovery given the syndrome. The corresponding classical problem is known to be NP-complete, and a similar decoding problem for quantum codes is also known to be NP-complete. However, this decoding strategy is not optimal in the quantum setting as it does not take into account error degeneracy, which causes distinct errors to have the same effect on the code. Here, we show that optimal decoding of stabilizer codes is computationally much harder than optimal decoding of classical linear codes, it is #P

    A linear-time benchmarking tool for generalized surface codes

    Get PDF
    Quantum information processors need to be protected against errors and faults. One of the most widely considered fault-tolerant architecture is based on surface codes. While the general principles of these codes are well understood and basic code properties such as minimum distance and rate are easy to characterize, a code's average performance depends on the detailed geometric layout of the qubits. To date, optimizing a surface code architecture and comparing different geometric layouts relies on costly numerical simulations. Here, we propose a benchmarking algorithm for simulating the performance of surface codes, and generalizations thereof, that runs in linear time. We implemented this algorithm in a software that generates performance reports and allows to quickly compare different architectures

    A critical analysis of quantum error correction methods for realistic noise processes

    Get PDF
    Contrôler des systèmes quantiques avec une précision arbitraire semble être un défi insurmontable en raison de l'influence de l'environnement se manifestant sous forme d'erreurs dans les algorithmes quantiques. Cependant, il existe des protocoles de tolérance aux fautes qui résolvent ce problème en stockant l'information quantique de manière redondante dans un état à plusieurs qubits. Il est crucial d'optimiser ces protocoles, en les adaptant aux processus de génération du bruit, dans le but de minimiser l'ajout d'espace et de temps aux calculs quantiques. Les méthodes actuelles se basent sur un cycle d'optimisation comprenant la caractérisation du matériel, la modélisation du bruit et des simulations numériques. Pour la majorité des études sur la tolérance aux fautes, le bruit est modélisé comme l'application stochastique de matrices de Pauli. Cette approche, communément appelé le modèle d'erreurs de Pauli est l'exemple typique de décohérence induite par l'environnement. Les probabilités associées à chacune des matrices de Pauli définissent le taux d'erreurs. Même si ce modèle d'erreurs est utilisé pour réaliser des preuves analytiques et effectuer des simulations classiques, le niveau de précision de ce dernier dépend de la nature quantique de la source d'erreurs. Toutefois, un dispositif quantique réaliste est affecté par un processus bruyant qui n'est pas très bien approximé par le modèle d'erreurs de Pauli. Un exemple extrême étant les erreurs cohérentes causées par rotation excessive d'un qubit. De plus, un modèle général de bruit quantique illustre beaucoup plus de caractéristiques que le modèle simplifié de Pauli. La notion de taux d'erreurs est alors moins bien définie dans ces cas. Ainsi, nous avons besoin d'une mesure appropriée pour quantifier l'effet du bruit qui s'intègre bien aux preuves de tolérance aux fautes. Pour ce faire, il existe plusieurs options dont la fidélité et la norme diamant. Les simulations numériques ont été centrales au développement des protocoles de tolérance aux fautes. Généralement, des simulations impliquant des modèles de bruits spécifiques sont utilisées pour évaluer l'efficacité de ces méthodes. Dans le cas du modèle simplifié d'erreurs de Pauli, la source du bruit est simulée par un algorithme classique appliquant une matrice de Pauli tirée selon une distribution prédéterminée. Cependant, il n'est généralement pas nécessaire d'assumer que le bruit est généré de façon stochastique. Par exemple, il est possible de décrire le bruit comme une évolution temporelle du système. Malgré cela, il existe des techniques pour mesurer numériquement la performance d'un protocole de tolérance aux fautes. Dans la présente thèse, nous faisons une étude critique des méthodes actuelles d'optimisation des protocoles de tolérances aux fautes et nous appuyons nos analyses sur des observations provenant de simulations numériques. D'abord, nous montrons que les protocoles de tolérance aux fautes sont sensibles à certains détails du modèle bruits qui ne sont pas bien décrits pas les métriques standards. Alors que la valeur d'une métrique peut être la même pour deux processus bruyants, nous observons que la performance d'un protocole de tolérance aux fautes peut différer grandement pour ces deux processus. Ainsi, nous avons défini de nouvelles métriques ne reposant pas sur les méthodes standards. Ces métriques s'appuient plutôt sur des méthodes d'apprentissage automatique qui considèrent les propriétés importantes des processus bruyants et qui permettent de prédire avec plus de précision la performance d'un protocole de tolérance aux fautes. Par la suite, nous argumentons que la présence d'événements rares détériore la précision des simulations numériques. En d'autres termes, les événements bruyants qui affectent significativement la performance d'un protocole de tolérances aux fautes sont rarement observés, ce qui engendre une grande erreur statistique dans les estimations numériques. Pour pallier partiellement à ce problème, nous présentons des méthodes d'échantillonnages préférentielles. Toutefois, la recherche de meilleures méthodes demeure ouverte. Finalement, la mauvaise qualité des précisions des métriques et la difficulté des simulations numériques nous amènent à conclure que la portée des méthodes actuelles d'optimisation des protocoles de tolérances aux fautes est très limitée. Nous supposons qu'une caractérisation expérimentale d'un tel protocole sur un ordinateur quantique de taille modeste permettrait de surmonter ces difficultés. Cela pourrait paver le chemin à la réalisation d'un ordinateur quantique tolérant les fautes.Abstract: Controlling quantum systems to arbitrary precision appears to be unobtainable due to environmental influences that manifest themselves as errors in a quantum algorithm. Fault tolerance schemes that exist to address this problem redundantly store quantum information in multi-qubit states. It is crucial to optimize fault tolerance schemes by tailoring them to the prevalent noise processes, to minimize the space and time overhead for quantum computation. Current methods envision an optimization cycle comprised of hardware characterization, noise modelling and numerical simulations. Most studies in fault tolerance model noise by a probabilistic action of Pauli matrices, which are archetypal examples of environment-induced decoherence. These are commonly known as Pauli error models and the probabilities associated with the Pauli matrices specify an error rate. While Pauli error models are convenient for analytical proofs and classical simulation, the level of accuracy of such a model depends on the quantum mechanical nature of the error source. A realistic quantum device is often affected by a noise process that is poorly approximated by a Pauli error model, an extreme example being coherent errors which are caused by miscalibration. Furthermore, a generic quantum noise process possesses many more features than the simplified Pauli error model. The notion of an error rate is less clear for such processes. Hence, we need appropriate metrics to quantify the strength of noise which integrate well into fault tolerance proofs. There are many candidate metrics, for instance, the fidelity and the diamond norm. Numerical simulations have been at the heart of fault tolerance studies. The efficacy of a scheme is often tested by numerically simulating the scheme under a specified noise process. In the simplified Pauli error model, the error-source is simulated by applying a Pauli matrix, sampled according to a predetermined distribution. However, generic quantum noise processes need not assume a probabilistic description, for instance, they can be described by a time-evolution. Despite this, there exist techniques to numerically measure the success of a fault tolerance scheme. In this thesis, we provide a critical analysis of the current methods in optimizing fault tolerance schemes. We supplement our analysis by observations from numerical simulations. Firstly, we show that fault-tolerance schemes are sensitive to the details of the noise model that are not effectively captured by the standard error-metrics. While a metric can be the same for two physical noise processes, we observe that the success of a quantum error correction scheme can differ drastically between the two cases. Going beyond the realm of standard error-metrics, we show how machine learning techniques can be used to define new measures of noise strength that capture key properties of the noise process and provide a more accurate prediction of the success of a fault tolerant scheme. Secondly, we argue that numerical simulations of fault tolerance schemes are plagued by the problem of characterizing rare events. In other words, malignant noise processes that significantly degrade the success of a fault tolerant scheme are observed rarely. This entails a large statistical error in the numerical simulation estimates. We present importance sampling methods that take steps towards addressing this issue, although the problem remains largely open. The poor predictive power of error-metrics on the success of a fault-tolerant scheme and the difficulty of numerical simulations of fault-tolerant protocols lead us to the conclusion that the current methods of optimizing fault tolerance schemes are of very limited scope. We speculate that an experimental characterization of a fault-tolerant scheme on a small quantum computer would bypass most of the challenges, and could provide a bootstrapping path to full-scale fault-tolerant quantum computatio

    Hardness of decoding stabilizer codes

    Get PDF
    Résumé : Ce mémoire porte sur l’étude de la complexité du problème du décodage des codes stabilisateurs quantiques. Les trois premiers chapitres introduisent les notions nécessaires pour comprendre notre résultat principal. D’abord, nous rappelons les bases de la théorie de la complexité et illustrons les concepts qui s’y rattachent à l’aide d’exemples tirés de la physique. Ensuite, nous expliquons le problème du décodage des codes correcteurs classiques. Nous considérons les codes linéaires sur le canal binaire symétrique et nous discutons du célèbre résultat de McEliece et al. [1]. Dans le troisième chapitre, nous étudions le problème de la communication quantique sur des canaux de Pauli. Dans ce chapitre, nous introduisons le formalisme des codes stabilisateurs pour étudier la correction d’erreur quantique et mettons en évidence le concept de dégénérescence. Le problème de décodage des codes stabilisateurs quantiques négligeant la dégénérescence est appelé «quantum maximum likelihood decoding»(QMLD). Il a été démontré que ce problème est NP-complet par Min Hseiu Heish et al., dans [2]. Nous nous concentrons sur la stratégie optimale de décodage, appelée «degenerate quantum maximum likelihood decoding »(DQMLD), qui prend en compte la présence de la dégénérescence et nous mettons en évidence quelques instances pour lesquelles les performances de ces deux méthodes diffèrent drastiquement. La contribution principale de ce mémoire est de prouver que DQMLD est considérablement plus difficile que ce que les résultats précédents indiquaient. Dans le dernier chapitre, nous présentons notre résultat principal (Thm. 5.1.1), établissant que DQMLD est #P-complet. Pour le prouver, nous démontrons que le problème de l’évaluation de l’énumérateur de poids d’un code linéaire, qui est #P-complet, se réduit au problème DQMLD. Le résultat principal de ce mémoire est présenté sous forme d’article dans [3] et est présentement considéré pour publication dans IEEE Transactions on Information Theory. Nous montrons également que, sous certaines conditions, les résultats de QMLD et DQMLD coïncident. Il s’agit d’une amélioration par rapport aux résultats obtenus dans [4, 5]. // Abstract : This thesis deals with the study of computational complexity of decoding stabilizer codes. The first three chapters contain all the necessary background to understand the main result of this thesis. First, we explain the necessary notions in computational complexity, introducing P, NP, #P classes of problems, along with some examples intended for physicists. Then, we explain the decoding problem in classical error correction, for linear codes on the binary symmetric channel and discuss the celebrated result of Mcleicee et al., in [1]. In the third chapter, we study the problem of quantum communication, over Pauli channels. Here, using the stabilizer formalism, we discuss the concept of degenerate errors. The decoding problem for stabilizer codes, which simply neglects the presence of degenerate errors, is called quantum maximum likelihood decoding (QMLD) and it was shown to be NP-complete, by Min Hseiu Heish et al., in [2]. We focus on the problem of optimal decoding, called degenerate quantum maximum likelihood decoding (DQMLD), which accounts for the presence of degenerate errors. We will highlight some instances of stabilizer codes, where the presence of degenerate errors causes drastic variations between the performances of DQMLD and QMLD. The main contribution of this thesis is to demonstrate that the optimal decoding problem for stabilizer codes is much harder than what the previous results had anticipated. In the last chapter, we present our own result (in Thm. 5.1.1), establishing that the optimal decoding problem for stabilizer codes, is #P-complete. To prove this, we demonstrate that the problem of evaluating the weight enumerator of a binary linear code, which is #P-complete, can be reduced (in polynomial time) to the DQMLD problem, see (Sec. 5.1). Our principal result is also presented as an article in [3], which is currently under review for publication in IEEE Transactions on Information Theory. In addition to the main result, we also show that under certain conditions, the outputs of DQMLD and QMLD always agree. We consider the conditions developed by us to be an improvement over the ones in [4, 5]

    Non-Exponential Behaviour in Logical Randomized Benchmarking

    Full text link
    We construct a gate and time-independent noise model that results in the output of a logical randomized benchmarking protocol oscillating rather than decaying exponentially. To illustrate our idea, we first construct an example in standard randomized benchmarking where we assume the existence of ``hidden'' qubits, permitting a choice of representation of the Clifford group that contains multiplicities. We use the multiplicities to, with each gate application, update a hidden memory of the gate history that we use to circumvent theorems which guarantee the output decays exponentially. In our focal setting of logical randomized benchmarking, we show that the presence of machinery associated with the implementation of quantum error correction can facilitate non-exponential decay. Since, in logical randomized benchmarking, the role of the hidden qubits is assigned to the syndrome qubits used in error correction and these are strongly coupled to the logical qubits via a decoder.Comment: 8 pages + 3 pages of appendices, 7 figure

    Improved quantum error correction with randomized compiling

    Full text link
    Current hardware for quantum computing suffers from high levels of noise, and so to achieve practical fault-tolerant quantum computing will require powerful and efficient methods to correct for errors in quantum circuits. Here, we explore the role and effectiveness of using noise tailoring techniques to improve the performance of error correcting codes. Noise tailoring methods such as randomized compiling (RC) convert complex coherent noise processes to effective stochastic noise. While it is known that this can be leveraged to design efficient diagnostic tools, we explore its impact on the performance of error correcting codes. Of particular interest is the important class of coherent errors, arising from control errors, where RC has the maximum effect -- converting these into purely stochastic errors. For these errors, we show here that RC delivers an improvement in performance of the concatenated Steane code by several orders of magnitude. We also show that below a threshold rotation angle, the gains in logical fidelity can be arbitrarily magnified by increasing the size of the codes. These results suggest that using randomized compiling can lead to a significant reduction in the resource overhead required to achieve fault tolerance.Comment: 7 pages + 8 page appendix, 8 figure

    Efficient diagnostics for quantum error correction

    Full text link
    Fault-tolerant quantum computing will require accurate estimates of the resource overhead, but standard metrics such as gate fidelity and diamond distance have been shown to be poor predictors of logical performance. We present a scalable experimental approach based on Pauli error reconstruction to predict the performance of concatenated codes. Numerical evidence demonstrates that our method significantly outperforms predictions based on standard error metrics for various error models, even with limited data. We illustrate how this method assists in the selection of error correction schemes.Comment: 5 pages + 11 page appendix, 6 figure

    Potato spindle tuber viroid infection triggers degradation of chloride channel protein CLC-b-like and Ribosomal protein S3a-like mRNAs in tomato plants

    Get PDF
    Abstract : It is well established that viroid derived small RNA (vd-sRNA) induces RNA silencing of endogenous mRNA. However, it remains not clear how exactly viroid infections can lead to severe symptom induction given the fact that fewer vd-sRNAs binding the specific target mRNAs were recovered from the infected plants. To answer this question, the two least expressed (+) and (−) strand vd-sRNAs of potato spindle tuber viroid (PSTVd) binding to both the 3′ UTR and the coding region of tomato mRNAs were analyzed by infecting tomato plants with two variants of PSTVd. As products of these putative target mRNAs are involved in plant phenotype, the effect of this viroid on these genes were analyzed by infecting tomato plants with two variants of PSTVd. The direct interaction between the vd-sRNAs and putative mRNAs was validated by artificial microRNA experiments in a transient expression system and by RNA ligase-mediated rapid amplification of cDNA ends. Parallel analysis of RNA ends of viroid infected plants revealed the widespread cleavage of the target mRNAs in locations other than the vd-sRNA binding site during the viroid infection implying the viroid-infection induced vd-sRNA independent degradation of endogenous mRNAs during viroid infection
    corecore