64 research outputs found

    Faulty Successive Cancellation Decoding of Polar Codes for the Binary Erasure Channel

    Full text link
    We study faulty successive cancellation decoding of polar codes for the binary erasure channel. To this end, we introduce a simple erasure-based fault model and we show that, under this model, polarization does not happen, meaning that fully reliable communication is not possible at any rate. Moreover, we provide numerical results for the frame erasure rate and bit erasure rate and we study an unequal error protection scheme that can significantly improve the performance of the faulty successive cancellation decoder with negligible overhead.Comment: As presented at ISITA 201

    Faulty Successive Cancellation Decoding of Polar Codes for the Binary Erasure Channel

    Full text link
    In this paper, faulty successive cancellation decoding of polar codes for the binary erasure channel is studied. To this end, a simple erasure-based fault model is introduced to represent errors in the decoder and it is shown that, under this model, polarization does not happen, meaning that fully reliable communication is not possible at any rate. Furthermore, a lower bound on the frame error rate of polar codes under faulty SC decoding is provided, which is then used, along with a well-known upper bound, in order to choose a blocklength that minimizes the erasure probability under faulty decoding. Finally, an unequal error protection scheme that can re-enable asymptotically erasure-free transmission at a small rate loss and by protecting only a constant fraction of the decoder is proposed. The same scheme is also shown to significantly improve the finite-length performance of the faulty successive cancellation decoder by protecting as little as 1.5% of the decoder.Comment: Accepted for publications in the IEEE Transactions on Communication

    Hardware implementation aspects of polar decoders and ultra high-speed LDPC decoders

    Get PDF
    The goal of channel coding is to detect and correct errors that appear during the transmission of information. In the past few decades, channel coding has become an integral part of most communications standards as it improves the energy-efficiency of transceivers manyfold while only requiring a modest investment in terms of the required digital signal processing capabilities. The most commonly used channel codes in modern standards are low-density parity-check (LDPC) codes and Turbo codes, which were the first two types of codes to approach the capacity of several channels while still being practically implementable in hardware. The decoding algorithms for LDPC codes, in particular, are highly parallelizable and suitable for high-throughput applications. A new class of channel codes, called polar codes, was introduced recently. Polar codes have an explicit construction and low-complexity encoding and successive cancellation (SC) decoding algorithms. Moreover, polar codes are provably capacity achieving over a wide range of channels, making them very attractive from a theoretical perspective. Unfortunately, polar codes under standard SC decoding cannot compete with the LDPC and Turbo codes that are used in current standards in terms of their error-correcting performance. For this reason, several improved SC-based decoding algorithms have been introduced. The most prominent SC-based decoding algorithm is the successive cancellation list (SCL) decoding algorithm, which is powerful enough to approach the error-correcting performance of LDPC codes. The original SCL decoding algorithm was described in an arithmetic domain that is not well-suited for hardware implementations and is not clear how an efficient SCL decoder architecture can be implemented. To this end, in this thesis, we re-formulate the SCL decoding algorithm in two distinct arithmetic domains, we describe efficient hardware architectures to implement the resulting SCL decoders, and we compare the decoders with existing LDPC and Turbo decoders in terms of their error-correcting performance and their implementation efficiency. Due to the ongoing technology scaling, the feature sizes of integrated circuits keep shrinking at a remarkable pace. As transistors and memory cells keep shrinking, it becomes increasingly difficult and costly (in terms of both area and power) to ensure that the implemented digital circuits always operate correctly. Thus, manufactured digital signal processing circuits, including channel decoder circuits, may not always operate correctly. Instead of discarding these faulty dies or using costly circuit-level fault mitigation mechanisms, an alternative approach is to try to live with certain malfunctions, provided that the algorithm implemented by the circuit is sufficiently fault-tolerant. In this spirit, in this thesis we examine decoding of polar codes and LDPC codes under the assumption that the memories that are used within the decoders are not fully reliable. We show that, in both cases, there is inherent fault-tolerance and we also propose some methods to reduce the effect of memory faults on the error-correcting performance of the considered decoders

    Polar Codes and LDPC Codes in 5G New Radio

    Get PDF
    Masteroppgave i informatikkINF399MAMN-PROGMAMN-IN

    Algorithms and Data Representations for Emerging Non-Volatile Memories

    Get PDF
    The evolution of data storage technologies has been extraordinary. Hard disk drives that fit in current personal computers have the capacity that requires tons of transistors to achieve in 1970s. Today, we are at the beginning of the era of non-volatile memory (NVM). NVMs provide excellent performance such as random access, high I/O speed, low power consumption, and so on. The storage density of NVMs keeps increasing following Moore’s law. However, higher storage density also brings significant data reliability issues. When chip geometries scale down, memory cells (e.g. transistors) are aligned much closer to each other, and noise in the devices will become no longer negligible. Consequently, data will be more prone to errors and devices will have much shorter longevity. This dissertation focuses on mitigating the reliability and the endurance issues for two major NVMs, namely, NAND flash memory and phase-change memory (PCM). Our main research tools include a set of coding techniques for the communication channels implied by flash memory and PCM. To approach the problems, at bit level we design error correcting codes tailored for the asymmetric errors in flash and PCM, we propose joint coding scheme for endurance and reliability, error scrubbing methods for controlling storage channel quality, and study codes that are inherently resisting to typical errors in flash and PCM; at higher levels, we are interested in analyzing the structures and the meanings of the stored data, and propose methods that pass such metadata to help further improve the coding performance at bit level. The highlights of this dissertation include the first set of write-once memory code constructions which correct a significant number of errors, a practical framework which corrects errors utilizing the redundancies in texts, the first report of the performance of polar codes for flash memories, and the emulation of rank modulation codes in NAND flash chips

    The Telecommunications and Data Acquisition Report

    Get PDF
    Tracking and ground-based navigation; communications, spacecraft-ground; station control and system technology; capabilities for new projects; networks consolidation program; and network sustaining are described

    The 1991 3rd NASA Symposium on VLSI Design

    Get PDF
    Papers from the symposium are presented from the following sessions: (1) featured presentations 1; (2) very large scale integration (VLSI) circuit design; (3) VLSI architecture 1; (4) featured presentations 2; (5) neural networks; (6) VLSI architectures 2; (7) featured presentations 3; (8) verification 1; (9) analog design; (10) verification 2; (11) design innovations 1; (12) asynchronous design; and (13) design innovations 2

    The deep space network, volume 18

    Get PDF
    The objectives, functions, and organization of the Deep Space Network are summarized. The Deep Space Instrumentation Facility, the Ground Communications Facility, and the Network Control System are described

    Space Programs Summary No. 37-51, Volume 2 for the Period March 1 to April 30, 1968. the Deep Space Network

    Get PDF
    Deep Space Network - mission support, advanced engineering, development and implementation, and operations and facilitie

    Caractérisation pratique des systèmes quantiques et mémoires quantiques auto-correctrices 2D

    Get PDF
    Cette thèse s'attaque à deux problèmes majeurs de l'information quantique: - Comment caractériser efficacement un système quantique? - Comment stocker de l'information quantique? Elle se divise done en deux parties distinctes reliées par des éléments techniques communs. Chacune est toutefois d'un intérêt propre et se suffit à elle-même. Caractérisation pratique des systèmes quantiques. Le calcul quantique exige un très grand contrôle des systèmes quantiques composés de plusieurs particules, par exemple des atomes confinés dans un piège électromagnétique ou des électrons dans un dispositif semi-conducteur. Caractériser un tel système quantique consiste à obtenir de l'information sur l'état grâce à des mesures expérimentales. Or, chaque mesure sur le système quantique le perturbe et doit done être effectuée après avoir repréparé le système de façon identique. L'information recherchée est ensuite reconstruite numériquement à partir de l'ensemble des données expérimentales. Les expériences effectuées jusqu'à présent visaient à reconstruire l'état quantique complet du système, en particulier pour démontrer la capacité de préparer des états intriqués, dans lesquels les particules présentent des corrélations non-locales. Or, la procédure de tomographie utilisée actuellement n'est envisageable que pour des systèmes composés d'un petit nombre de particules. Il est donc urgent de trouver des méthodes de caractérisation pour les systèmes de grande taille. Dans cette thèse, nous proposons deux approches théoriques plus ciblées afin de caractériser un système quantique en n'utilisant qu'un effort expérimental et numérique raisonnable. - La première consiste à estimer la distance entre l'état réalisé en laboratoire et l'état cible que l'expérimentateur voulait préparer. Nous présentons un protocole, dit de certification, demandant moins de ressources que la tomographie et très efficace pour plusieurs classes d'états importantes pour l'informatique quantique. - La seconde approche, dite de tomographie variationnelle, propose de reconstruire l'état en restreignant l'espace de recherche à une classe variationnelle plutôt qu'à l'immense espace des états possibles. Un état variationnel étant décrit par un petit nombre de paramètres, un petit nombre d'expériences peut suffire à identifier les paramètres variationnels de l'état expérimental. Nous montrons que c'est le cas pour deux classes variationnelles très utilisées, les états à produits matriciels (MPS) et l'ansatz pour intrication multi-échelle (MERA). Mémoires quantiques auto-correctrices 2D. Une mémoire quantique auto-correctrice est un système physique préservant de l'information quantique durant une durée de temps macroscopique. Il serait done l'équivalent quantique d'un disque dur ou d'une mémoire flash équipant les ordinateurs actuels. Disposer d'un tel dispositif serait d'un grand interêt pour l'informatique quantique. Une mémoire quantique auto-correctrice est initialisée en préparant un état fondamental, c'est-à-dire un état stationnaire de plus basse énergie. Afin de stocker de l'information quantique, il faut plusieurs états fondamentaux distincts, chacun correspondant à une valeur différente de la mémoire. Plus précisément, l'espace fondamental doit être dégénéré. Dans cette thèse, on s'intéresse à des systèmes de particules disposées sur un réseau bidimensionnel (2D), telles les pièces sur un échiquier, qui sont plus faciles à réalisér que les systèmes 3D. Nous identifions deux critères pour l'auto-correction: - La mémoire quantique doit être stable face aux perturbations provenant de l'environnement, par exemple l'application d'un champ magnétique externe. Ceci nous amène à considérer les systèmes topologiques 2D dont les degrés de liberté sont intrinsèquement robustes aux perturbations locales de l'environnement. - La mémoire quantique doit être robuste face à un environnement thermique. Il faut s'assurer que les excitations thermiques n'amènent pas deux états fondamentaux distincts vers le même état excité, sinon l'information aura été perdue. Notre résultat principal montre qu'aucun système topologique 2D n'est auto-correcteur: l'environnement peut changer l'état fondamental en déplaçant aléatoirement de petits paquets d'énergie, un mécanisme cohérent avec l'intuition que tout système topologique admet des excitations localisées ou quasiparticules. L'intérêt de ce résultat est double. D'une part, il oriente la recherche d'un système auto-correcteur en montrant qu'il doit soit (i) être tridimensionnel, ce qui est difficile à réaliser expérimentalement, soit (ii) être basé sur des mécanismes de protection nouveaux, allant au-delà des considérations énergétiques. D'autre part, ce résultat constitue un premier pas vers la démonstration formelle de l'existence de quasiparticules pour tout système topologique
    corecore