3 research outputs found

    Vers une architecture électronique unifiée et zéro temps mort pour l'instrumentation nucléaire

    Get PDF
    International audienceDans l'instrumentation nucléaire, et d'autres domaines tels que les applications de la physique des particules, l'analyse de signaux médicaux (Tomographie par Émission de Positons (TEP), Électro-EncéphaloGraphie (EEG)) ou la détection de signaux radar, le signal mesuré est composé d'impulsions dont la date d'arrivée est aléatoire, et dont l'amplitude et la durée sont non déterministes. La grande variété d'applications nécessite de disposer d'une architecture flexible pouvant être aisément reprogrammée. De plus, l'exigence de mesures en temps réel impose de disposer d'une grande capacité de calcul et de bande passante pour la mise en forme et l'extraction des caractéristiques des impulsions. Enfin, ces architectures doivent être capables de passer à l'échelle pour supporter des applications nécessitant parfois un très grand nombre de voies de mesure. Cet article décrit l'approche utilisée pour définir les éléments architecturaux répondant à ces contraintes. Elle est basée sur l'étude de l'état de l'art du domaine de l'instrumentation nucléaire allant des caractéristiques des détecteurs jusqu'à une analyse applicative en passant par l'électronique de traitement numérique. Notre proposition architecturale s'appuie sur le partage de ressources et est basée sur la séparation des impulsions du reste du signal en entrée de chaîne. La capacité de passage à l'échelle du modèle est vérifiée par simulation dont les résultats sont présentés dans cet article

    Probabilistic modeling for single-photon lidar

    Full text link
    Lidar is an increasingly prevalent technology for depth sensing, with applications including scientific measurement and autonomous navigation systems. While conventional systems require hundreds or thousands of photon detections per pixel to form accurate depth and reflectivity images, recent results for single-photon lidar (SPL) systems using single-photon avalanche diode (SPAD) detectors have shown accurate images formed from as little as one photon detection per pixel, even when half of those detections are due to uninformative ambient light. The keys to such photon-efficient image formation are two-fold: (i) a precise model of the probability distribution of photon detection times, and (ii) prior beliefs about the structure of natural scenes. Reducing the number of photons needed for accurate image formation enables faster, farther, and safer acquisition. Still, such photon-efficient systems are often limited to laboratory conditions more favorable than the real-world settings in which they would be deployed. This thesis focuses on expanding the photon detection time models to address challenging imaging scenarios and the effects of non-ideal acquisition equipment. The processing derived from these enhanced models, sometimes modified jointly with the acquisition hardware, surpasses the performance of state-of-the-art photon counting systems. We first address the problem of high levels of ambient light, which causes traditional depth and reflectivity estimators to fail. We achieve robustness to strong ambient light through a rigorously derived window-based censoring method that separates signal and background light detections. Spatial correlations both within and between depth and reflectivity images are encoded in superpixel constructions, which fill in holes caused by the censoring. Accurate depth and reflectivity images can then be formed with an average of 2 signal photons and 50 background photons per pixel, outperforming methods previously demonstrated at a signal-to-background ratio of 1. We next approach the problem of coarse temporal resolution for photon detection time measurements, which limits the precision of depth estimates. To achieve sub-bin depth precision, we propose a subtractively-dithered lidar implementation, which uses changing synchronization delays to shift the time-quantization bin edges. We examine the generic noise model resulting from dithering Gaussian-distributed signals and introduce a generalized Gaussian approximation to the noise distribution and simple order statistics-based depth estimators that take advantage of this model. Additional analysis of the generalized Gaussian approximation yields rules of thumb for determining when and how to apply dither to quantized measurements. We implement a dithered SPL system and propose a modification for non-Gaussian pulse shapes that outperforms the Gaussian assumption in practical experiments. The resulting dithered-lidar architecture could be used to design SPAD array detectors that can form precise depth estimates despite relaxed temporal quantization constraints. Finally, SPAD dead time effects have been considered a major limitation for fast data acquisition in SPL, since a commonly adopted approach for dead time mitigation is to operate in the low-flux regime where dead time effects can be ignored. We show that the empirical distribution of detection times converges to the stationary distribution of a Markov chain and demonstrate improvements in depth estimation and histogram correction using our Markov chain model. An example simulation shows that correctly compensating for dead times in a high-flux measurement can yield a 20-times speed up of data acquisition. The resulting accuracy at high photon flux could enable real-time applications such as autonomous navigation

    Une architecture programmable de traitement des impulsions zéro-temps mort pour l'instrumentation nucléaire

    Get PDF
    In the field of nuclear instrumentation, digital signal processing architectures have to deal with the poissonian characteristic of the signal, composed of random arrival pulses which requires current architectures to work in dataflow. Thus, the real-time needs implies losing pulses when the pulse rate is too high. Current architectures paralyze the acquisition of the signal during the pulse processing inducing a time during no signal can be processed, this is called the dead time. These issue have led current architectures to use dedicated solutions based on reconfigurable components such as FPGAs. The requirement of end users to implement a wide range of applications on a large number of channels leads to propose an easily programmable architecture platform (C, C++). This thesis present presents a digital “pulse-driven” architecture that meets these constraints. This architecture is first composed of pulse extractors. They are capable of dynamically extracting the pulses according to their size for any type of detector that delivering pulses. These pulses are then distributed on a set of programmable and independent Functional Units (FU) which are "pulses driven". These FUs are able to handle the arrival of non-deterministic events and variable program execution times and indeterminate in advance. The virtual prototype of the architecture is developed in cycle accurate SystemC and shows promising results in terms of scalability while maintaining zero dead time. This architecture paves the way for novel real time pulse processing by reducing the gap between embedded real time processing and offline processing.Dans l'instrumentation nucléaire, les architectures de traitement numérique du signal doivent faire face à la nature poissonienne du signal, composée d'impulsions d'arrivées aléatoires qui imposent aux architectures actuelles de travailler en flux de données. En effet, si le débit d'impulsion est trop élevé, les besoins en temps réel impliquent de paralyser l'acquisition du signal durant le traitement d'une impulsion. Durant ce délai, appelé temps mort, des impulsions peuvent être perdues. Cette contrainte conduit les architectures actuelles à utiliser des solutions dédiées à base de FPGA. Les utilisateurs finaux doivent cependant pouvoir mettre en oeuvre un large éventail d'applications sur un nombre de canaux d'acquisition qui varie. Ce besoin en flexibilité conduit à proposer une architecture programmable (C, C ++). Cette thèse présente une architecture numérique « dirigée par les impulsions » qui répond à ces contraintes. En premier lieu, cette architecture se compose d'extracteurs d'impulsions capables d'extraire de façon dynamique les impulsions en fonction de leur taille pour n'importe quel type de détecteur délivrant des impulsions. Ces impulsions sont ensuite distribuées sur des unités fonctionnelles programmables (FU) indépendante. Ces FUs gèrent l'arrivée d'événements aléatoires et des durées d'exécution de programme non-déterministes. Le simulateur de l'architecture est développé en SystemC au cycle d'horloge près. Il montre des résultats prometteurs en termes de passage à l'échelle, tout en maintenant le zéro-temps mort. Cette architecture permet d'embarquer de nouveaux algorithmes de traitement des impulsions traditionnellement utilisés hors ligne
    corecore