33 research outputs found

    Statistical modelling of algorithms for signal processing in systems based on environment perception

    Get PDF
    One cornerstone for realising automated driving systems is an appropriate handling of uncertainties in the environment perception and situation interpretation. Uncertainties arise due to noisy sensor measurements or the unknown future evolution of a traffic situation. This work contributes to the understanding of these uncertainties by modelling and propagating them with parametric probability distributions

    InSAR Deformation Analysis with Distributed Scatterers: A Review Complemented by New Advances

    Get PDF
    Interferometric Synthetic Aperture Radar (InSAR) is a powerful remote sensing technique able to measure deformation of the earth’s surface over large areas. InSAR deformation analysis uses two main categories of backscatter: Persistent Scatterers (PS) and Distributed Scatterers (DS). While PS are characterized by a high signal-to-noise ratio and predominantly occur as single pixels, DS possess a medium or low signal-to-noise ratio and can only be exploited if they form homogeneous groups of pixels that are large enough to allow for statistical analysis. Although DS have been used by InSAR since its beginnings for different purposes, new methods developed during the last decade have advanced the field significantly. Preprocessing of DS with spatio-temporal filtering allows today the use of DS in PS algorithms as if they were PS, thereby enlarging spatial coverage and stabilizing algorithms. This review explores the relations between different lines of research and discusses open questions regarding DS preprocessing for deformation analysis. The review is complemented with an experiment that demonstrates that significantly improved results can be achieved for preprocessed DS during parameter estimation if their statistical properties are used

    Méthodes et outils pour la conception optimale d'expériences appliqués à la caractérisation efficace de la résistance bactérienne aux traitements antibiotiques

    Get PDF
    In the last two decades, systems biology has experienced an ever-increasing boom, the momentum of which has also accelerated the rise in popularity of mathematical modeling in biology. Models of increasing complexity are being published daily, but their usability as prediction tools remains limited. Mathematical and computational methods to design the experimental plan beforehand can help to maximize the expected information yield. The theoretical foundations of experimental design go back to the 20th century, but their application to practical use-cases remains a challenge nowadays.During my PhD, I focused on applying optimal experimental design to an enzyme-mediated antibiotic resistance model. To do so, I studied both how to find an experimental plan, and how to assess in silico its quality to validate our design procedure.In this thesis, I present my study of potential methods to design optimal experimental plans in the face of non-identifiability. This study is supported by a shift in paradigm, from trying to identify parameter values, to trying to identify models solely for their prediction power. To demonstrate the practical usability of my approach, I propose a pipeline to validate the quality of the designs, supported by several software developments. In iterative design strategies, I studied the effect of a priori information on the superiority of this optimal experimental design approach compared to expert's designs.Au cours des deux dernières décennies, la biologie des systèmes a connu un essor sans précédent, contribuant à asseoir le rôle prépondérant de la modélisation mathématique en biologie. Des modèles d'une complexité croissante sont ainsi publiés quotidiennement, mais leur utilité en tant qu'outils de prédiction reste limitée. L'utilisation de méthodes mathématiques et informatiques pour concevoir un plan expérimental en amont peut cependant aider à maximiser le rendement d'information espéré. Les fondements théoriques de cette conception assistée de plans expérimentaux remontent au vingtième siècle, mais leur application à des cas d'utilisation concrets demeure un défi.Au cours de mon doctorat, je me suis concentré sur l'élaboration d'un plan optimal d'expériences pour un modèle de résistance bactérienne aux traitements antibiotiques. Pour ce faire, j'ai étudié à la fois comment construire ce plan expérimental, mais aussi comment évaluer in silico sa qualité afin de valider notre procédure de conception.Dans cette thèse, je présente ainsi mon étude des méthodes de conception de plans expérimentaux optimaux en dépit de non-identifiabilités. Cette étude s'appuie sur un changement de paradigme, passant d'une tentative d'identification des valeurs des paramètres, à une tentative d'identification des modèles uniquement pour leur pouvoir de prédiction. Pour démontrer la praticité de mon approche, je propose un pipeline pour valider la qualité des plans expérimentaux, ainsi que plusieurs développements logiciels qui furent nécessaire à son développement. Par ailleurs, concernant les stratégies de conception itérative, j'ai étudié l'effet de l'information a priori sur la supériorité de cette approche de conception expérimentale optimale par rapport aux conceptions d'experts

    Intrinsic Cramér–Rao bounds for scatter and shape matrices estimation in CES distributions

    No full text
    International audienceScatter matrix and its normalized counterpart, referred to as shape matrix, are key parameters in multivariate statistical signal processing, as they generalize the concept of covariance matrix in the widely used Complex Elliptically Symmetric distributions. Following the framework of [1], intrinsic Cramér-Rao bounds are derived for the problem of scatter and shape matrices estimation with samples following a Complex Elliptically Symmetric distribution. The Fisher Information Metric and its associated Riemannian distance (namely, CES-Fisher) on the manifold of Hermitian positive definite matrices are derived. Based on these results, intrinsic Cramér-Rao bounds on the considered problems are then expressed for three different distances (Euclidean, natural Riemannian, and CES-Fisher). These contributions are therefore a generalization of Theorems 4 and 5 of [1] to a wider class of distributions and metrics for both scatter and shape matrices

    Algorithmes d’Estimation et de Détection en Contexte Hétérogène Rang Faible

    Get PDF
    One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data.Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité.Dans la plupart des cas pratiques, comme par exemple pour les traitements adaptatifs RADAR, il fautestimer dans un premier temps les propriétés statistiques du bruit, plus précisément sa matrice de covariance.Dans ce contexte, on formule généralement l’hypothèse de bruit gaussien. Il est toutefois connuque le bruit en RADAR est de nature impulsive et que l’hypothèse gaussienne est parfois mal adaptée.C’est pourquoi, depuis quelques années, le bruit, et en particulier le fouillis de sol, est modélisé pardes processus couvrant un panel plus large de distributions, notamment les Spherically Invariant RandomVectors (SIRVs). Dans ce nouveau cadre théorique, la Sample Covariance Matrix (SCM) estimantclassiquement la matrice de covariance du bruit entraîne des pertes de performances importantes desdétecteurs/estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs (e.g. les M-estimateurs),mieux adaptés à ces statistiques de bruits impulsifs, ont été développés.Parallèlement, il est connu que le bruit RADAR se décompose sous la forme d’une somme d’unfouillis de rang faible (la réponse de l’environnement) et d’un bruit blanc (le bruit thermique). La matricede covariance totale du bruit a donc une structure de type rang faible plus identité. Cette informationpeut être utilisée dans le processus d’estimation afin de réduire le nombre de données nécessaires. Deplus, il aussi est possible de construire des traitements adaptatifs basés sur un estimateur du projecteurorthogonal au sous espace fouillis, à la place d’un estimateur de la matrice de covariance. Les traitementsadaptatifs basés sur cette approximation nécessitent aussi moins de données secondaires pour atteindredes performances satisfaisantes. On estime classiquement ce projecteur à partir de la décomposition envaleurs singulières d’un estimateur de la matrice de covariance.Néanmoins l’état de l’art ne présente pas d’estimateurs à la fois robustes aux distributions impulsives,et rendant compte de la structure rang faible des données. C’est pourquoi nos travaux se focalisentsur le développement de nouveaux estimateurs (de covariance et de sous espace fouillis) directementadaptés au contexte considéré. Les contributions de cette thèse s’orientent donc autour de trois axes :- Nous présenterons le modèle de sources impulsives ayant une matrice de covariance de rang faiblenoyées dans un bruit blanc gaussien. Ce modèle, fortement justifié dans de nombreuses applications, acependant peu été étudié pour la problématique d’estimation de matrice de covariance. Le maximum devraisemblance de la matrice de covariance pour ce contexte n’ayant pas une forme analytique directe,nous développerons différents algorithmes pour l’atteindre efficacement- Nous développerons de plus nouveaux estimateurs directs de projecteur sur le sous espace fouillis, nenécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés sur une application de Space Time AdaptativeProcessing (STAP) pour radar aéroporté, au travers de simulations et de données réelles

    Reconstruction d'images en tomographie d'émission par positrons avec temps de vol ultra-précis

    Get PDF
    La tomographie d'émission par positrons (TEP) est une modalité de l'imagerie médicale qui permet de caractériser des processus biologiques in vivo dans un sujet. Depuis l'introduction de cette modalité, la formation de l'image TEP a toujours reposé sur des méthodes inverses. Ces méthodes sont nécessaires puisque la résolution temporelle des détecteurs TEP est insuffisante pour permettre la formation directe de l'image d'intérêt. Or, même sans avoir une telle résolution temporelle, l'introduction de cette information, dénommée temps de vol (TDV), dans le processus de reconstruction engendre une multitude de bénéfices qui améliorent la qualité des images reconstruites. L'importance de ces bénéfices étant corrélée à la résolution TDV de la caméra TEP, il n'est pas étonnant que le développement de détecteurs TEP rapides soit une branche active de recherche. Dans la dernière décennie, plusieurs percées en instrumentation ont permis d'améliorer significativement la résolution TDV des caméras TEP, au plus grand bénéfice de la qualité des images TEP. Ces avancées sont prometteuses au point que l'atteinte d'une résolution ultra-précise en TDV, suffisante pour permettre la formation directe de l'image TEP, n'est qu'une question de temps pour une partie de la communauté scientifique. Cependant, l'écart à couvrir pour atteindre une telle résolution reste important et beaucoup d'efforts sont investis pour l'atteindre. Cette thèse étudie donc le problème de reconstruction des images TEP dans le contexte de résolution ultra-précise en TDV. Les objectifs de cette étude sont d'établir une meilleure compréhension des bénéfices possibles dans la perspective qu'une telle résolution pourra être atteinte et de déterminer si un nouveau modèle de reconstruction de l'image TEP pourrait être développé pour mieux exploiter la résolution ultra-précise en TDV. Une telle résolution TDV n'est pas pour l'instant disponible, alors cette étude se base sur des données simulées pour atteindre ces objectifs. Cette étude du cas extrême où la résolution TDV serait ultra-précise a permis de mettre en lumière les conditions nécessaires pour l'atteindre, mais aussi les bénéfices qu'elle conférerait à l'imagerie TEP. Dans un premier temps, l'importance de la correction de la profondeur d'interaction dans les détecteurs TEP a été mise en évidence par l'introduction d'un nouveau modèle pour caractériser le processus statistique du TDV. Ensuite, l'effet bénéfique du TDV sur la limite de la résolution spatiale qu'une caméra TEP peut atteindre a été démontré. Pour finir, un nouveau modèle de reconstruction d'images TEP est présenté comme une solution potentielle pour s'attaquer au problème de reconstruction d'images TEP lorsqu'il y a peu de données. Ce modèle repose sur la résolution ultra-précise en TDV pour exploiter une paramétrisation avec plus de degrés de liberté que l'approche standard. Ainsi, les résultats présentés dans cette thèse indiquent que le changement de paradigme induit par l'accès à une résolution ultra-précise en TDV dans le processus de reconstruction ouvre la voie à des innovations qui pourraient bonifier significativement l'imagerie TEP

    Optimal uncertainty quantification of a risk measurement from a computer code

    Get PDF
    La quantification des incertitudes lors d'une étude de sûreté peut être réalisée en modélisant les paramètres d'entrée du système physique par des variables aléatoires. Afin de propager les incertitudes affectant les entrées, un modèle de simulation numérique reproduisant la physique du système est exécuté avec différentes combinaisons des paramètres d'entrée, générées suivant leur loi de probabilité jointe. Il est alors possible d'étudier la variabilité de la sortie du code, ou d'estimer certaines quantités d'intérêt spécifiques. Le code étant considéré comme une boîte noire déterministe, la quantité d'intérêt dépend uniquement du choix de la loi de probabilité des entrées. Toutefois, cette distribution de probabilité est elle-même incertaine. En général, elle est choisie grâce aux avis d'experts, qui sont subjectifs et parfois contradictoires, mais aussi grâce à des données expérimentales souvent en nombre insuffisant et entachées d'erreurs. Cette variabilité dans le choix de la distribution se propage jusqu'à la quantité d'intérêt. Cette thèse traite de la prise en compte de cette incertitude dite de deuxième niveau. L'approche proposée, connue sous le nom d'Optimal Uncertainty Quantification (OUQ) consiste à évaluer des bornes sur la quantité d'intérêt. De ce fait on ne considère plus une distribution fixée, mais un ensemble de mesures de probabilité sous contraintes de moments sur lequel la quantité d'intérêt est optimisée. Après avoir exposé des résultats théoriques visant à réduire l'optimisation de la quantité d'intérêt aux point extrémaux de l'espace de mesures de probabilité, nous présentons différentes quantités d'intérêt vérifiant les hypothèses du problème. Cette thèse illustre l'ensemble de la méthodologie sur plusieurs cas d'applications, l'un d'eux étant un cas réel étudiant l'évolution de la température de gaine du combustible nucléaire en cas de perte du réfrigérant.Uncertainty quantification in a safety analysis study can be conducted by considering the uncertain inputs of a physical system as a vector of random variables. The most widespread approach consists in running a computer model reproducing the physical phenomenon with different combinations of inputs in accordance with their probability distribution. Then, one can study the related uncertainty on the output or estimate a specific quantity of interest (QoI). Because the computer model is assumed to be a deterministic black-box function, the QoI only depends on the choice of the input probability measure. It is formally represented as a scalar function defined on a measure space. We propose to gain robustness on the quantification of this QoI. Indeed, the probability distributions characterizing the uncertain input may themselves be uncertain. For instance, contradictory expert opinion may make it difficult to select a single probability distribution, and the lack of information in the input variables affects inevitably the choice of the distribution. As the uncertainty on the input distributions propagates to the QoI, an important consequence is that different choices of input distributions will lead to different values of the QoI. The purpose of this thesis is to account for this second level uncertainty. We propose to evaluate the maximum of the QoI over a space of probability measures, in an approach known as optimal uncertainty quantification (OUQ). Therefore, we do not specify a single precise input distribution, but rather a set of admissible probability measures defined through moment constraints. The QoI is then optimized over this measure space. After exposing theoretical results showing that the optimization domain of the QoI can be reduced to the extreme points of the measure space, we present several interesting quantities of interest satisfying the assumption of the problem. This thesis illustrates the methodology in several application cases, one of them being a real nuclear engineering case that study the evolution of the peak cladding temperature of fuel rods in case of an intermediate break loss of coolant accident

    Interaction-based nonlinear quantum metrology with a cold atomic ensemble

    Get PDF
    In this manuscript we present an experimental and theoretical investigation of quantum-noise-limited measurement by nonlinear interferometry, or from another perspective, quantum-noise-limited interaction-based measurement. The experimental work is performed using a polarization-based quantum interface between propagating light pulses and cold rubidium-87 atoms trapped in an optical dipole trap. We first review the theory of quantum metrology and estimation theory, and we describe theoretical proposals for nonlinear quantum metrology as developed by the group of Carlton M. Caves in the University of New Mexico. We then describe our proposal, made in 2010, to implement the Caves group's ideas using nonlinear optical interactions in a cold atomic ensemble to implement a nonlinear spin measurement. To evaluate this proposal we develop two theoretical approaches, first an extension of the collective quantum variables approach, often employed to describe quantum interfaces and atomic spin ensembles, to nonlinear optical processes. This results in an effective Hamiltonian containing nonlinear terms of the form described by the Caves group, and demonstrates a qualitative equivalence of the two schemes. The second approach uses the Maxwell-Bloch equations to describe nonlinear propagation of pulses through an atomic spin ensemble, including inhomogeneities and relaxation effects. This latter method makes quantitative predictions about optical rotation signals under realistic experimental conditions. We then describe the implementation of the proposal in a polarization-based light-atom quantum interface. We describe the existing trapping and probing system, focusing on the characteristics that make it suitable for shot-noise-limited and projection-noise-limited atomic spin measurements. We then describe adaptations to use the apparatus with shorter, higher-intensity pulses as required for nonlinear measurement, as well as characterization of the photodetection system under these modified conditions. Calibration of the nonlinear polarization rotation versus probe laser detuning allows us to produce a nearly pure nonlinear rotation signal. Finally, experimental results are presented showing shot-noise-limited nonlinear rotation signals over three orders of magnitude in photon number N. The results are consistent with our theoretical models and confirm a major prediction of the Caves group's work, in that a two-photon interaction gives a scaling for the measurement sensitivity as N^{-3/2}. A brief discussion relates this experimental observation to theoretical discussions of the ¿Heiseinberg limit¿ of quantum metrology, and possible further applications of nonlinear measurement techniques.En aquest manuscrit presentem una recerca experimental i teòrica sobre mesures limitades pel soroll quàntic fetes mitjançant interferometria no lineal, o des de un altra perspectiva, mitjançant interacció. En el treball experimental es va fer servir una interfície quàntica de polarització entre polsos de llum en propagació i àtoms freds de rubidi-87 atrapats en una trampa òptica de dipol. Primer, farem un repàs de la teoria de la metrologia quàntica i de la teoria de la estimació, descriurem la proposició teòrica sobre metrologia quàntica no lineal tal i com la va desenvolupar el grup de Carlton M. Caves al Universitat de Nou Mèxic. A continuació descriurem la nostra proposta, feta al 2010, de com implantar la idea del grup de Caves fent servir interaccions òptiques no lineals en un conjunt d’àtoms freds amb la finalitat d’efectuar una mesura no lineal de spin. Per avaluar aquesta proposta vam desenvolupar dues aproximacions teòriques fent ús de dos mètodes diferents. En primer lloc vam estendre la tècnica de variables quàntiques col lectives cap als processos òptics no lineals, aquesta tècnica sovint és utilitzada per descriure interfícies quàntiques i conjunts de spin atòmics. Això dóna com a resultat un Hamiltonià efectiu que conté termes no lineals de la forma descrita pel grup de Caves, i demostra una equivalència qualitativa entre el nostre esquema i el seu. El segon mètode fa ús de les equacions de Maxwell-Bloch per descriure la propagació no lineal dels polsos a través del conjunt de spins atòmics, tenint en compte deshomogeneïtats i efectes de relaxació. D’aquesta manera podem fer prediccions quantitatives sobre senyals de rotació de polarització òptica en les condicions d’un experiment real. Seguirem amb la descripció de com vam implementar al laboratori la nostra proposta teòrica mitjançant una interfície quàntica de polarització entre llum i àtoms. Descriurem el ja existent sistema de confinament i sondeig dels àtoms, concentrant-nos en les característiques que permeten fer mesures al limit del soroll quàntic i del soroll de projecció. Aleshores detallarem com vam adaptar el sistema per l’ús amb polsos més curts i intensos, tal i com requereix la mesura no lineal, i al mateix temps com vam calibrar el sistema de detecció de llum en aquestes diferents condicions. El calibratge de la rotació no lineal de polarització en funció de la freqüència del làser de sonda, ens permet obtenir un senyal de rotació casi purament no lineal. Finalment, presentarem els resultats experimentals que mostren senyals de rotació no lineal limitats pel soroll quàntic al llarg de tres ordres de magnitud en el número N de fotons. Tals resultats son consistents amb els nostres models teòrics i confirmen una important predicció del treball del grup de Caves, és a dir que la interacció de dos fotons dóna una llei d’escala de N-3/2 per a la sensibilitat de la mesura. Per concloure, una concisa discussió relaciona aquesta observació experimental amb discussions teòriques sobre el “limit d’Heisenberg” de la metrologia quàntica, i amb d’altres possibles aplicacions de tècniques de mesura no linea

    Estimation efficace des paramètres de signaux d'usagers radio-mobile par traitement avec antenne-réseau

    Get PDF
    Cette thèse aborde le problème d’estimation des paramètres de signaux d’usagers radio-mobile par traitement avec antenne-réseau. On adopte une approche de traitement théorique rigoureuse au problème en tentant de pallier aux limitations et désavantages des méthodes d’estimation existantes en ce domaine. Les chapitres principaux ont été rédigés en couvrant uniquement les aspects théoriques en lien aux contributions principales, tout en présentant une revue de littérature adéquate sur les sujets concernés. La thèse présente essentiellement trois volets distincts en lien à chacune des contributions en question. Suite à une revue des notions de base, on montre d’abord comment une méthode d’estimation exploitant des statistiques d’ordre supérieur a pu être développée à partir de l’amélioration d’un algorithme existant en ce domaine. On présente ensuite le cheminement qui a conduit à l’élaboration d’une technique d’estimation non linéaire exploitant les propriétés statistiques spécifiques des enveloppes complexes reçues, et ne possédant pas les limitations des algorithmes du second et quatrième ordre. Finalement, on présente le développement relatif à un algorithme d’estimation exploitant le caractère cyclostationnaire intrinsèque des signaux de communication dans un environnement asynchrone naturel. On montre comment un tel algorithme parvient à estimer la matrice de canal des signaux incidents indépendamment du caractère de corrélation spatiotemporel du bruit, et permettant de ce fait même une pleine exploitation du degré de liberté du réseau. La procédure d’estimation consiste en la résolution d’un problème de diagonalisation conjointe impliquant des matrices cibles issues d’une opération différentielle entre des matrices d’autocorrélation obtenues uniquement à partir de statistiques d’ordre deux. Pour chacune des contributions, des résultats de simulations sont présentés afin de confirmer l’efficacité des méthodes proposées.This thesis addresses the problem of parameter estimation of radio signals from mobile users using an antenna array. A rigorous theoretical approach to the problem is adopted in an attempt to overcome the limitations and disadvantages of existing estimation methods in this field. The main chapters have been written covering only the theoretical aspects related to the main contributions of the thesis, while at the same time providing an appropriate literature review on the considered topics. The thesis is divided into three main parts related to the aforesaid contributions. Following a review of the basics concepts in antenna array processing techniques for signal parameter estimation, we first present an improved version of an existing estimation algorithm expoiting higher-order statistics of the received signals. Subsequently, we show how a nonlinear estimation technique exploiting the specific statistical distributions of the received complex envelopes at the array can be developed in order to overcome the limitations of second and fourth-order algorithms. Finally, we present the development of an estimation algorithm exploiting the cyclostationary nature of communication signals in a natural asynchronous environment. We show how such an algorithm is able to estimate the channel matrix of the received signals independently of the spatial or temporal correlation structure of the noise, thereby enabling a full exploitation of the array’s degree of freedom. The estimation process is carried out by solving a joint diagonalization problem involving target matrices computed by a differential operation between autocorrelation matrices obtained by the sole use of second-order statistics. Various simulation experiments are presented for each contribution as a means of supporting and evidencing the effectiveness of the proposed methods
    corecore