5 research outputs found

    Inférence topologique

    Full text link
    Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.Data coming from a fine sampling of a continuous process (random field) can be represented as images. A statistical test aiming at detecting a difference between two images can be seen as a group of tests in which each pixel is compared to the corresponding pixel in the other image. We then use a method to control the type I error over all the tests, such as the Bonferroni correction or the control of the false discovery rate (FDR). Methods of data analysis have been developped in the field of medical imaging, mainly by Keith Worsley, using the geometry of random fields in order to build a global statistical test over the whole image. The expected Euler characteristic of the excursion set of the random field underlying the sample over a given threshold is used in order to determine the probability that the random field exceeds this same threshold under the null hypothesis (topological inference). We present some notions relevant to random fields, in particular isotropy (the covariance function between two given points of a field depends only on the distance between them). We discuss two methods for the analysis of non\-isotropic random fields. The first one consists in deforming the field and then using the intrinsic volumes and the Euler characteristic densities. The second one uses the Lipschitz-Killing curvatures. We then perform a study of sensitivity and power of the topological inference technique comparing it to the Bonferonni correction. Finally, we use topological inference in order to describe the evolution of climate change over Quebec territory between 1991 and 2100 using temperature data simulated and published by the Climate Simulation Team at Ouranos, with the Canadian Regional Climate Model CRCM4.2

    A Statistical Approach to Topological Data Analysis

    Get PDF
    Until very recently, topological data analysis and topological inference methods mostlyrelied on deterministic approaches. The major part of this habilitation thesis presents astatistical approach to such topological methods. We first develop model selection toolsfor selecting simplicial complexes in a given filtration. Next, we study the estimationof persistent homology on metric spaces. We also study a robust version of topologicaldata analysis. Related to this last topic, we also investigate the problem of Wassersteindeconvolution. The second part of the habilitation thesis gathers our contributions inother fields of statistics, including a model selection method for Gaussian mixtures, animplementation of the slope heuristic for calibrating penalties, and a study of Breiman’spermutation importance measure in the context of random forests

    Inférence topologique à partir de mesures

    Get PDF
    Massive amounts of data are now available for study. Asking questions that are both relevant and possible to answer is a difficult task. One can look for something different than the answer to a precise question. Topological data analysis looks for structure in point cloud data, which can be informative by itself but can also provide directions for further questioning. A common challenge faced in this area is the choice of the right scale at which to process the data.One widely used tool in this domain is persistent homology. By processing the data at all scales, it does not rely on a particular choice of scale. Moreover, its stability properties provide a natural way to go from discrete data to an underlying continuous structure. Finally, it can be combined with other tools, like the distance to a measure, which allows to handle noise that are unbounded. The main caveat of this approach is its high complexity.In this thesis, we will introduce topological data analysis and persistent homology, then show how to use approximation to reduce the computational complexity. We provide an approximation scheme to the distance to a measure and a sparsifying method of weighted Vietoris-Rips complexes in order to approximate persistence diagrams with practical complexity. We detail the specific properties of these constructions.Persistent homology was previously shown to be of use for scalar field analysis. We provide a way to combine it with the distance to a measure in order to handle a wider class of noise, especially data with unbounded errors. Finally, we discuss interesting opportunities opened by these results to study data where parts are missing or erroneous.La quantité de données disponibles n'a jamais été aussi grande. Se poser les bonnes questions, c'est-à-dire des questions qui soient à la fois pertinentes et dont la réponse est accessible est difficile. L'analyse topologique de données tente de contourner le problème en ne posant pas une question trop précise mais en recherchant une structure sous-jacente aux données. Une telle structure est intéressante en soi mais elle peut également guider le questionnement de l'analyste et le diriger vers des questions pertinentes. Un des outils les plus utilisés dans ce domaine est l'homologie persistante. Analysant les données à toutes les échelles simultanément, la persistance permet d'éviter le choix d'une échelle particulière. De plus, ses propriétés de stabilité fournissent une manière naturelle pour passer de données discrètes à des objets continus. Cependant, l'homologie persistante se heurte à deux obstacles. Sa construction se heurte généralement à une trop large taille des structures de données pour le travail en grandes dimensions et sa robustesse ne s'étend pas au bruit aberrant, c'est-à-dire à la présence de points non corrélés avec la structure sous-jacente.Dans cette thèse, je pars de ces deux constatations et m'applique tout d'abord à rendre le calcul de l'homologie persistante robuste au bruit aberrant par l'utilisation de la distance à la mesure. Utilisant une approximation du calcul de l'homologie persistante pour la distance à la mesure, je fournis un algorithme complet permettant d'utiliser l'homologie persistante pour l'analyse topologique de données de petite dimension intrinsèque mais pouvant être plongées dans des espaces de grande dimension. Précédemment, l'homologie persistante a également été utilisée pour analyser des champs scalaires. Ici encore, le problème du bruit aberrant limitait son utilisation et je propose une méthode dérivée de l'utilisation de la distance à la mesure afin d'obtenir une robustesse au bruit aberrant. Cela passe par l'introduction de nouvelles conditions de bruit et l'utilisation d'un nouvel opérateur de régression. Ces deux objets font l'objet d'une étude spécifique. Le travail réalisé au cours de cette thèse permet maintenant d'utiliser l'homologie persistante dans des cas d'applications réelles en grandes dimensions, que ce soit pour l'inférence topologique ou l'analyse de champs scalaires

    Mosaïque d'images cutanées avec inférence topologique et ajustement global

    No full text
    Teledermatology offers several advantages in comparison to the traditional in-place consultations with a dermatologist. It is particularly useful for easing the access to the dermatological care for patients with mobility or travel constraints. A dedicated mosaicing scheme for creating extended panoramas of skin video sequences is proposed to surmount the limitations posed by the small field of view of stationary images acquired by currently used devices. The video sequences used for this purpose are acquired using a specially designed device for a colorimetrically correct rendering of the skin surface. After a study of various image registration approaches, an approach optimally suited to skin image registration with some compromise between registration accuracy and computation time is selected. In addition, an approach for refining the initially detected key-point correspondence is presented. Central focus of this study is on the overall coherent construction of the mosaic. To achieve this objective, a mosaicing scheme capable of generating coherent panoramas from long video sequences is presented. This scheme dynamically estimates the topology of the image trajectory in the panoramic plane to mosaic the images by reducing the number of images over the path used for reaching a given image from a reference image in order to place it on the panoramic plane. A small number of images reduces the accumulated errors, thus improving the visual coherency of the overall mosaic. Besides, the proposed approach offers robustness against failed registrations, which would interrupt the mosaicing process in the absence of the alternative paths. Moreover, a global adjustment scheme for further improving the coherency of the mosaic is presentedLa télédermatologie présente plusieurs avantages par rapport aux consultations traditionnelles en cabinet avec un dermatologue. Elle est particulièrement utile pour faciliter l'accès aux soins dermatologiques pour les patients ayant des problèmes de mobilité ou habitant loin des secteurs géographiques médicalisés. Un schéma de mosaïquage automatique d’images dédié à la création des panoramas étendus des vidéo-séquences de peau est proposé pour surmonter les limitations posées par le champ de vue réduit des images stationnaires acquises par les dispositifs actuellement utilisés. Les vidéo-séquences utilisées à cet effet sont acquises en utilisant un dispositif spécialement conçu pour un rendu colorimétrique contrôlé de la surface de la peau. Après une étude des diverses méthodes de recalage d'images existantes, une approche optimale est proposée, avec un certain compromis entre la précision de recalage et le temps de calcul, pour la superposition des parties communes des images cutanées. En outre, une approche pour affiner la correspondance initiale des points caractéristiques extraits est présentée. L'étude présentée porte principalement sur la construction cohérente d’une mosaïque dans son ensemble. Pour atteindre cet objectif, un schéma de mosaïque capable de générer des panoramas cohérents à partir de vidéo-séquences longues est présenté. Ce schéma estime dynamiquement la topologie de la trajectoire des images dans le plan de mosaïquage. Cela permet de placer les images sur le plan panoramique avec un nombre réduit d'images sur le chemin suivi pour atteindre une image donnée à partir d'une image de référence, ce qui réduit non seulement l'accumulation des erreurs, mais permet également d'éviter les interruptions dans le mosaïquage en excluant les paires d'images dont le recalage ne serait pas réussi. L'approche proposée offre une robustesse vis-à-vis des recalages échoués en trouvant des trajets alternatifs. En outre, un mode d'ajustement global pour améliorer davantage la cohérence de la mosaïque est présent

    Inférence topologique à partir de mesures et de fibrés vectoriels

    Get PDF
    We contribute to the theory of topological inference, based on the theory of persistent homology, by proposing three families of filtrations.For each of them, we prove consistency results---that is, the quality of approximation of an underlying geometric object---, and stability results---that is, robustness against initial measurement errors.We propose concrete algorithms in order to use these methods in practice.The first family, the DTM-filtration, is a robust alternative to the classical Cech filtration when the point cloud is noisy or contains outliers.It is based on the notion of distance to measure, which allows to obtain stability in the sense of the Wasserstein distance.Secondly, we propose the lifted filtrations, which make it possible to estimate the homology of immersed manifolds, even when their reach is zero.We introduce the notion of normal reach, and show that it leads to a quantitative control of the manifold.We study the estimation of tangent spaces by local covariance matrices.Thirdly, we develop a framework for vector bundle filtrations, and define the persistent Stiefel-Whitney classes.We show that the persistent classes associated to the Cech bundle filtrations are Hausdorff-stable and consistent.To allow their algorithmic implementation, we introduce the notion of weak star condition.Nous contribuons à l'inférence topologique, basée sur la théorie de l'homologie persistante, en proposant trois familles de filtrations.Nous établissons pour chacune d'elles des résultats de consistance---c'est-à-dire de qualité d'approximation d'un objet géométrique sous-jacent---, et de stabilité---c'est-à-dire que robustesse face à des erreurs de mesures initiales.Nous proposons des algorithmes concrets afin de pouvoir utiliser ces méthodes en pratique.La première famille, les filtrations-DTM, est une alternative robuste à la classique filtration de Cech lorsque le nuage de points est bruité ou contient des points aberrants.Elle repose sur la notion de distance à la mesure qui permet d'obtenir une stabilité au sens de la distance de Wasserstein.Deuxièmement, nous proposons les filtrations relevées, qui permettent d'estimer l'homologie des variétés immergées, même quand leur portée est nulle.Nous introduisons la notion de portée normale, et montrons qu'elle conduit à un contrôle quantitatif de la variété.Nous étudions l'estimation des espaces tangents par les matrices de covariance locale.En troisième lieu, nous développons un cadre pour les filtrations de fibrés vectoriels, et définissons les classes de Stiefel-Whitney persistantes.Nous montrons que les classes persistantes associées aux filtrations de fibrés de Cech sont consistantes et stables en distance de Hausdorff.Pour permettre leur mise en œuvre algorithmique, nous introduisons la notion de condition étoile faible
    corecore