79 research outputs found

    Qualitative localization using vision and odometry for path following in topo-metric maps

    Get PDF
    International audienceWe address the problem of navigation in topo- metric maps created by using odometry data and visual loop- closure detection. Based on our previous work [6], we present an optimized version of our loop-closure detection algorithm that makes it possible to create consistent topo-metric maps in real-time while the robot is teleoperated. Using such a map, the proposed navigation algorithm performs qualitative localization using the same loop-closure detection framework and the odometry data. This qualitative position is used to support robot guidance to follow a predicted path in the topo-metric map compensating the odometry drift. Compared to purely visual servoing approaches for similar tasks, our path-following algorithm is real-time, light (not more than two images per seconds are processed), and robust as odometry is still available to navigate even if vision information is absent for a short time. The approach has been validated experimentally with a Pioneer P3DX robot in indoor environments with embedded and remote computations

    Automatic Underwater Image Denoising

    Get PDF
    A novel pre-processing filter is proposed for underwater image restoration. Because of specific transmission properties of light in the water, underwater image suffers from limited range,non uniform lighting, low contrast, color diminished, important blur… Today pre-processing methods typically only concentrates on non uniform lighting or color correction and often require additional knowledge of the environment. The algorithm proposed in this paper is an automatic algorithm to pre-process underwater images. It reduces underwater perturbations, and improves image quality. It is composed of several successive independent processing steps which correct non uniform illumination, suppress noise, enhance contrast and adjust colors. Performances of filtering will be assessed using an edge detection robustness criterion.L'obstacle majeur dans le traitement des images sous-marines résulte des phénomènes d'absorption et de diffusion dus aux propriétés optiques particulières de la lumière dans l'eau. Ces deux phénomènes auxquels s'ajoute le problème de turbidité, impose de travailler sur des images très bruitées, avec souvent, une illumination non uniforme, des contrastes faibles, des couleurs atténuées… Cet article présente une nouvelle méthode automatique de pré-traitement des images sous marines. L'algorithme proposé qui ne nécessite ni paramétrage manuel ni information a priori, permet d'atténuer les défauts précédemment cités et d'améliorer de façon significative la qualité des images. L'éclairage, le bruit, les contrastes puis les couleurs sont corrigés séquentiellement

    Group level MEG/EEG source imaging via optimal transport: minimum Wasserstein estimates

    Get PDF
    International audienceMagnetoencephalography (MEG) and electroencephalogra-phy (EEG) are non-invasive modalities that measure the weak electromagnetic fields generated by neural activity. Inferring the location of the current sources that generated these magnetic fields is an ill-posed inverse problem known as source imaging. When considering a group study, a baseline approach consists in carrying out the estimation of these sources independently for each subject. The ill-posedness of each problem is typically addressed using sparsity promoting regularizations. A straightforward way to define a common pattern for these sources is then to average them. A more advanced alternative relies on a joint localization of sources for all subjects taken together, by enforcing some similarity across all estimated sources. An important advantage of this approach is that it consists in a single estimation in which all measurements are pooled together, making the inverse problem better posed. Such a joint estimation poses however a few challenges, notably the selection of a valid regularizer that can quantify such spatial similarities. We propose in this work a new procedure that can do so while taking into account the geometrical structure of the cortex. We call this procedure Minimum Wasserstein Estimates (MWE). The benefits of this model are twofold. First, joint inference allows to pool together the data of different brain geometries, accumulating more spatial information. Second, MWE are defined through Optimal Transport (OT) metrics which provide a tool to model spatial proximity between cortical sources of different subjects, hence not enforcing identical source location in the group. These benefits allow MWE to be more accurate than standard MEG source localization techniques. To support these claims, we perform source localization on realistic MEG simulations based on forward operators derived from MRI scans. On a visual task dataset, we demonstrate how MWE infer neural patterns similar to functional Magnetic Resonance Imaging (fMRI) maps

    Perspectives in visual imaging for marine biology and ecology: from acquisition to understanding

    Get PDF
    Durden J, Schoening T, Althaus F, et al. Perspectives in Visual Imaging for Marine Biology and Ecology: From Acquisition to Understanding. In: Hughes RN, Hughes DJ, Smith IP, Dale AC, eds. Oceanography and Marine Biology: An Annual Review. 54. Boca Raton: CRC Press; 2016: 1-72

    Estimation de modèle après des alignements arbitraires : application à l'imagerie médicale

    No full text
    An important goal of cognitive neurosciences is to understand the functional organization of the brain. It heavily relies on Functional Magnetic Resonance Imaging (fMRI), a powerful tool to investigate the link between brain function and anatomical structures at a high spatial-resolution. Functional inter-individual variability is a major obstacle limiting functional brain mapping precision and generalizability of results obtained in neuroimaging studies. This variability, observed across subjects performing the same task, goes far beyond anatomical variability in brain shape and size. In this work, we focus on a class of methods designed to address functional variability, namely functional alignment. These methods match subjects neural signals based on their functional similarity.In a first part, we review standard functional brain mapping paradigms and techniques, as well as the challenges induced by functional variability. We additionally review existing functional alignment methods and related work, and discuss the current limitations of these approaches. In a second part, we develop a new functional alignment method, based on optimal transport - a mathematical theory interested in matching probability distributions while taking their geometry into account. Functional alignment methods are local, which means that many local alignments need to be aggregated to compose whole-brain alignments. Moreover, these methods derive pairwise matching and call for a “functional template”, a common functional representation to which all subjects of a study can be aligned. To overcome limitations of existing solutions, we additionally introduce a new aggregation scheme as well as a principled template design procedure. In a third part, we turn to empirical validation of alignment performance. Indeed, these methods are seldom used in applied studies, and it is unclear to what extent they can address functional variability in typical cognitive studies. We investigate their performance to improve generalization of predictive models to new subjects. In this inter-subject decoding set-up, spanning four different datasets, we show that alignment methods hold real potential to recover an important share of prediction accuracy lost due to inter-subject variability.Un objectif important des neurosciences cognitives est de comprendre l’organisation fonctionnelle du cerveau. Pour cela, elles s’appuient sur l’Imagerie par Résonance Magnétique fonctionnelle (IRMf), un outil puissant pour étudier le lien entre les fonctions cérébrales et les structures anatomiques sous-jacentes à une haute résolution spatiale. La variabilité fonctionnelle interindividuelle est un obstacle majeur qui limite la précision de la cartographie fonctionnelle du cerveau et la généralisation des résultats obtenus par les études d’imagerie cérébrale. Cette variabilité importante, observable entre des sujets effectuant la même tâche cognitive, va bien au-delà des variations de taille et de forme des structures anatomiques. Dans cette thèse, nous nous intéresserons à un ensemble de méthodes conçues pour traiter la variabilité fonctionnelle : l’alignement fonctionnel. Ces méthodes mettent en correspondances les signaux cérébraux de différents sujets sur la base de leur similarité fonctionnelle. Dans un premier temps, nous présenterons les concepts et les techniques usuels pour la cartographie fonctionnelle cérébrale, ainsi que les difficultés induites par la variabilité fonctionnelle. Nous passerons également en revue les méthodes d’alignement fonctionnel existantes. Dans une deuxième partie, nous proposerons une nouvelle méthode d’alignement fonctionnel, basée sur le transport optimal - une théorie mathématique qui s’intéresse à la mise en correspondance de distributions de probabilité prenant en compte leur géométrie. Par ailleurs, les méthodes d’alignement fonctionnel sont appliquées localement, et de nombreux alignements locaux doivent être agrégés pour construire des alignements à l’échelle du cerveau entier. De plus, ces mises en correspondances sont définies entre deux sujets et il est nécessaire, pour aligner plusieurs sujets, de recourir à un "modèle fonctionnel de groupe" : une représentation commune sur laquelle tous les sujets peuvent être alignés. Cependant, les solutions proposées dans la littérature présentent de nombreux inconvénients et nous proposerons donc une méthode alternative d’agrégation ainsi qu’un algorithme pour concevoir des modèles de groupe. La troisième partie sera consacrée à une validation expérimentale approfondie de ces méthodes. En effet, l’alignement est rarement utilisé dans des études applicatives et sa capacité à compenser la variabilité fonctionnelle en pratique est peu documentée. Nous évaluerons sa capacité à améliorer la généralisation de modèles prédictifs à de nouveaux sujets. Dans cette configuration - dite de "décodage inter-sujet" - appliquée à quatre jeux de données, nous montrerons que les méthodes d’alignement ont le potentiel de compenser une part importante de la variabilité interindividuelle

    Structural and functional characterization of Bloom’s syndrome protein and analysis of cadmium toxicity on this enzyme

    No full text
    La double hélice d’ADN est une structure stable qui assure à la fois la sauvegarde et la transmission de l’information génétique. Pour accéder à cette information, une vaste famille d’enzymes multifonctionnelles appelées hélicases réalise la séparation des bases complémentaires de l’ADN. Certaines de ces hélicases sont associées chez l’homme à des syndromes de prédisposition au cancer. C’est le cas du syndrome de Bloom (BS), une maladie génétique à transmission récessive qui se traduit par une augmentation de l’instabilité génétique mais où aucun phénomène d’haplo-insuffisance ou de dominance négative n’est constaté chez les porteurs hétérozygotes. On reconnait pourtant que la protéine du syndrome de Bloom (BLM) adopte une structure multimérique in vitro mais sans que l’expression chez certains hétérozygotes d’une enzyme inactive ne soit considérée comme un facteur à risque. Pour expliquer ce paradoxe, nous avons étudié la structure de l’enzyme BLM et constater qu’elle fonctionne sous la forme d’un monomère, un résultat nouveau qui justifie mieux pourquoi ces formes inactives n’influence pas le degré de prédisposition au cancer. D’autre part, la toxicité cadmium est susceptible d’avoir un lien direct avec l’inactivation de l’hélicase BLM car les cellules exposées au cadmium présentent des analogies avec celles des patients atteints du syndrome de Bloom. Effectivement, nous avons observé qu’in vitro, de faibles concentrations de cadmium réduisent les activités de cette hélicase en induisant son oligomérisation. Ces travaux apportent des informations nouvelles sur le mécanisme moléculaire de l’hélicase BLM et soulignent son importance dans le maintien de l’intégrité du génome.The DNA double helix is a stable structure that ensures both the protection and transmission of genetic information. To access this information, a large family of multifunctional enzymes called helicases performs the separation of complementary bases of DNA. Some of these helicases in humans are associated with cancer predisposition syndromes. This is the case of Bloom syndrome (BS), a recessive genetic disease that results in an increase in genetic instability but where no phenomenon of haploinsufficiency or dominant negative is found in carriers heterozygotes. Yet we recognize that the Bloom syndrome protein (BLM) adopts a multimeric structure in vitro, but the expression among some heterozygotes of an inactive enzyme is not considered as a risk factor. To explain this paradox, we studied the structure of the BLM and find that it works as a monomer, a new result which justifies why most inactive forms does not influence the degree of cancer predisposition. On the other hand, cadmium toxicity is potentially linked to the inactivation of the BLM helicase as cells exposed to cadmium present analogies with those of patients with Bloom syndrome. Indeed, we observed in vitro, that low concentrations of cadmium reduce helicase activity by promoting its oligomerization. These studies provide new information on the molecular mechanism of the BLM helicase and emphasize its importance in maintaining genome integrity

    Estimation de modèle après des alignements arbitraires : application à l'imagerie médicale

    No full text
    An important goal of cognitive neurosciences is to understand the functional organization of the brain. It heavily relies on Functional Magnetic Resonance Imaging (fMRI), a powerful tool to investigate the link between brain function and anatomical structures at a high spatial-resolution. Functional inter-individual variability is a major obstacle limiting functional brain mapping precision and generalizability of results obtained in neuroimaging studies. This variability, observed across subjects performing the same task, goes far beyond anatomical variability in brain shape and size. In this work, we focus on a class of methods designed to address functional variability, namely functional alignment. These methods match subjects neural signals based on their functional similarity.In a first part, we review standard functional brain mapping paradigms and techniques, as well as the challenges induced by functional variability. We additionally review existing functional alignment methods and related work, and discuss the current limitations of these approaches. In a second part, we develop a new functional alignment method, based on optimal transport - a mathematical theory interested in matching probability distributions while taking their geometry into account. Functional alignment methods are local, which means that many local alignments need to be aggregated to compose whole-brain alignments. Moreover, these methods derive pairwise matching and call for a “functional template”, a common functional representation to which all subjects of a study can be aligned. To overcome limitations of existing solutions, we additionally introduce a new aggregation scheme as well as a principled template design procedure. In a third part, we turn to empirical validation of alignment performance. Indeed, these methods are seldom used in applied studies, and it is unclear to what extent they can address functional variability in typical cognitive studies. We investigate their performance to improve generalization of predictive models to new subjects. In this inter-subject decoding set-up, spanning four different datasets, we show that alignment methods hold real potential to recover an important share of prediction accuracy lost due to inter-subject variability.Un objectif important des neurosciences cognitives est de comprendre l’organisation fonctionnelle du cerveau. Pour cela, elles s’appuient sur l’Imagerie par Résonance Magnétique fonctionnelle (IRMf), un outil puissant pour étudier le lien entre les fonctions cérébrales et les structures anatomiques sous-jacentes à une haute résolution spatiale. La variabilité fonctionnelle interindividuelle est un obstacle majeur qui limite la précision de la cartographie fonctionnelle du cerveau et la généralisation des résultats obtenus par les études d’imagerie cérébrale. Cette variabilité importante, observable entre des sujets effectuant la même tâche cognitive, va bien au-delà des variations de taille et de forme des structures anatomiques. Dans cette thèse, nous nous intéresserons à un ensemble de méthodes conçues pour traiter la variabilité fonctionnelle : l’alignement fonctionnel. Ces méthodes mettent en correspondances les signaux cérébraux de différents sujets sur la base de leur similarité fonctionnelle. Dans un premier temps, nous présenterons les concepts et les techniques usuels pour la cartographie fonctionnelle cérébrale, ainsi que les difficultés induites par la variabilité fonctionnelle. Nous passerons également en revue les méthodes d’alignement fonctionnel existantes. Dans une deuxième partie, nous proposerons une nouvelle méthode d’alignement fonctionnel, basée sur le transport optimal - une théorie mathématique qui s’intéresse à la mise en correspondance de distributions de probabilité prenant en compte leur géométrie. Par ailleurs, les méthodes d’alignement fonctionnel sont appliquées localement, et de nombreux alignements locaux doivent être agrégés pour construire des alignements à l’échelle du cerveau entier. De plus, ces mises en correspondances sont définies entre deux sujets et il est nécessaire, pour aligner plusieurs sujets, de recourir à un "modèle fonctionnel de groupe" : une représentation commune sur laquelle tous les sujets peuvent être alignés. Cependant, les solutions proposées dans la littérature présentent de nombreux inconvénients et nous proposerons donc une méthode alternative d’agrégation ainsi qu’un algorithme pour concevoir des modèles de groupe. La troisième partie sera consacrée à une validation expérimentale approfondie de ces méthodes. En effet, l’alignement est rarement utilisé dans des études applicatives et sa capacité à compenser la variabilité fonctionnelle en pratique est peu documentée. Nous évaluerons sa capacité à améliorer la généralisation de modèles prédictifs à de nouveaux sujets. Dans cette configuration - dite de "décodage inter-sujet" - appliquée à quatre jeux de données, nous montrerons que les méthodes d’alignement ont le potentiel de compenser une part importante de la variabilité interindividuelle

    Combining Odometry and Visual Loop-Closure Detection for Consistent Topo-Metrical Mapping

    Get PDF
    Abstract—We address the problem of simultaneous localization and mapping (SLAM) by combining visual loop-closure detection with metrical information given by a robot odometry. The proposed algorithm extends a purely appearance-based loopclosure detection method based on bags of visual words [1] which is able to detect when the robot has returned back to a previously visited place. An efficient optimization algorithm is used to integrate odometry information in this method to generate a consistent topo-metrical map. The resulting algorithm which only requires a monocular camera and odometry data and is simple, and robust without requiring any a priori information on the environment. Keywords—SLAM, monocular vision, odometry, mobile robot, topo-metrical map. I

    Incremental topo-metric SLAM using vision and robot odometry

    Get PDF
    Abstract — We address the problem of simultaneous localization and mapping by combining visual loop-closure detection with metrical information given by the robot odometry. The proposed algorithm builds in real-time topo-metric maps of an unknown environment, with a monocular or omnidirectional camera and odometry gathered by motors encoders. A dedicated improved version of our previous work on purely appearance-based loop-closure detection [1] is used to extract potential loop-closure locations. Potential locations are then verified and classified using a new validation stage. The main contributions we bring are the generalization of the validation method for the use of monocular and omnidirectional camera with the removal of the camera calibration stage, the inclusion of an odometry-based evolution model in the Bayesian filter which improves accuracy and responsiveness, and the addition of a consistent metric position estimation. This new SLAM method does not require any calibration or learning stage (i.e. no a priori information about environment). It is therefore fully incremental and generates maps usable for global localization and planned navigation. This algorithm is moreover well suited for remote processing and can be used on toy robots with very small computational power
    • …
    corecore