Comment déchiffrer le code impulsionnel de la Vision? Étude du flux parallèle, asynchrone et épars dans le traitement visuel ultra-rapide.

Abstract

Le jury était composé de : Prof. Michel Imbert, Université Paul Sabatier, Prof. Jeanny Hérault, INPG, RAPPORTEUR Dr. Yves Burnod, Directeur de recherche INSERM, RAPPORTEUR Dr. Simon Thorpe, Directeur de recherche CNRS, CO-DIRECTEUR Prof. Manuel Samuelides, SUPAERO, DIRECTEURHow to decipher vision's spiking code? Study of the parallel, asynchronous and sparse flow in the ultra-rapid visual processing. We build and study dynamical models of visual coding as a parallel and asynchronous flow of information coded thanks to their succession in time. We will at first base the mechanisms of this code on the biological processes on the scale of the neurone and synapse. In particular, synaptic plasticity may induce the non-supervised extraction of coherent information in the flow of the neuronal impulses. Coding by the latency of the first spike can defines a code in the optic nerve based on multi-scale architecture. We extended these results by using an ecological approach allowing thanks to the \emph(statistics of natural images) the quantization of analog value by the spikes' rank. This visual code is based on a hierarchical feed-forward architecture which is distinguished, in addition to its simplicity, by its mathematical and computational performances. We will meet the needs for an effective model of Vision by defining a theory of \emph(over-complete event representation) of the image. This formalization leads then to a strategy of a \emph(sparse spike code) by defining lateral interactions. Thanks to a reinforcement learning rule, this strategy can then be extended to a model of an \emph(adaptive cortical column) which shows emergence of representation dictionaries. Moreover, this paradigm adapts particularly to the construction of a saliency map. These techniques allow emergence of new tools for image processing and active vision which are particularly adapted to distributed computing architectures.Le cadre de ce travail est l'étude de modèles neuromimétiques de codage parallèle et asynchrone de l'information visuelle ---tel qu'il est mis en évidence dans des taches de traitement ultra-rapide--- en la transformant en une vague d'événements élémentaires d'importance décroissante. Nous allons baser dans un premier temps les mécanismes de ce code sur les processus biologiques à l'échelle du neurone et de la synapse. En particulier, la plasticité synaptique peut induire l'extraction non-supervisée de l'information cohérente dans le flux des impulsions neuronales. Le codage par la latence de la première décharge permet de définir un code impulsionnel dans le nerf optique grâce une architecture multiéchelle. Nous avons étendu cette démarche en utilisant une approche \emph(écologique) qui permet exploiter les régularités de ses coefficients sur les images naturelles pour les quantifier par le rang d'arrivée des impulsions neuronales. Ce code par le rang des décharges, est basé sur une architecture hiérarchique et ``en avant'' qui se distingue, outre sa simplicité, par la richesse des résultats mathématiques et de par ses performances computationnelles. Enfin, nous avons répondu aux besoins d'un modèle efficace de la Vision en fondant une théorie de \emph(représentation impulsionnelle sur-complète) de l'image. Cette formalisation conduit alors à une stratégie de \emph(code impulsionnel épars) en définissant des interactions latérales. Cette stratégie est étendue à un modèle général de \emph(colonne corticale adaptative) permettant l'émergence de dictionnaires de représentation et s'adapte particulièrement à la construction d'une carte de saillance. Ces techniques font émerger de nouveaux outils pour le traitement de l'image et de vision active adaptés à des architectures de calcul distribué

Similar works

Full text

thumbnail-image
oai:HAL:tel-00002693v1Last time updated on 11/8/2016

This paper was published in Thèses en Ligne.

Having an issue?

Is data on this page outdated, violates copyrights or anything else? Report the problem now and we will take corresponding actions after reviewing your request.