64 research outputs found

    Une structure associative bidirectionnelle d'auto-encodage permettant l'apprentissage et la catégorisation perceptuels

    Get PDF
    Les humains sont continuellement exposés à des stimulations pour lesquelles leur système perceptivo-cognitif doit créer des représentations mnésiques. Tout en créant un code interne de composantes, ce système doit être en mesure de reconnaître, d'identifier, et de discriminer ces objets lors de prochaines occurrences. Ce processus s'effectue par la création et la mise à jour d'une mémoire épisodique d'exemplaires à dimensionnalité réduite. De plus, le système cognitif doit regrouper les objets similaires en catégories, tout en adaptant le contenu de la mémoire suite à l'ajout d'informations produit par la rencontre de nouveaux objets. Ces processus de niveau « objet » et « catégorie » s'effectuent de façon séparée, par le biais de deux mémoires.\ud Jusqu'à maintenant, aucun modèle formel satisfaisant n'était en mesure de rendre compte de cette variété de comportements humains sans sacrifier la simplicité et l'élégance du système initial pour simuler l'un d'eux. Le modèle FEBAM (pour Feature-Extracting Bidirectional Associative Memory) a été créé dans le but de répondre à cette incapacité de beaucoup de modèles existants à effectuer des tâches cognitives et perceptuelles à l'aide d'un codage interne créé de façon autonome, comme le font les humains. Basé sur une architecture neuronale associative bidirectionnelle, FEBAM peut reproduire les comportements d'autres réseaux de neurones artificiels dont les processus dynamiques sont basés sur l'extraction de composantes, la création de bassins d'attracteurs, ou encore le partitionnement de données (« clustering »), et ce, en utilisant une seule architecture, règle de transmission et procédure d'apprentissage. Dans la présente thèse, il sera montré qu'avec un nombre minimal de principes définitoires, le modèle pourra effectuer des tâches telles que la création autonome d'un code interne de composantes, le développement autonome d'une mémoire d'exemplaires parfaits, ainsi que l'identification et la catégorisation autonomes. Il sera aussi montré, grâce à la proposition d'un mécanisme itératif de croissance de l'architecture, que les catégories créées par le réseau peuvent être réorganisées suite à la présentation de nouvelles informations perceptuelles au système. On montrera également que FEBAM préserve les capacités d'une mémoire autoassociative récurrente (dont il est inspiré), tout en améliorant certains des comportements de cette dernière. Le modèle FEBAM sera également étendu au cas supervisé. Dans ce cas, le modèle FEBAM-RA (RA pour Response Association), grâce à un module supplémentaire, associera les représentations internes des stimuli à leur identité ou à leur appartenance catégorielle prédéfinies. Cette extension se fera sans avoir à ajouter des principes définitoires: ainsi, on utilisera ici la même règle d'apprentissage, la même règle de transmission, et une généralisation de l'architecture de FEBAM. Grâce à cet ajout, le modèle sera en mesure de reproduire de façon qualitative l'effet de la pré-exposition perceptuelle sur la rapidité de l'apprentissage identificatif supervisé, ainsi que l'effet de difficulté de la tâche lorsque l'on compare l'identification et la catégorisation supervisées (dans une situation de tâches simultanées). La contribution principale de cette thèse repose donc dans la parcimonie des principes utilisés. En effet, grâce à un nombre minimal de postulats définitoires, on modélisera donc des processus de traitement d'objets et de catégories, et ce, de façon autonome ou supervisée. Ce projet de recherche constituant la première étape de développement de l'approche FEBAM, quelques améliorations à l'approche de base seront proposées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Modélisation cognitive, Réseaux de neurones artificiels, Extraction de composantes, Catégorisation, Identification

    Étude comparative des algorithmes dédiés à la classification

    Get PDF

    Segmentation d'images par étiquetage crédibiliste : Application à l'imagerie médicale par tomodensitométrie en cancérologie

    Get PDF
    In this paper, an image segmentation algorithm based on credal labelling is presented. The main contribution of this work lies in the way in which the images are modelled by belief functions in order to represented uncertainty inherent in the labelling of a voxel to a class. For each voxel, the basic belief assignment is derived from intrinsic features of the regions in the image. In order to control the uncertainty in the labelling step, a decision threshold is decreased in a progressive way throughout an iterative process until its stabilization. The methodology is applied for volumes segmentation on computed tomography images. The segmentation of the two lungs, trachea, main bronchi and the spinal canal is carried out for patients having undergone external radiotherapy treatment. The segmentation of a pathological ganglion is also presented and is used for volume measurement in case of therapeutic follow-up.Dans cet article, un algorithme de segmentation d'images basé sur une technique d'étiquetage crédibiliste est présenté. La contribution essentielle de ce travail réside dans la façon dont les images sont modélisées par des fonctions de croyance de façon à représenter l'incertitude inhérente à l'étiquetage d'un voxel à une classe. L'allocation de masse réalisée pour chaque voxel est construite à partir des caractéristiques intrinsèques des régions qui composent l'image. Afin de limiter cette incertitude dans la phase d'étiquetage, on diminue de façon progressive un seuil de décision tout au long d'un processus itératif jusqu'à sa stabilisation. Cet algorithme est appliqué à la segmentation de volumes d'intérêt sur des images TDM. La segmentation des deux poumons, de la trachée, des bronches souches et du canal médullaire est réalisée à visée de radiothérapie externe, ainsi que la réalisation de la segmentation ganglionnaire pour la mesure de volume à visée d'évaluation initiale du stade de la maladie ou de suivi thérapeutique

    Analyse d'images : Filtrage et segmentation

    Get PDF
    Ouvrage publié avec l'aide du Ministère des affaires étrangères, direction de la coopération scientifique et technique. AVERTISSEMENT Le livre publié en 1995 chez MASSON (EAN13 : 9782225849237) est épuisé. Cette version pdf est une version élaborée à partie de la version préliminaire transmise à l'éditeur. La mise en page est légèrement différente de celle du livre. Malheureusement quelques figures de l'annexe C ont été perdues.International audienceL'analyse d'image touche à l'heure actuelle de nombreux domaines, avec des objectifs aussi variés que l'aide au diagnostic pour les images médicales, la vision artificielle en robotique ou l'analyse des ressources terrestres à partir des images prises par satellite. Le but du traitement de ces images est à la fois simple dans son concept et difficile dans sa réalisation. Simple en effet, puisqu'il s'agit de reconnaître des objets que notre système visuel perçoit rapidement, du moins pour la majorité d'entre eux. Difficile cependant, car dans la grande quantité d'informations contenues dans l'image, il faut extraire des éléments pertinents pour l'application visée et ceci indépendamment de la qualité de l'image. L'analyse d'image s'est donc dotée d'outils et de méthodes puissants issus de domaines aussi variés que les mathématiques, le traitement du signal, ou l'informatique. Cet ouvrage présente un des aspects les plus importants du traitement des images : la " segmentation ". Il récapitule d'abord les grandeurs observables et calculables sur une image et les algorithmes de manipulation des structures de données associées. Il détaille ensuite les traitements préliminaires, tels le filtrage du bruit et les deux types d'approche de la segmentation, l'extraction des contours et celle des régions. Chacune fait l'objet d'une étude théorique et de nombreux résultats illustrent les performances. Une des originalités de l'ouvrage est l'étude comparative des différentes techniques appliquées sur un même corpus d'images réelles

    Extraction de relations d'associations maximales dans les textes : représentation graphique

    Get PDF

    Étude exploratoire d'outils pour le Data Mining

    Get PDF

    Estimation des paramètres de modèles de processus ponctuels marqués pour l'extraction d'objets en imagerie spatiale et aérienne haute résolution

    Get PDF
    Dans le but d'extraire des réseaux d'objets à partir d'images de télédétection haute résolution, une technique fondée sur une modélisation par processus ponctuels marqués a montré sa pertinence pour résoudre ce type de problème. La particularité de cette technique est qu'elle permet de représenter les objets de l'image par un ensemble de formes géométriques qui interagissent entre elles. Cette modélisation est gouvernée par deux types d'énergies : une énergie d'attache aux données qui lie les objets à l'image traitée, et une énergie de régularisation qui contrôle le recouvrement entre les objets. Certains paramètres incorporés dans ce modèle doivent être ajustés automatiquement en fonction de l'image traitée an d'assurer une extraction non supervisée des objets. Pour ce faire, nous étudions les méthodes d'estimation des paramètres impliqués dans cette modélisation. Nous entamons, d'abord, une étude dans le cas des données complètes, lorsque l'ensemble des objets de l'image est supposé connu. Nous abordons ensuite le problème d'estimation dans le cas où l'ensemble des objets de l'image est effectivement inconnu et nous proposons une méthode d'estimation fondée sur une version stochastique de l'algorithme Espérance-Maximisation. Nous validons, dans un premier temps, cette méthode d'estimation sur un modèle simple de processus ponctuels marqués pour lequel les objets sont de forme circulaire. Ensuite, nous l'étendons à des formes géométriques plus générales, telles que les ellipses et les rectangles. Nous abordons ainsi plusieurs applications ; à savoir l'extraction des flamants roses, des houppiers d'arbres, des bateaux dans un port maritime, de la trace au sol du bâti ainsi que la détection de tente de réfugiés

    An adaptative method for the smothing of curves edge detection application

    Get PDF
    We present a new approach to smooth discrete curves . The smoothing is realized by associating portions of regular curves which are defined on each points interval . The originality of the method consists in finding the portions of curves by minimizing the squared error over a restricted neighbourhood around each point . Adding continuity constraints at the junction points, we obtain a direct formulation of the solution . A unique parameter allows to easily control the smoothing amplitude which can be selected between two extreme cases : interpolation or approximation . It seems like a drawer behaviour trying to join points by a curve . He can choose to join each point by a curve or only take into account the global form of the set of points . The method is particularly adapted to fit contours defined on an image and is used as a final step of image segmentation process . The parameter controlling the smoothing amplitude is computed from the value of local gradient magnitude on each pixel .La méthode de lissage de courbes discrètes présentée est fondée sur la minimisation d'un critère d'erreur quadratique appliqué sur des portions jointives de la courbe à traiter. En imposant des contraintes géométriques au niveau des points de jonctions entre intervalles, on aboutit à une formulation directe de la solution. Un paramètre unique permet de façon simple de contrôler la force du lissage qui évolue ainsi entre 2 cas extrêmes: l'interpolation et l'approximation. La méthode simule le comportement d'un scripteur cherchant à unir des points par une courbe, il peut privilégier le passage du tracé par chaque point ou au contraire respecter la forme globale définie par l'ensemble des points. Cette méthode adaptative de lissage est utilisée comme étape finale d'un processus de segmentation d'images, le paramètre contrôlant la force du lissage étant défini à partir du gradient mesuré localement en chaque point

    Modélisation des informations et extraction des connaissances pour la gestion des crises

    Get PDF
    L’essor des technologies émergentes de collecte de données offre des opportunités nouvelles pour diverses disciplines scientifiques. L’informatique est appelé à jouer sa partition par le développement de techniques d’analyse intelligente des données pour apporter un certain éclairage dans la résolution de problèmes complexes. Le contenu de ce mémoire de recherche doctorale s’inscrit dans la problématique générale de l’extraction des connaissances à partir de données par les techniques informatiques. Ce travail de thèse s’intéresse dans un premier temps à la problématique de la modélisation des informations pour la gestion de crise nécessitant des prises en charge médicale, à l’aide d’une collaboration des applications informatiques de la télémédecine. Nous avons proposé une méthodologie de gestion d’une crise à distance en trois étapes. Elle est principalement axée sur la collaboration des actes de télémédecine (Téléconsultation, Téléexpertise, Télésurveillance, Téléassistance, et la Régulation médicale), de la phase de transport des victimes à la phase de traitements médicaux dans et/ou entre les structures de santé. Cette méthodologie permet non seulement de mettre à la disposition des gestionnaires de crise un système d'aide à la décision informatisé, mais aussi de minimiser les coûts financiers et réduire le temps de réponse des secours à travers une gestion organisée de la crise. Dans un deuxième temps, nous avons étudié en détail l’extraction de la connaissance à l’aide des techniques de data mining sur les images satellitaires afin de découvrir des zones à risques d’épidémie, dont l’étude de cas a porté sur l’épidémie de choléra dans la région de Mopti, au Mali. Ainsi, une méthodologie de six phases a été présentée en mettant en relation les données collectées sur le terrain et les données satellitaires pour prévenir et surveiller plus efficacement les crises d’épidémie. Les résultats nous indiquent qu’à 66% le taux de contamination est lié au fleuve Niger, en plus de certains facteurs sociétaux comme le jet des ordures en période hivernale. Par conséquent, nous avons pu établir le lien entre l’épidémie et son environnement d’évolution, ce qui permettra aux décideurs de mieux gérer une éventuelle crise d’épidémie. Et enfin, en dernier lieu, pendant une situation de crise d’épidémie, nous nous sommes focalisés sur l’analyse médicale, plus précisément par l’usage des microscopes portables afin de confirmer ou non la présence des agents pathogènes dans les prélèvements des cas suspects. Pour ce faire, nous avons présenté une méthodologie de six phases, basée sur les techniques du deep learning notamment l’une des techniques des réseaux de neurones convolutifs, l’apprentissage par transfert qui tirent parti des systèmes complexes avec des invariants permettant la modélisation et l'analyse efficace de grandes quantités de données. Le principe consiste à entraîner les réseaux de neurones convolutifs à la classification automatique d’images des agents pathogènes. Par exemple dans notre cas d’étude, cette approche a été utilisée pour distinguer une image microscopique contenant le virus de l’épidémie de choléra appelé Vibrio cholerae d’une image microscopique contenant le virus de l’épidémie du paludisme appelé Plasmodium. Ceci nous a permis d’obtenir un taux de réussite de classification de 99%. Par la suite, l’idée est de déployer cette solution de reconnaissance d’images d’agents pathogènes dans les microscopes portables intelligents pour les analyses de routine et applications de diagnostic médical dans la gestion de situations de crise. Ce qui permettra de combler le manque de spécialistes en manipulation microscopique et un gain de temps considérable dans l’analyse des prélèvements avec des mesures précises favorisant l’accomplissement du travail dans de meilleures conditions
    corecore