30 research outputs found

    Analyse du comportement des programmes Ă  l'aide des matrices d'adjacence

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Gestion et visualisation de données hétérogènes multidimensionnelles : application PLM à la neuroimagerie

    Get PDF
    Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization.The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states.La neuroimagerie est confrontée à des difficultés pour analyser et réutiliser la masse croissante de données hétérogènes qu’elle produit. La provenance des données est complexe – multi-sujets, multi-analyses, multi-temporalités – et ces données ne sont stockées que partiellement, limitant les possibilités d’études multimodales et longitudinales. En particulier, la connectivité fonctionnelle cérébrale est analysée pour comprendre comment les différentes zones du cerveau travaillent ensemble. Il est nécessaire de gérer les données acquises et traitées suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractéristiques. Cette thèse a pour objectif de permettre l’exploration de relations complexes entre données hétérogènes, ce qui se décline selon deux axes : (1) comment gérer les données et leur provenance, (2) comment visualiser les structures de données multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont présentées à l’issue d’un état de l’art sur les domaines de la gestion de données hétérogènes et de la visualisation de graphes.Le modèle de données BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des données de neuroimagerie en fonction des étapes d’une étude et prend en compte le caractère évolutif de la recherche grâce à l’association de classes spécifiques à des objets génériques. L’implémentation de ce modèle au sein d’un système PLM (Product Lifecycle Management) montre que les concepts développés depuis vingt ans par l’industrie manufacturière peuvent être réutilisés pour la gestion des données en neuroimagerie. Les GMD (Graphes MultidimensionnelsDynamiques) sont introduits pour représenter des relations complexes entre données qui évoluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a été créé pour permettre le stockage et l’échange de GMD entre applications. La méthode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la préservation partielle de la carte mentale de l’utilisateur et l’alternance de vues complètes et réduites des données. La méthode OCL est appliquée à l’étude de la connectivité fonctionnelle cérébrale au repos de 231 sujets représentées sous forme de GMD – les zones du cerveau sont représentées par les noeuds et les mesures de connectivité par les arêtes – en fonction de l’âge, du genre et de la latéralité : les GMD sont obtenus par l’application de chaînes de traitement sur des acquisitions IRM dans le système PLM. Les résultats montrent deux intérêts principaux à l’utilisation de la méthode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre états du GMD

    Modèles Relationnels Probabilistes et Incertitude de Références: Apprentissage de structure avec algorithmes de partitionnement

    Get PDF
    We are surrounded by heterogeneous and interdependent data. The i.i.d. assumption has shown its limits in the algorithms considering tabular datasets, containing individuals with same data domain and without mutual influence on each other. Statistical relational learning aims at representing knowledge, reasoning, and learning in multi-relational datasets with uncertainty and lifted probabilistic graphical models offer a solution for generative learning in this context. We study in this thesis a type of directed lifted graphical model, called probabilistic relational models, in the context of reference uncertainty, i.e. where dataset’s individuals can have uncertainty over both their internal attributes description and their external memberships in associations with others, having the particularity of relying on individuals partitioning functions in order to find out general knowledge. We show existing models’ limits for learning in this context and propose extensions allowing to use relational clustering methods, more adequate for the problem, and offering a less constrained representation bias permitting extra knowledge discovery, especially between associations types in the relational data domain.Nous sommes entourés de données hétérogènes et interdépendantes. L’hypothèse i.i.d. a montré ses limites dans les algorithmes considérant des jeux de données tabulaires, constitués d’individus dotés du même domaine de définition et sans influence mutuelle. L’apprentissage relationnel statistique a pour objectif la représentation de connaissances, le raisonnement et l’apprentissage dans des contextes de jeux de données multi relationnels avec incertitude et les modèles graphiques probabilistes de second ordre sont une solution pour l’apprentissage génératif dans ce contexte. Nous étudions dans cette thèse un type de modèles graphiques probabilistes de second ordre dirigés, appelés modèles relationnels probabilistes, dans un contexte d’incertitude de références, c.-à-d. où les individus d’un jeu de données peuvent présenter à la fois une incertitude sur la valeurs de leurs attributs descriptifs, et sur leurs implications dans des associations avec d’autres individus, et ayant la particularité de s’appuyer sur des fonctions de partitionnement des individus pour découvrir des connaissances générales. Nous présentons les limites des modèles existant pour l’apprentissage dans ce contexte et proposons des extensions présentant l’intérêt de pouvoir utiliser des méthodes de partitionnement relationnel, plus adaptées au problème, et proposant un biais de représentation simplifié autorisant la découverte de connaissances supplémentaires, notamment entre les différents types d’association du domaine de définition relationnel

    Modèles Relationnels Probabilistes et Incertitude de Références: Apprentissage de structure avec algorithmes de partitionnement

    Get PDF
    We are surrounded by heterogeneous and interdependent data. The i.i.d. assumption has shown its limits in the algorithms considering tabular datasets, containing individuals with same data domain and without mutual influence on each other. Statistical relational learning aims at representing knowledge, reasoning, and learning in multi-relational datasets with uncertainty and lifted probabilistic graphical models offer a solution for generative learning in this context. We study in this thesis a type of directed lifted graphical model, called probabilistic relational models, in the context of reference uncertainty, i.e. where dataset’s individuals can have uncertainty over both their internal attributes description and their external memberships in associations with others, having the particularity of relying on individuals partitioning functions in order to find out general knowledge. We show existing models’ limits for learning in this context and propose extensions allowing to use relational clustering methods, more adequate for the problem, and offering a less constrained representation bias permitting extra knowledge discovery, especially between associations types in the relational data domain.Nous sommes entourés de données hétérogènes et interdépendantes. L’hypothèse i.i.d. a montré ses limites dans les algorithmes considérant des jeux de données tabulaires, constitués d’individus dotés du même domaine de définition et sans influence mutuelle. L’apprentissage relationnel statistique a pour objectif la représentation de connaissances, le raisonnement et l’apprentissage dans des contextes de jeux de données multi relationnels avec incertitude et les modèles graphiques probabilistes de second ordre sont une solution pour l’apprentissage génératif dans ce contexte. Nous étudions dans cette thèse un type de modèles graphiques probabilistes de second ordre dirigés, appelés modèles relationnels probabilistes, dans un contexte d’incertitude de références, c.-à-d. où les individus d’un jeu de données peuvent présenter à la fois une incertitude sur la valeurs de leurs attributs descriptifs, et sur leurs implications dans des associations avec d’autres individus, et ayant la particularité de s’appuyer sur des fonctions de partitionnement des individus pour découvrir des connaissances générales. Nous présentons les limites des modèles existant pour l’apprentissage dans ce contexte et proposons des extensions présentant l’intérêt de pouvoir utiliser des méthodes de partitionnement relationnel, plus adaptées au problème, et proposant un biais de représentation simplifié autorisant la découverte de connaissances supplémentaires, notamment entre les différents types d’association du domaine de définition relationnel

    Analyse de la qualité du logiciel : une approche par visualisation et simulation

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Compression de données d'animation acquises par capture de mouvements

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    SLAM temporel Ă  contraintes multiples

    Get PDF
    This report describes my thesis work conducted within the ComSee (Computers That See) team related to the ISPR axis (ImageS, Perception Systems and Robotics) of Institut Pascal. It was financed by the Auvergne Région and the European Fund of Regional Development. The thesis was motivated by localization issues related to Augmented Reality and autonomous navigation. The framework developed during this thesis is a generic approach to implement SLAM algorithms : Simultaneous Localization And Mapping. The proposed approach use multiple constraints in the localization and mapping processes. Those constraints come from sensors data and also from knowledge given by the application context. Each constraint is used into one optimization algorithm in order to improve the estimation of the motion and the accuracy of the map. Three problems have been tackled. The first deals with constraints on the map to accurately estimate the pose of 3D objects partially known in the environment. The second problem is about merging multiple heterogeneous and asynchronous data coming from different sensors using an optimization algorithm. The last problem is to write an efficient and real-time implementation of the SLAM problem using multiple constraints. A generic approach is used to design the framework and to generate different configurations, according to the constraints, of each SLAM problem. A particular interest has been put in the low computational requirement (in term of memory and CPU) while offering a high portability. Moreover, meta-programming techniques have been used to automatically and specifically generate the more complex parts of the code according to the given problem. The optimization library LMA, developed during this thesis, is made available of the community in open-source. Several experiments were done on synthesis and real data. An exhaustive benchmark shows the performances of the LMA library compared to the most used alternatives of the state of the art. Moreover, the SLAM framework is used on different problems with an increasing difficulty and amount of constraints. Augmented Reality and autonomous navigation applications show the good performances and accuracies in multiple constraints context.Ce mémoire décrit mes travaux de thèse de doctorat menés au sein de l’équipe ComSee (Computers that See) rattachée à l’axe ISPR (Image, Systèmes de Perception et Robotique) de l’Institut Pascal. Celle-ci a été financée par la Région Auvergne et le Fonds Européen de Développement Régional. Les travaux présentés s’inscrivent dans le cadre d’applications de localisation pour la robotique mobile et la Réalité Augmentée. Le framework réalisé au cours de cette thèse est une approche générique pour l’implémentation d’applications de SLAM : Simultaneous Localization And Mapping (algorithme de localisation par rapport à un modèle simultanément reconstruit). L’approche intègre une multitude de contraintes dans les processus de localisation et de reconstruction. Ces contraintes proviennent de données capteurs mais également d’a priori liés au contexte applicatif. Chaque contrainte est utilisée au sein d’un même algorithme d’optimisation afin d’améliorer l’estimation du mouvement ainsi que la précision du modèle reconstruit. Trois problèmes ont été abordés au cours de ce travail. Le premier concerne l’utilisation de contraintes sur le modèle reconstruit pour l’estimation précise d’objets 3D partiellement connus et présents dans l’environnement. La seconde problématique traite de la fusion de données multi-capteurs, donc hétérogènes et asynchrones, en utilisant un unique algorithme d’optimisation. La dernière problématique concerne la génération automatique et efficace d’algorithmes d’optimisation à contraintes multiples. L’objectif est de proposer une solution temps réel 1 aux problèmes de SLAM à contraintes multiples. Une approche générique est utilisée pour concevoir le framework afin de gérer une multitude de configurations liées aux différentes contraintes des problèmes de SLAM. Un intérêt tout particulier a été porté à la faible consommation de ressources (mémoire et CPU) tout en conservant une grande portabilité. De plus, la méta-programmation est utilisée pour générer automatiquement et spécifiquement les parties les plus complexes du code en fonction du problème à résoudre. La bibliothèque d’optimisation LMA qui a été développée au cours de cette thèse est mise à disposition de la communauté en open-source. Des expérimentations sont présentées à la fois sur des données de synthèse et des données réelles. Un comparatif exhaustif met en évidence les performances de la bibliothèque LMA face aux alternatives les plus utilisées de l’état de l’art. De plus, le framework de SLAM est utilisé sur des problèmes impliquant une difficulté et une quantité de contraintes croissantes. Les applications de robotique mobile et de Réalité Augmentée mettent en évidence des performances temps réel et un niveau de précision qui croît avec le nombre de contraintes utilisées

    Les algorithmes de la modélisation : une analyse critique pour la modélisation économique

    Get PDF
    L'objet de ce papier n'est pas tant de présenter les principaux algorithmes utilisés en modélisation économique - nombre de manuels font des présentations de meilleure qualité et plus exhaustives - que d'en proposer une vision critique. Les modèles économiques, et plus particulièrement les modèles macroéconométriques, sont des représentations numériques qui, de ce fait, ont opéré des choix de simplification voire de réduction de la réalité. Revenir sur les algorithmes existants peut donc, nous l'espérons, constituer une étape vers la reformulation d'algorithmiques plus féconds pour la modélisation. Le problème de la modélisation consiste à se poser la question de savoir, compte tenu de l'état observé de l'économie et sous certaines hypothèses, quelle sera en mode projection, quelle serait (en mode simulation), l'état futur (vs l'état alternatif) de cette économie ? Depuis la phase de gestion de la banque de données qui requiert divers algorithmes de tri, jusqu'aux algorithmes d'analyse numérique impliqués dans les calculs matriciels d'estimation économétrique - pour être bref -, le fonctionnement de la modélisation macroéconométrique s'explique par des algorithmes . Il implique l'emploi d'une syntaxe, l'algorithmique, et d'un langage, les mathématiques. L'algorithme est une séquence d'instructions ordonnées et formalisées, permettant d'aboutir à la résolution du problème étudié. Peu d'ouvrages sont consacrés aux phases algorithmiques de la modélisation . Si les algorithmes visent tous à assister la décision (analyses rétrospective et prospective), ils sont loin de former une librairie homogène de programmes. Nous aborderons des algorithmes directement liés à un traitement numérique (estimation statistique, simulation optimisation). Mais nous consacrerons également quelques lignes à des algorithmes de nature apparemment "moins numériques", mais intervenant dans des phases déterminantes de la modélisation. Il s'agira d'une part des algorithmes permettant de structurer et/ou d'analyse des données ainsi que des algorithmes graphiques et ceux de communication. Enfin nous aborderons brièvement le problème de précision des calculs lié à l'arithmétique des ordinateurs. Délibérément, nous n'avons développé les aspects relatifs au Génie logiciel , de même que dans un souci de clarté, nous avons regroupé les programmes en annexe, lorsque la compréhension n'exigeait pas qu'ils accompagnent le texte. Notre présentation sera jalonnée de travaux algorithmiques et de références à nos notes de travail, réalisés dans le cadre de notre thèse de Doctorat

    Les algorithmes de la modélisation : une analyse critique pour la modélisation économique

    Get PDF
    L'objet de ce papier n'est pas tant de présenter les principaux algorithmes utilisés en modélisation économique - nombre de manuels font des présentations de meilleure qualité et plus exhaustives - que d'en proposer une vision critique. Les modèles économiques, et plus particulièrement les modèles macroéconométriques, sont des représentations numériques qui, de ce fait, ont opéré des choix de simplification voire de réduction de la réalité. Revenir sur les algorithmes existants peut donc, nous l'espérons, constituer une étape vers la reformulation d'algorithmiques plus féconds pour la modélisation. Le problème de la modélisation consiste à se poser la question de savoir, compte tenu de l'état observé de l'économie et sous certaines hypothèses, quelle sera en mode projection, quelle serait (en mode simulation), l'état futur (vs l'état alternatif) de cette économie ? Depuis la phase de gestion de la banque de données qui requiert divers algorithmes de tri, jusqu'aux algorithmes d'analyse numérique impliqués dans les calculs matriciels d'estimation économétrique - pour être bref -, le fonctionnement de la modélisation macroéconométrique s'explique par des algorithmes . Il implique l'emploi d'une syntaxe, l'algorithmique, et d'un langage, les mathématiques. L'algorithme est une séquence d'instructions ordonnées et formalisées, permettant d'aboutir à la résolution du problème étudié. Peu d'ouvrages sont consacrés aux phases algorithmiques de la modélisation . Si les algorithmes visent tous à assister la décision (analyses rétrospective et prospective), ils sont loin de former une librairie homogène de programmes. Nous aborderons des algorithmes directement liés à un traitement numérique (estimation statistique, simulation optimisation). Mais nous consacrerons également quelques lignes à des algorithmes de nature apparemment "moins numériques", mais intervenant dans des phases déterminantes de la modélisation. Il s'agira d'une part des algorithmes permettant de structurer et/ou d'analyse des données ainsi que des algorithmes graphiques et ceux de communication. Enfin nous aborderons brièvement le problème de précision des calculs lié à l'arithmétique des ordinateurs. Délibérément, nous n'avons développé les aspects relatifs au Génie logiciel , de même que dans un souci de clarté, nous avons regroupé les programmes en annexe, lorsque la compréhension n'exigeait pas qu'ils accompagnent le texte. Notre présentation sera jalonnée de travaux algorithmiques et de références à nos notes de travail, réalisés dans le cadre de notre thèse de Doctorat
    corecore