90 research outputs found

    Analyse macroscopique des grands systèmes (émergence épistémique et agrégation spatio-temporelle)

    Get PDF
    L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.The analysis of large-scale systems faces syntactic and semantic difficulties: How to observe millions of distributed and asynchronous entities? How to interpret the disorder that results from the microscopic observation of such entities? How to produce and handle relevant abstractions for the systems' macroscopic analysis? Faced with the failure of the analytic approach, the concept of epistemic emergence - related to the nature of knowledge - allows us to define an alternative strategy. This strategy is motivated by the observation that scientific activity relies on abstraction processes that provide macroscopic descriptions to broach the systems' complexity. This thesis is more specifically interested in the production of spatial and temporal abstractions through data aggregation. In order to generate scalable representations, the control of two essential aspects of the aggregation process is necessary. Firstly, the complexity and the information content of macroscopic representations should be jointly optimized in order to preserve the relevant details for the observer, while minimizing the cost of the analysis. We propose several measures of quality (internal criteria) to evaluate, compare and select the representations depending on the context and the objectives of the analysis. Secondly, in order to preserve their explanatory power, the generated abstractions should be consistent with the background knowledge exploited by the observer for the analysis. We propose to exploit the systems' organisational, structural and topological properties (external criteria) to constrain the aggregation process and to generate syntactically and semantically consistent representations. Consequently, the automation of the aggregation process requires solving a constrained optimization problem. We propose a generic algorithm that adapts to the criteria expressed by the observer. Furthermore, we show that the complexity of this optimization problem directly depend on these criteria. The macroscopic approach supported by this thesis is evaluated on two classes of systems. Firstly, the aggregation process is applied to the visualisation of large-scale distributed applications for performance analysis. It allows the detection of anomalies at several scales in the execution traces and the explanation of these anomalies according to the system syntactic properties. Secondly, the process is applied to the aggregation of news for the analysis of international relations. The geographical and temporal aggregation of media attention allows the definition of semantically consistent macroscopic events for the analysis of the international system. Furthermore, we believe that the approach and the tools presented in this thesis can be extended to a wider class of application domains.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Formalisation d'un environnement d'aide à l'analyse géovisuelle: Application à la sécurité et sûreté de la maritimisation de l'énergie

    Get PDF
    The maritime space is still a sensitive area due to many accidents and dangers, such as collisions or pirate attacks. In order to ensure the control of safety and security of this area, it is essential to study near real-time movement information (surveillance) or past events (analysis). Controllers and analysts are then faced to large sets of data, which must be studied with systems using maps and other visualizations. However, these tools are limited in terms of analysis capacities. Using geovisual analytics could be used to improve pattern identification, anomalies detection and knowledge discovery. However, due to the complexity of their use, most methods are still at the stage of research, and are not used yet in the operational word for studying maritime risks.In this context, we propose a geovisual analytics support system to guide users in the visualization and the analysis of maritime risks. Our research methodology is based on the formalization of use cases, of users and of several visualization methods. Ontologies and rules are used to create a knowledge-based system, to select adequate solutions for the visualization and the analysis of ships’ trajectories. Some examples for analyzing maritime risks are then presented to illustrate the use of such a system.L’espace maritime est encore aujourd’hui le contexte de nombreux accidents et dangers, comme des collisions ou des attaques pirates. Afin de garantir le contrôle de la sûreté et de la sécurité de cet espace, il est nécessaire d’étudier les données de mouvement en temps réel (surveillance) et les évènements passés (analyse). Contrôleurs et analystes sont alors confrontés à de grandes quantités de données, qui doivent être étudiées grâce à des systèmes utilisant des cartes et autres visualisations. Cependant, ces outils sont limités en termes de capacités d’analyse. L’utilisation de méthodes d’analyse géovisuelle pourrait alors faciliter la reconnaissance de motifs, la détection d’anomalies et la découverte de connaissances. Toutefois, en raison de leur complexité d’utilisation, plusieurs de ces méthodes n’ont pas dépassé le stade académique, et ne sont pas encore utilisées de manière opérationnelle dans l’étude des risques maritimes.Dans ce contexte, nous proposons un environnement d’aide à l’analyse géovisuelle, qui permet de guider l’utilisateur dans la visualisation et l’analyse d’informations pour l’étude des risques maritimes. Notre démarche de thèse se fonde sur la formalisation des cas d’utilisation, des utilisateurs et des méthodes de visualisation. Le recours à des ontologies et des règles permet de concevoir un système à base de connaissances, afin de proposer des méthodes adéquates pour la visualisation et l’analyse des trajectoires de navires. Nous illustrons cette proposition par plusieurs exemples d’analyse de risques en mer

    Modélisation et interpolation spatiale 3D pour l'étude de l'écosystème pélagique marin

    Get PDF
    En raison de la nature dynamique et volumétrique de l'écosystème marin pélagique, sa modélisation spatiale constitue un défi important. La représentation conventionnelle des phénomènes de ce milieu s’effectue par des coupes statiques verticales ou horizontales dans un environnement bidimensionnel (2D). Cependant, comme le démontre ce mémoire, l'étude de l'écosystème marin peut être grandement améliorée grâce à la modélisation spatiale tridimensionnelle (3D). L’apport principal de cette étude est d’avoir démontré le potentiel et la pertinence de la modélisation spatiale 3D pour l’environnement pélagique marin. Cette étude confirme que les outils émergents de visualisation scientifique dans le domaine de la modélisation géologique peuvent servir à améliorer l’étude de cet écosystème. Elle permet également de combler une lacune importante identifiée dans la littérature scientifique en examinant la performance des méthodes d’interpolation spatiale 3D. L’interpolation spatiale est une étape essentielle de la modélisation spatiale 3D des phénomènes continus (p.ex. salinité, température, etc.), mais aucune étude n’avait encore évalué son efficacité pour l’environnement pélagique marin. Il s’agit donc d’un pas important vers le développement d’un système d’information géographique (SIG) marin 3D complet. Les avantages de migrer vers une modélisation spatiale 3D sont discutés dans le contexte de la campagne océanographique ArcticNet-Malina, réalisée dans la mer de Beaufort (Arctique canadien) en 2009. Des représentations spatiales 3D basées sur une stratégie d’interpolation 3D robuste et optimale de cinq variables pélagiques marines (température, concentration en chlorophylle a, coefficient d’atténuation particulaire, distribution des eaux de l'halocline supérieure et flux vertical de carbone organique particulaire) sont présentées et leurs valeurs écologiques sont discutées.Spatial modeling of the marine pelagic ecosystem is challenging due to its dynamic and volumetric nature. Consequently, conventional oceanographic spatial analysis of this environment is in a 2D environment, limited to static cutting planes in horizontal and vertical sections to present various phenomena. However, the study of the marine pelagic ecosystem can benefit from 3D spatial modeling. The main contribution of this study is to show that recent advances in 3D spatial modeling tools developed primarily for geological modeling can be exploited to extend the usual interpretation of marine pelagic phenomena from a 2D to a 3D environment. This study also fills a major gap identified in the literature by examining the performance of 3D spatial interpolation methods. Such interpolation is an essential step in 3D spatial modeling of continuous phenomena (eg, salinity, temperature, etc.), but no study has yet evaluated its performance for the marine pelagic environment. Accordingly, this study constitutes an important step towards the development of a complete 3D marine GIS. The benefits of migrating to a 3D spatial modeling of the marine environment are discussed in the context of the oceanographic campaign ArcticNet-Malina, conducted in the Beaufort Sea (Canadian Arctic) in 2009. 3D spatial representations based on a robust and optimal 3D interpolation strategy for five pelagic variables (temperature, chlorophyll a, particulate attenuation coefficient, distribution of upper halocline water mass and vertical flux of particulate organic carbon) of the ArcticNet-Malina campaign are presented and their ecological values are discussed

    Développement de méthodes bioinformatiques dédiées à la prédiction et l'analyse des réseaux métaboliques et des ARN non codants

    Get PDF
    L'identification des interactions survenant au niveau moléculaire joue un rôle crucial pour la compréhension du vivant. L'objectif de ce travail a consisté à développer des méthodes permettant de modéliser et de prédire ces interactions pour le métabolisme et la régulation de la transcription. Nous nous sommes basés pour cela sur la modélisation de ces systèmes sous la forme de graphes et d'automates. Nous avons dans un premier temps développé une méthode permettant de tester et de prédire la distribution du flux au sein d'un réseau métabolique en permettant la formulation d'une à plusieurs contraintes. Nous montrons que la prise en compte des données biologiques par cette méthode permet de mieux reproduire certains phénotypes observés in vivo pour notre modèle d'étude du métabolisme énergétique du parasite Trypanosoma brucei. Les résultats obtenus ont ainsi permis de fournir des éléments d'explication pour comprendre la flexibilité du flux de ce métabolisme, qui étaient cohérentes avec les données expérimentales. Dans un second temps, nous nous sommes intéressés à une catégorie particulière d'ARN non codants appelés sRNAs, qui sont impliqués dans la régulation de la réponse cellulaire aux variations environnementales. Nous avons développé une approche permettant de mieux prédire les interactions qu'ils effectuent avec d'autres ARN en nous basant sur une prédiction des interactions, une analyse par enrichissement du contexte biologique de ces cibles, et en développant un système de visualisation spécialement adapté à la manipulation de ces données. Nous avons appliqué notre méthode pour l'étude des sRNAs de la bactérie Escherichia coli. Les prédictions réalisées sont apparues être en accord avec les données expérimentales disponibles, et ont permis de proposer plusieurs nouvelles cibles candidates.The identification of the interactions occurring at the molecular level is crucial to understand the life process. The aim of this work was to develop methods to model and to predict these interactions for the metabolism and the regulation of transcription. We modeled these systems by graphs and automata.Firstly, we developed a method to test and to predict the flux distribution in a metabolic network, which consider the formulation of several constraints. We showed that this method can better mimic the in vivo phenotype of the energy metabolism of the parasite Trypanosoma brucei. The results enabled to provide a good explanation of the metabolic flux flexibility, which were consistent with the experimental data. Secondly, we have considered a particular class of non-coding RNAs called sRNAs, which are involved in the regulation of the cellular response to environmental changes. We developed an approach to better predict their interactions with other RNAs based on the interaction prediction, an enrichment analysis, and by developing a visualization system adapted to the manipulation of these data. We applied our method to the study of the sRNAs interactions within the bacteria Escherichia coli. The predictions were in agreement with the available experimental data, and helped to propose several new target candidates.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    Vers une vision systémique du processus de l'explication : récit d'une recherche sur l'intégration de la pédagogie, de l'ingénierie et de la modélisation

    Full text link
    Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal

    Étude du potentiel de OLAP pour supporter l'analyse spatio-temporelle

    Get PDF
    Québec Université Laval, Bibliothèque 201

    Tractographie par IRM de diffusion : algorithmes, validation, reproductibilité et applications

    Get PDF
    La tractographie gagne de plus en plus en importance dans les études cliniques car elle est l'unique modalité d'imagerie en mesure de caractériser in vivo l'architecture et l'intégrité des fibres de la substance blanche. Toutefois, la disponibilité croissante de modèles de diffusion et d'algorithmes de tractographie rend le choix d'une méthode de reconstruction de fibres difficile. Plus important encore, les performances et la reproductibilité de chaque méthode peuvent varier. Cette dernière considération souligne la difficulté de validation des méthodes de tractographie étant donné qu'aucune réalité terrain n'est disponible. Dans ce travail de thèse, nous avons dans un premier temps implémenté et intégré quatre différents algorithmes de tractographie par Imagerie de Tenseur de Diffusion à un logiciel de neuroimagerie. Trois déterministes et un autre probabiliste. Ensuite, nous avons étudié la validation de ces algorithmes sur des données fantôme qui simule une réalité terrain, offrant différentes configurations complexes de fibres. La reproductibilité des algorithmes implémentés a été étudiée sur des données réelles, chez 12 sujets sains en variant la résolution angulaire et en prenant comme faisceau test, le faisceau corticospinal. Les résultats obtenus ont montré une meilleure reproductibilité de l'algorithme probabiliste en conjonction avec une haute résolution angulaire. Enfin, sachant que dans certaines maladies, l'asymétrie entre les faisceaux concernés devrait être différente de celle des sujets sains, nous avons utilisé l'algorithme le plus reproductible pour examiner chez des sujets sains les degrés d'asymétries macro et microstructurale du faisceau corticospinal.Tractography is gaining increasing importance in clinical studies because it is the only imaging modality able to characterize in vivo the architecture and integrity of white matter fibers. However, the increasing availability of diffusion models and tractography algorithms makes the choice of a fiber reconstruction method difficult. More important, the performance and reproducibility of each method can vary. This last observation underscores the difficulty of validating tractography methods since no ground truth is available. In this work, we initially implemented and integrated four different Diffusion Tensor Imaging tractography algorithms in neuroimaging software. Three deterministic and one probabilistic. Next, we studied the validation of these algorithms on phantom data which simulates a given ground truth, offering various complex configurations of fibers. The reproducibility of the implemented algorithms has been studied on real data, in 12 healthy subjects by varying the angular resolution and taking as tractus test, the corticospinal tract. The results showed a better reproducibility of the probabilistic algorithm in conjunction with high angular resolution. Finally, in some diseases, the asymmetry between the tractus involved should be different from that of healthy subjects, we used the most reproducible algorithm to investigate in healthy subjects the levels of macro and microstructural asymmetries in the corticospinal tract

    Actes de la conférence conjointe JEP-TALN-RECITAL 2016, volume 09 : ELTAL

    Get PDF
    National audienceELTAL is a workshop organized within the JEP-TALN-RECITAL 2016 conference. This workshop brings together papers investigating metdods and applications in NLP applied to language teaching.ELTAL est un atelier organisé au sein de la conférence JEP-TALN-RECITAL 2016 et regroupe des contributions qui étudient les méthodes et les applications en TAL dans le domaine de l'enseignement des langues
    • …
    corecore