6 research outputs found

    Intégration des algorithmes de généralisation et des patrons géométriques pour la création des objets auto-généralisants (SGO) afin d'améliorer la généralisation cartographique à la volée

    Get PDF
    Le développement technologique de ces dernières années a eu comme conséquence la démocratisation des données spatiales. Ainsi, des applications comme la cartographie en ligne et les SOLAP qui permettent d’accéder à ces données ont fait leur apparition. Malheureusement, ces applications sont très limitées du point de vue cartographique car elles ne permettent pas une personnalisation flexible des cartes demandées par l’utilisateur. Pour permettre de générer des produits plus adaptés aux besoins des utilisateurs de ces technologies, les outils de visualisation doivent permettre entre autres de générer des données à des échelles variables choisies par l'utilisateur. Pour cela, une solution serait d’utiliser la généralisation cartographique automatique afin de générer les données à différentes échelles à partir d’une base de données unique à grande échelle. Mais, compte tenu de la nature interactive de ces applications, cette généralisation doit être réalisée à la volée. Depuis plus de trois décennies, la généralisation automatique est devenue un sujet de recherche important. Malheureusement, en dépit des avancées considérables réalisées ces dernières années, les méthodes de généralisation cartographique existantes ne garantissent pas un résultat exhaustif et une performance acceptable pour une généralisation à la volée efficace. Comme, il est actuellement impossible de créer à la volée des cartes à des échelles arbitraires à partir d’une seule carte à grande échelle, les résultats de la généralisation (i.e. les cartes à plus petites échelles générées grâce à la généralisation cartographique) sont stockés dans une base de données à représentation multiple (RM) en vue d’une éventuelle utilisation. Par contre, en plus du manque de flexibilité (car les échelles sont prédéfinies), la RM introduit aussi la redondance à cause du fait que plusieurs représentations de chaque objet sont stockées dans la même base de données. Tout ceci empêche parfois les utilisateurs d’avoir des données avec un niveau d’abstraction qui correspond exactement à leurs besoins. Pour améliorer le processus de la généralisation à la volée, cette thèse propose une approche basée sur un nouveau concept appelé SGO (objet auto-généralisant: Self-Generalizing Object). Le SGO permet d’encapsuler des patrons géométriques (des formes géométriques génériques communes à plusieurs objets de la carte), des algorithmes de généralisation et des contraintes d’intégrité dans un même objet cartographique. Les SGO se basent sur un processus d’enrichissement de la base de données qui permet d’introduire les connaissances du cartographe dans les données cartographiques plutôt que de les générer à l’aide des algorithmes comme c’est typiquement le cas. Un SGO est créé pour chaque objet individuel (ex. un bâtiment) ou groupe d’objets (ex. des bâtiments alignés). Les SGO sont dotés de comportements spécifiques qui leur permettent de s'auto-généraliser, c.-à-d. de savoir comment généraliser l’objet qu’ils représentent lors d’un changement d’abstraction (ex. changement d’échelle). Comme preuve de concept, deux prototypes basés sur des technologies Open Source ont été développés lors de cette thèse. Le premier permet la création des SGO et l’enrichissement de la base de données. Le deuxième prototype basé sur la technologie multi-agent, utilise les SGO créés pour générer des données à des échelles arbitraires grâce à un processus de généralisation à la volée. Pour tester les prototypes, des données réelles de la ville de Québec à l’échelle 1 : 1000 ont été utilisées.With the technological development of these past years, geospatial data became increasingly accessible to general public. New applications such as Webmapping or SOLAP which allow visualising the data also appeared. However, the dynamic and interactive nature of these new applications requires that all operations, including generalization processes, must be carried on-the–fly. Automatic generalization has been an important research topic for more than thirty years. In spite of recent advances, it clearly appears that actual generalization methods can not reach alone the degree of automation and the response time needed by these new applications. To improve the process of on-the-fly map generalization, this thesis proposes an approach based on a new concept called SGO (Self-generalizing object). The SGO allows to encapsulate geometric patterns (generic geometric forms common to several map features), generalization algorithms and the spatial integrity constraints in the same object. This approach allows us to include additional human expertise in an efficient way at the level of individual cartographic features, which then leads to database enrichment that better supports automatic generalization. Thus, during a database enrichment process, a SGO is created and associated with a cartographic feature, or a group of features. Then, each created SGO is transformed into a software agent (SGO agent) in order to give them autonomy. SGO agents are equipped with behaviours which enable them to coordinate the generalization process. As a proof of concept, two prototypes based on Open Source technologies were developed in this thesis. The first prototype allows the creation of the SGO. The second prototype based on multi-agents technology, uses the created SGO in order to generate data on arbitrary scales thanks to an on-the-fly map generalization process. Real data of Quebec City at scale 1: 1000 were used in order to test the developed prototypes

    Étude de la visualisation géographique dans un environnement d'exploration interactive de données géodécisionnelles : adaptation et améliorations

    Get PDF
    La visualisation géographique de l'information est un aspect important du SOLAP. Elle est le troisième élément clé pour supporter une analyse facile, rapide et intuitive des données prônée par l'approche SOLAP. Cependant, à ce jour, aucune étude ne s'est intéressée spécifiquement à cet aspect du SOLAP et les stratégies de visualisation utilisées traditionnellement dans les SIG ne conviennent pas à l'approche interactive et multidimensionnelle. Ce mémoire présente une recherche exploratoire proposant premièrement de placer la visualisation géographique au coeur de la relation entre l'utilisateur et la base de données. Cette stratégie fait ressurgir plusieurs besoins et possibilités explorées au cours de ce mémoire. Le respect de la flexibilité d'analyse SOLAP, les divers types de visualisation nécessaires pour rendre les différents types de requêtes, puis les manipulations graphiques qui peuvent s'opérer dans un environnement SOLAP font l'objet de propositions. Deuxièmement, ce mémoire propose une méthode permettant une relation directe entre les données et leur visualisation, sans l'intermédiaire de l'utilisateur. La solution théorique résultante respecte la philosophie d'exploration interactive prônée par l'approche SOLAP. Elle suggère l'intégration de l'expertise en visualisation géographique à l'intérieur même de la technologie SOLAP par l'ajout de métadonnées et d'une base de connaissances sémiologiques. Ce premier pas vers une amélioration du processus de visualisation avec SOLAP ouvre la porte à plusieurs recherches ultérieures

    Analyse multidimensionnelle interactive de résultats de simulation (aide à la décision dans le domaine de l'agroécologie)

    Get PDF
    Dans cette thèse, nous nous sommes intéressés à l'analyse des données de simulation issues du modèle agro-hydrologique TNT. Les objectifs consistaient à élaborer des méthodes d'analyse des résultats de simulation qui replacent l'utilisateur au coeur du processus décisionnel, et qui permettent d'analyser et d'interpréter de gros volumes de données de manière efficace. La démarche développée consiste à utiliser des méthodes d'analyse multidimensionnelle interactive. Tout d'abord, nous avons proposé une méthode d'archivage des résultats de simulation dans une base de données décisionnelle (i.e. entrepôt de données), adaptée au caractère spatio-temporel des données de simulation produites. Ensuite, nous avons suggéré d'analyser ces données de simulations avec des méthodes d'analyse en ligne (OLAP) afin de fournir aux acteurs des informations stratégiques pour améliorer le processus d'aide à la prise de décision. Enfin, nous avons proposé deux méthodes d'extraction de skyline dans le contexte des entrepôts de données afin de permettre aux acteurs de formuler de nouvelles questions en combinant des critères environnementaux contradictoires, et de trouver les solutions compromis associées à leurs attentes, puis d'exploiter les préférences des acteurs pour détecter et faire ressortir les données susceptibles de les intéresser. La première méthode EC2Sky, permet un calcul incrémental et efficace des skyline en présence de préférences utilisateurs dynamiques, et ce malgré de gros volumes de données. La deuxième méthode HSky, étend la recherche des points skyline aux dimensions hiérarchiques. Elle permet aux utilisateurs de naviguer le long des axes des dimensions hiérarchiques (i.e. spécialisation / généralisation) tout en assurant un calcul en ligne des points skyline correspondants. Ces contributions ont été motivées et expérimentées par l'application de gestion des pratiques agricoles pour l'amélioration de la qualité des eaux des bassins versants agricoles, et nous avons proposé un couplage entre le modèle d'entrepôt de données agro-hydrologiques construit et les méthodes d'extraction de skyline proposées.This thesis concerns the analysis of simulation data generated by the agrohydrological model TNT. Our objective is to develop analytical methods for massive simulation results. We want to place the user at the heart of the decision-making process, while letting him handle and analyze large amounts of data in a very efficient way. Our first contribution is an original approach N-Catch, relying on interactive multidimensional analysis methods for archiving simulation results in a decisional database (i.e. data warehouse) adapted to the spatio-temporal nature of the simulation data. In addition, we suggest to analyze the simulation data with online analytical methods (OLAP) to provide strategic information for stakeholders to improve the decision making process. Our second contribution concern two methods for computing skyline queries in the context of data warehouses. These methods enable stakeholders to formulate new questions by combining conflicting environmental criteria, to find compromise solutions associated with their expectations, and to exploit the stakeholder preferences to identify and highlight the data of potential interest. The first method EC2Sky, focuses on how to answer efficiently and progressively skyline queries in the presence of several dynamic user preferences despite of large volume of data. The second method HSky, extends the skyline computation to hierarchical dimensions. It allows the user to navigate along the dimensions hierarchies (i.e. specialize / generalize) while ensuring the online computation of associated skylines. Finally, we present the application of our proposals for managing agricultural practices to improve water quality in agricultural watersheds. We propose a coupling between the agro-hydrological data warehouse model N-Catch and the proposed skyline computation methods.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Analyse multidimensionnelle interactive de résultats de simulation (aide à la décision dans le domaine de l'agroécologie)

    Get PDF
    Dans cette thèse, nous nous sommes intéressés à l'analyse des données de simulation issues du modèle agro-hydrologique TNT. Les objectifs consistaient à élaborer des méthodes d'analyse des résultats de simulation qui replacent l'utilisateur au coeur du processus décisionnel, et qui permettent d'analyser et d'interpréter de gros volumes de données de manière efficace. La démarche développée consiste à utiliser des méthodes d'analyse multidimensionnelle interactive. Tout d'abord, nous avons proposé une méthode d'archivage des résultats de simulation dans une base de données décisionnelle (i.e. entrepôt de données), adaptée au caractère spatio-temporel des données de simulation produites. Ensuite, nous avons suggéré d'analyser ces données de simulations avec des méthodes d'analyse en ligne (OLAP) afin de fournir aux acteurs des informations stratégiques pour améliorer le processus d'aide à la prise de décision. Enfin, nous avons proposé deux méthodes d'extraction de skyline dans le contexte des entrepôts de données afin de permettre aux acteurs de formuler de nouvelles questions en combinant des critères environnementaux contradictoires, et de trouver les solutions compromis associées à leurs attentes, puis d'exploiter les préférences des acteurs pour détecter et faire ressortir les données susceptibles de les intéresser. La première méthode EC2Sky, permet un calcul incrémental et efficace des skyline en présence de préférences utilisateurs dynamiques, et ce malgré de gros volumes de données. La deuxième méthode HSky, étend la recherche des points skyline aux dimensions hiérarchiques. Elle permet aux utilisateurs de naviguer le long des axes des dimensions hiérarchiques (i.e. spécialisation / généralisation) tout en assurant un calcul en ligne des points skyline correspondants. Ces contributions ont été motivées et expérimentées par l'application de gestion des pratiques agricoles pour l'amélioration de la qualité des eaux des bassins versants agricoles, et nous avons proposé un couplage entre le modèle d'entrepôt de données agro-hydrologiques construit et les méthodes d'extraction de skyline proposées.This thesis concerns the analysis of simulation data generated by the agrohydrological model TNT. Our objective is to develop analytical methods for massive simulation results. We want to place the user at the heart of the decision-making process, while letting him handle and analyze large amounts of data in a very efficient way. Our first contribution is an original approach N-Catch, relying on interactive multidimensional analysis methods for archiving simulation results in a decisional database (i.e. data warehouse) adapted to the spatio-temporal nature of the simulation data. In addition, we suggest to analyze the simulation data with online analytical methods (OLAP) to provide strategic information for stakeholders to improve the decision making process. Our second contribution concern two methods for computing skyline queries in the context of data warehouses. These methods enable stakeholders to formulate new questions by combining conflicting environmental criteria, to find compromise solutions associated with their expectations, and to exploit the stakeholder preferences to identify and highlight the data of potential interest. The first method EC2Sky, focuses on how to answer efficiently and progressively skyline queries in the presence of several dynamic user preferences despite of large volume of data. The second method HSky, extends the skyline computation to hierarchical dimensions. It allows the user to navigate along the dimensions hierarchies (i.e. specialize / generalize) while ensuring the online computation of associated skylines. Finally, we present the application of our proposals for managing agricultural practices to improve water quality in agricultural watersheds. We propose a coupling between the agro-hydrological data warehouse model N-Catch and the proposed skyline computation methods.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Formalisation d'un environnement d'aide à l'analyse géovisuelle: Application à la sécurité et sûreté de la maritimisation de l'énergie

    Get PDF
    The maritime space is still a sensitive area due to many accidents and dangers, such as collisions or pirate attacks. In order to ensure the control of safety and security of this area, it is essential to study near real-time movement information (surveillance) or past events (analysis). Controllers and analysts are then faced to large sets of data, which must be studied with systems using maps and other visualizations. However, these tools are limited in terms of analysis capacities. Using geovisual analytics could be used to improve pattern identification, anomalies detection and knowledge discovery. However, due to the complexity of their use, most methods are still at the stage of research, and are not used yet in the operational word for studying maritime risks.In this context, we propose a geovisual analytics support system to guide users in the visualization and the analysis of maritime risks. Our research methodology is based on the formalization of use cases, of users and of several visualization methods. Ontologies and rules are used to create a knowledge-based system, to select adequate solutions for the visualization and the analysis of ships’ trajectories. Some examples for analyzing maritime risks are then presented to illustrate the use of such a system.L’espace maritime est encore aujourd’hui le contexte de nombreux accidents et dangers, comme des collisions ou des attaques pirates. Afin de garantir le contrôle de la sûreté et de la sécurité de cet espace, il est nécessaire d’étudier les données de mouvement en temps réel (surveillance) et les évènements passés (analyse). Contrôleurs et analystes sont alors confrontés à de grandes quantités de données, qui doivent être étudiées grâce à des systèmes utilisant des cartes et autres visualisations. Cependant, ces outils sont limités en termes de capacités d’analyse. L’utilisation de méthodes d’analyse géovisuelle pourrait alors faciliter la reconnaissance de motifs, la détection d’anomalies et la découverte de connaissances. Toutefois, en raison de leur complexité d’utilisation, plusieurs de ces méthodes n’ont pas dépassé le stade académique, et ne sont pas encore utilisées de manière opérationnelle dans l’étude des risques maritimes.Dans ce contexte, nous proposons un environnement d’aide à l’analyse géovisuelle, qui permet de guider l’utilisateur dans la visualisation et l’analyse d’informations pour l’étude des risques maritimes. Notre démarche de thèse se fonde sur la formalisation des cas d’utilisation, des utilisateurs et des méthodes de visualisation. Le recours à des ontologies et des règles permet de concevoir un système à base de connaissances, afin de proposer des méthodes adéquates pour la visualisation et l’analyse des trajectoires de navires. Nous illustrons cette proposition par plusieurs exemples d’analyse de risques en mer

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année
    corecore