10 research outputs found

    Vers l'automatisation de la mise à jour des bases de données spatio-temporelles d'aide à la navigation : cas d'une base de données pour la navigation des personnes à mobilité réduite

    Get PDF
    De nos jours, les systèmes d'aide à la navigation occupent une place de plus en plus importante dans la vie quotidienne. Toutefois, leur potentiel est mal exploité pour le déplacement des personnes à mobilité réduite (PMR). À cet égard, le projet MobiliSIG a vu le jour. Son objectif est de développer une solution d'assistance multimodale mobile selon les principes de la conception cognitive pour la navigation des PMR. Au cœur de cette solution se trouve une base de données d'accessibilité dont l'usage permettra de proposer des itinéraires adaptés aux profils des utilisateurs. Cependant, vu que l'environnement évolue et que certains obstacles ont un caractère spatio-temporel, l'outil développé doit être doté d'un système qui lui permettra de rester continuellement à jour. L'objectif global assigné à notre projet est la conception d'un système automatique de mise à jour (MÀJ) continuelle des données d'accessibilité en temps quasi-réel à partir de données multi-sources hétérogènes. Pour ce faire, tout d'abord, nous avons passé en revue la littérature inhérente aux concepts relatifs à notre problématique. Ensuite, nous avons créé et implémenté une ontologie d'obstacles/facilitateurs sur la base des facteurs environnementaux de la classification PPH afin d'identifier et de bien cibler les données spatio-temporelles d'accessibilité. Par la suite, nous avons déterminé les besoins et fonctionnalités utiles à notre système de MÀJ à travers la présentation et l'analyse des spécifications des données d'accessibilité et de différents scénarios de cas d'utilisations. Finalement, en s'inspirant des concepts fondamentaux des processus ETL et des architectures orientées services, nous avons proposé une solution composée d'une couche d'extraction automatique de multi-sources; une couche de transformation qui répond au besoin du multi-formats; une application web pour les collaborateurs; et un service web de MÀJ chargé des tâches de traitement automatique et en temps quasi-réel de l'information reçue de multi-sources en effectuant l'analyse syntaxique et sémantique, la géolocalisation, le géocodage, la projection du système de référence le cas échéant, la validation et le contrôle d'unicité avant de procéder au chargement. Les résultats des tests et validations du prototype développé ont permis de confirmer l'atteinte de l'objectif de la recherche

    Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel

    Get PDF
    Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause.In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances

    Intégration holistique et entreposage automatique des données ouvertes

    Get PDF
    Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations.Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un système décisionnel. Leur intégration et leur entreposage au sein du système décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problèmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problème d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modèle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations

    Conception d'une légende interactive et forable pour le SOLAP

    Get PDF
    Afin de palier au manque d'efficacité des SIG en tant qu'outil d'aide à la décision (granularités multiples, rapidité, convivialité, temporalité), différentes saveurs d'outils SOLAP (Spatial OLAP) ont vu le jour dans les centres de recherche et fournisseurs de logiciels (CRG/Kheops/Syntell, SFU/DBMiner, Proclarity, Cognos, Microsoft, Beyond 20/20, ESRI, MapInfo, etc.). Combinant des fonctions SIG avec l'informatique décisionnelle (entrepôts de données, OLAP, data mining), le SOLAP est décrit comme un "logiciel de navigation rapide et facile dans les bases de données spatiales qui offre plusieurs niveaux de granularité d'information, plusieurs époques, plusieurs thèmes et plusieurs modes de visualisation synchronisés ou non: cartes, tableaux et graphiques statistiques (Bédard 2004). Le SOLAP facilite l'exploration volontaire des données spatiales pour aider l'utilisateur à détecter les corrélations d'informations, les regroupements potentiels, les tendances dissimulées dans un amas de données à référence spatiale, etc. Le tout se fait par simple sélection/click de souris (pas de langage SQL) et des opérations simples comme : le forage, le remontage ou le forage latéral. Il permet à l'utilisateur de se focaliser sur les résultats des opérations au lieu de l'analyse du processus de navigation. Le SOLAP étant amené à prendre de l'essor au niveau des fonctions qu'il propose, il devient important de proposer des améliorations à son interface à l'usager de manière à conserver sa facilité d'utilisation. Le développement d'une légende interactive et forable fut la première solution en ce genre proposée par Bédard (Bédard 1997). Nous avons donc retenu cette piste pour la présente recherche, étudié la sémiologie graphique et son applicabilité à l'analyse multidimensionnelle, analysé ce qui existait dans des domaines connexes, exploré différentes alternatives permettant de résoudre le problème causé par l'enrichissement des fonctions de navigation, construit un prototype, recueilli des commentaires d'utilisateurs SOLAP et proposé une solution. Tout au long de cette recherche, nous avons été confrontés à une absence de littérature portant explicitement sur le sujet (les SOLAP étant trop nouveaux), à des corpus théoriques qu'il fallait adapter (sémiologie, interface homme-machine, visualisation scientifique, cartographie dynamique) et à des besoins en maquettes et prototypes pour illustrer les solutions envisagées. Finalement, cette recherche propose une solution parmi plusieurs; cependant, son principal intérêt est davantage l'ensemble des réflexions et considérations mises de l'avant tout au long du mémoire pour arriver au résultat proposé que la solution proposée en elle-même. Ce sont ces réflexions théoriques et pratiques qui permettront d'améliorer l'interface à l'usager de tout outil SOLAP grâce au nouveau concept de légende interactive et forable

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année

    Une approche pour supporter l'analyse qualitative des suites d'actions dans un environnement géographique virtuel et dynamique : l'analyse " What-if " comme exemple

    Get PDF
    Nous proposons une approche basée sur la géosimulation multi-agent et un outil d’aide à la décision pour supporter l’analyse « What-if » durant la planification des suites d’actions (plans) dans un environnement géographique dynamique. Nous présentons les caractéristiques du raisonnement « What-if » en tant 1) que simulation mentale 2) suivant un processus en trois étapes et 3) basé sur du raisonnement causal qualitatif. Nous soulignons les limites de la cognition humaine pour appliquer ce raisonnement dans le cadre de la planification des suites d’actions dans un environnement géographique dynamique et nous identifions les motivations de notre recherche. Ensuite, nous présentons notre approche basée sur la géosimulation multi-agent et nous identifions ses caractéristiques. Nous traitons en particulier trois problématiques majeures. La première problématique concerne la modélisation des phénomènes géographiques dynamiques. Nous soulignons les limites des approches existantes et nous présentons notre modèle basé sur le concept de situation spatio-temporelle que nous représentons en utilisant le formalisme de graphes conceptuels. En particulier, nous présentons comment nous avons défini ce concept en nous basant sur les archétypes cognitifs du linguiste J-P. Desclés. La deuxième problématique concerne la transformation des résultats d’une géosimulation multi-agent en une représentation qualitative exprimée en termes de situations spatio-temporelles. Nous présentons les étapes de traitement de données nécessaires pour effectuer cette transformation. La troisième problématique concerne l’inférence des relations causales entre des situations spatio-temporelles. En nous basant sur divers travaux traitant du raisonnement causal et de ses caractéristiques, nous proposons une solution basée sur des contraintes causales spatio-temporelles et de causalité pour établir des relations de causation entre des situations spatio-temporelles. Finalement, nous présentons MAGS-COA, une preuve de concept que nous avons implémentée pour évaluer l’adéquation de notre approche comme support à la résolution de problèmes réels. Ainsi, les principales contributions de notre travail sont: 1- Une approche basée sur la géosimulation multi-agent pour supporter l’analyse « What-if » des suites d’actions dans des environnements géographiques virtuels. 2- L’application d’un modèle issu de recherches en linguistique à un problème d’intérêt pour la recherche en raisonnement spatial. 3- Un modèle qualitatif basé sur les archétypes cognitifs pour modéliser des situations dynamiques dans un environnement géographique virtuel. 4- MAGS-COA, une plateforme de simulation et d’analyse qualitative des situations spatio-temporelles. 5- Un algorithme pour l’identification des relations causales entre des situations spatio-temporelles.We propose an approach and a tool based on multi-agent geosimulation techniques in order to support courses of action’s (COAs) “What if” analysis in the context of dynamic geographical environments. We present the characteristics of “What if” thinking as a three-step mental simulation process based on qualitative causal reasoning. We stress humans’ cognition limits of such a process in dynamic geographical contexts and we introduce our research motivations. Then we present our multi-agent geosimulation-based approach and we identify its characteristics. We address next three main problems. The first problem concerns modeling of dynamic geographical phenomena. We stress the limits of existing models and we present our model which is based on the concept of spatio-temporal situations. Particularly, we explain how we define our spatio-temporal situations based on the concept of cognitive archetypes proposed by the linguist J-P. Desclés. The second problem consists in transforming the results of multi-agent geosimulations into a qualitative representation expressed in terms of spatio-temporal situations and represented using the conceptual graphs formalism. We present the different steps required for such a transformation. The third problem concerns causal reasoning about spatio-temporal situations. In order to address this problem, we were inspired by works of causal reasoning research community to identify the constraints that must hold to identify causal relationships between spatio-temporal situations. These constraints are 1) knowledge about causality, 2) temporal causal constraints and 3) spatial causal constraints. These constraints are used to infer causal relationships among the results of multi-agent geosimulations. Finally, we present MAGS-COA, a proof on concept that we implemented in order to evaluate the suitability of our approach as a support to real problem solving. The main contributions of this thesis are: 1- An approach based on multi-agent geosimulation to support COA’s “What if” analysis in the context of virtual geographic environments. 2- The application of a model proposed in the linguistic research community to a problem of interest to spatial reasoning research community. 3- A qualitative model based on cognitive archetypes to model spatio-temporal situations. 4- MAGS-COA, a platform of simulation and qualitative analysis of spatio-temporal situations. 5- An algorithm to identify causal relationships between spatio-temporal situations

    Dynamiques socio-spatiales et modes d'habiter des espaces urbains : comparaison de Besançon, Mulhouse et Strasbourg

    Get PDF
    The spatial distribution of urban functions and populations is not random, this distribution canhighlight inequalities which call into question our democratic societies based on the principle ofequality. This principle is based on the relationship between the “social” and the “spatial” whichmainly consist in investigating social disparities in urban areas and what is perceived as an injustice byindividuals. To understand these socio-spatial dynamics, we focus our research on the urban history ofBesançon, Mulhouse and Strasbourg as well as the relations between the inhabitants and theirresidential environment. Using large geo-localized databases from INSEE, we study the spatialdistribution of households and its evolution over a period of nearly twenty years (1990-2007). Inaddition, we seek to observe the various ways of living of the residents of Besançon, that is to say theirresidential logics and their spatial practices and representations via field surveys. Thus, this thesis isbased on a double approach: the first one is macroscopic, historic and quantitative and the second oneis microscopic and qualitative. The study presents the socio-spatial structures of the studied cities andthe trajectories of districts (more exactly the IRIS: the smaller census area) in order to show thedifferent trends of evolution (gentrification, pauperisation...) in a comparative perspective. Specificfactors of evolution are also linked to the location of the studied cities as well as to their urban andsocial functions, their internal organisation and their size. The field surveys, for their part, revealseveral behavioural rules that we compare considering the social diversity of districts. Thisinformation collected from surveys is more subjective, but it completes the census data and gives themmeaning. Finally, we show that the membership of a socio-spatial group does not determinesystematically residential behaviours.La répartition spatiale des fonctions et des populations urbaines n’est pas due au hasard, elle peutmettre en évidence des inégalités qui interrogent nos sociétés démocratiques fondées avant tout sur leprincipe d’égalité. Celui-ci s’appuie sur les relations entre le « social » et le « spatial » qui consistentprincipalement à explorer les inégalités sociales dans les espaces urbains et ce qui est ressenti commeune injustice par les individus. Pour saisir ces dynamiques socio-spatiales, nous focalisons notrerecherche sur l’histoire urbaine de Besançon, Mulhouse et Strasbourg ainsi que sur les rapports entreles habitants et leur environnement résidentiel. À l’aide des grandes bases de données géo-localiséesde l’INSEE, nous étudions la distribution spatiale des ménages ainsi que son évolution sur une périodede près de vingt années (de 1990 à 2007). Par ailleurs, nous cherchons à observer les différents modesd’habiter des Bisontins, c’est-à-dire leurs stratégies résidentielles ainsi que leurs pratiques etreprésentations spatiales à l’aide d’enquêtes de terrain. Cette thèse s’appuie donc sur une doubleapproche : l’une macroscopique, historique et quantitative et l’autre microscopique et qualitative. Elleprésente finalement les structures socio-spatiales des zones d’étude et les trajectoires des quartiers(plus précisément des IRIS) afin de montrer les diverses tendances d’évolution (gentrification,paupérisation…) dans une optique comparative. Des facteurs d’évolution spécifiques apparaissentégalement en lien avec la localisation des villes d’étude ainsi qu’avec leurs fonctions urbaines etsociales, leur organisation interne et leur taille. Les enquêtes révèlent, pour leur part, plusieurs règlescomportementales qu’il s’agit de comparer compte tenu de la diversité sociale des quartiers. Cesinformations collectées à partir d’enquêtes sont plus subjectives, mais elles complètent les données desrecensements et leur donnent du sens. Au final, elles montrent que l’appartenance à un groupe sociospatialene détermine pas systématiquement les comportements résidentiels

    13th International Conference on Modeling, Optimization and Simulation - MOSIM 2020

    Get PDF
    Comité d’organisation: Université Internationale d’Agadir – Agadir (Maroc) Laboratoire Conception Fabrication Commande – Metz (France)Session RS-1 “Simulation et Optimisation” / “Simulation and Optimization” Session RS-2 “Planification des Besoins Matières Pilotée par la Demande” / ”Demand-Driven Material Requirements Planning” Session RS-3 “Ingénierie de Systèmes Basées sur les Modèles” / “Model-Based System Engineering” Session RS-4 “Recherche Opérationnelle en Gestion de Production” / "Operations Research in Production Management" Session RS-5 "Planification des Matières et des Ressources / Planification de la Production” / “Material and Resource Planning / Production Planning" Session RS-6 “Maintenance Industrielle” / “Industrial Maintenance” Session RS-7 "Etudes de Cas Industriels” / “Industrial Case Studies" Session RS-8 "Données de Masse / Analyse de Données” / “Big Data / Data Analytics" Session RS-9 "Gestion des Systèmes de Transport” / “Transportation System Management" Session RS-10 "Economie Circulaire / Développement Durable" / "Circular Economie / Sustainable Development" Session RS-11 "Conception et Gestion des Chaînes Logistiques” / “Supply Chain Design and Management" Session SP-1 “Intelligence Artificielle & Analyse de Données pour la Production 4.0” / “Artificial Intelligence & Data Analytics in Manufacturing 4.0” Session SP-2 “Gestion des Risques en Logistique” / “Risk Management in Logistics” Session SP-3 “Gestion des Risques et Evaluation de Performance” / “Risk Management and Performance Assessment” Session SP-4 "Indicateurs Clés de Performance 4.0 et Dynamique de Prise de Décision” / ”4.0 Key Performance Indicators and Decision-Making Dynamics" Session SP-5 "Logistique Maritime” / “Marine Logistics" Session SP-6 “Territoire et Logistique : Un Système Complexe” / “Territory and Logistics: A Complex System” Session SP-7 "Nouvelles Avancées et Applications de la Logique Floue en Production Durable et en Logistique” / “Recent Advances and Fuzzy-Logic Applications in Sustainable Manufacturing and Logistics" Session SP-8 “Gestion des Soins de Santé” / ”Health Care Management” Session SP-9 “Ingénierie Organisationnelle et Gestion de la Continuité de Service des Systèmes de Santé dans l’Ere de la Transformation Numérique de la Société” / “Organizational Engineering and Management of Business Continuity of Healthcare Systems in the Era of Numerical Society Transformation” Session SP-10 “Planification et Commande de la Production pour l’Industrie 4.0” / “Production Planning and Control for Industry 4.0” Session SP-11 “Optimisation des Systèmes de Production dans le Contexte 4.0 Utilisant l’Amélioration Continue” / “Production System Optimization in 4.0 Context Using Continuous Improvement” Session SP-12 “Défis pour la Conception des Systèmes de Production Cyber-Physiques” / “Challenges for the Design of Cyber Physical Production Systems” Session SP-13 “Production Avisée et Développement Durable” / “Smart Manufacturing and Sustainable Development” Session SP-14 “L’Humain dans l’Usine du Futur” / “Human in the Factory of the Future” Session SP-15 “Ordonnancement et Prévision de Chaînes Logistiques Résilientes” / “Scheduling and Forecasting for Resilient Supply Chains

    Cohérence logique dans les systèmes OLAP spatiaux : un état de l'art

    No full text
    International audienceLes systèmes d'Entrepôts de Données et « OnLine Analytical Process » spatiaux (EDS et SOLAP) sont des technologies d'aide à la décision permettant l'agrégation et l'analyse multidimensionnelle de gros volumes de données spatiales. En réponse à des actions utilisateurs sur l'interface cliente (exploration), les systèmes SOLAP agrègent les données de l'EDS le long de différentes hiérarchies des dimensions pour calculer des indicateurs d'analyse à différents niveaux de détails. La qualité des indicateurs d'analyse dépend donc de trois facteurs : la qualité des données entreposées, la qualité des agrégations et la qualité de l'exploration des données.La qualité des données entreposées dépend de critères comme la précision, l'exhaustivité et la cohérence logique. La cohérence logique des données est généralement contrôlée par les contraintes d'intégrité qui définissent les conditions que les données doivent satisfaire. La qualité d'agrégation peut être ramenée à la cohérence logique entre les natures des éléments qui sont impliqués dans l'agrégation SOLAP (par ex., mesure, fonction d'agrégation). Cette cohérence d'agrégation est affectée par des problèmes structurels et de problèmes sémantiques. La qualité d'exploration dépend essentiellement de la consistance des requêtes utilisateur (par ex. quelles ont été les valeurs de température en URSS en 2010 ?). Dans cette article nous étendons la notion de cohérence logique des données aux deux autres composantes fondamentales des systèmes SOLAP, à savoir l'agrégation et la requête. Nous présentons un état de l'art et des travaux sur la définition des contraintes d'intégrité pour garantir la cohérence logique au niveau des trois composantes (données, agrégations, et requêtes), ainsi qu' une évaluation de ces travaux et de notre proposition par rapport à un ensemble de critères que nous avons définis. Cette évaluation montre que notre proposition satisfait tous les critères contrairement aux autres
    corecore