65 research outputs found

    Informatisation d’une fouille : réalisation et déploiement du logiciel d’acquisition de données « FrAcTool » (Fressignes Acquisition Tool)

    Get PDF
    Depuis maintenant environ trois ans, une équipe pluridisciplinaire du Muséum National d’Histoire Naturelle (M.N.H.N.) travaille à l’informatisation de la fouille et de l’analyse du gisement solutréen de Fressignes (Indre, France). Cette activité pilote est également suivie dans le cadre d’un groupe de recherche, le Projet Collectif de Recherche “Préhistoire de la vallée moyenne de la Creuse”, avec pour objectifs d’étendre ses résultats à d’autres sites de la région Centre.L’été dernier, au cours de la campagne de fouilles 2000, le logiciel d’acquisition “FrAcTool” a été pour la première fois déployé et utilisé par les préhistoriens dans le cadre du relevé du matériel archéologique de Fressignes.Cet article s’attache à décrire les différentes étapes qui ont abouti à la conception et réalisation du logiciel “FrAcTool” et plus particulièrement les réflexions méthodologiques menées relativement aux problématiques d’acquisition, de gestion et d’exploitation de données archéologiques informatisées.A research team of the Muséum National d’Histoire Naturelle (M.N.H.N.) has been working for three years on the computerisation of the Fressignes solutrean site (Indre, France). This leading activity is also followed by a research project, the Projet Collectif de Recherche “Préhistoire de la vallée moyenne de la Creuse” and aims at extending its results to other sites of the Centre area.Last summer and for the first time during the 2000 campaign, the software “FrAcTool” and associated methodological process were deployed, applied on site and used by archaeologists in the context of archaeological material acquisition and management.This article focuses on the different steps that concluded with the conception and development of the software “FrAcTool”. It also puts the stress on methodological researches led relatively to the problems of acquisition, management and exploitation of computerised archaeological data

    Contrôler les accès aux données numériques

    Get PDF
    International audienceUn modèle de contrôle d’accès comprend : - une politique (ou un règlement) de contrôle d’accès qui spécifie les accès autorisés aux données ; - une politique d’administration qui indique comment la politique de contrôle d’accès peut être mise à jour. Un mécanisme de contrôle d’accès est une solution logicielle ou matérielle pour appliquer une politique de contrôle d’accès. Dans cet article, nous passons d’abord en revue les différents modèles de contrôle d’accès existants en indiquant leur domaine d’application. Ces modèles de contrôle d’accès sont répartis dans différentes catégories. Ainsi, nous considérons les modèles de contrôle d’accès discrétionnaires DAC (Discretionary Access Control), les modèles de contrôle d’accès obligatoires MAC (Mandatory Access Control), les modèles de contrôle d’accès à base de rôles RBAC (Role Based Access Control) et les modèles de contrôle d’accès contextuels CBAC (Context-Based Access Control). Nous étudions ensuite les solutions existantes de contrôle d’accès pour les données relationnelles, XML (eXtensible Markup Language) et RDF (Resource Description Framework) en nous focalisant sur certaines particularités relatives à chacun de ces trois formats de données. Enfin, dans la dernière partie de cet article, nous évoquons les nouveaux enjeux en matière de contrôle d’accès qui sont apparus dans le cadre du réseau Internet, des nouvelles applications dans le nuage (cloud computing) et de l’accroissement exponentiel du volume mondiale de données numériques (Big Data)

    Livre Blanc du consortium Mémoires des Archéologues et des Sites Archéologiques: Guide des bonnes pratiques numériques en archéologie (Le)

    Get PDF
    « Le consortium Mémoires des archéologues et des sites archéologiques (MASA), de la très grande infrastructure de recherche IR* Huma-Num, est né à la fin de l’année 2012 de l’expérience acquise par et au sein de plusieurs Maisons des Sciences de l’Homme dans le domaine de l’archéologie et du traitement de la documentation produite par les archéologues.(…) Les objectifs de ce Livre Blanc sont de synthétiser l’ensemble des bonnes pratiques numériques tout au long du cycle de vie des données pour accompagner la communauté archéologique à publier ses données dans le Web sémantique en assurant leur diffusion. (…) » Ont participé à ce livre blanc : Bruno Baudoin, Loup Bernard, Laure Bézard, Romain Boissat, Pierre-Yves Buard, Agnieszka Halczuk, Florian Hivert, Jamet Hélène, Blandine Nouvel, Xavier Rodier, Miled Rousset, Lizzie Scholtus, Olivier Marle

    Statistique et Big Data Analytics; Volumétrie, L'Attaque des Clones

    Get PDF
    This article assumes acquired the skills and expertise of a statistician in unsupervised (NMF, k-means, SVD) and supervised learning (regression, CART, random forest). What skills and knowledge do a statistician must acquire to reach the "Volume" scale of big data? After a quick overview of the different strategies available and especially of those imposed by Hadoop, the algorithms of some available learning methods are outlined in order to understand how they are adapted to the strong stresses of the Map-Reduce functionalitie

    Analyse en ligne (OLAP) de documents

    Get PDF
    Thèse également disponible sur le site de l'Université Paul Sabatier, Toulouse 3 : http://thesesups.ups-tlse.fr/160/Data warehouses and OLAP systems (On-Line Analytical Processing) provide methods and tools for enterprise information system data analysis. But only 20% of the data of a corporate information system may be processed with actual OLAP systems. The rest, namely 80%, i.e. documents, remains out of reach of OLAP systems due to the lack of adapted tools and processes. To solve this issue we propose a multidimensional conceptual model for representing analysis concepts. The model rests on a unique concept that models both analysis subjects as well as analysis axes. We define an aggregation function to aggregate textual data in order to obtain a summarised vision of the information extracted from documents. This function summarises a set of keywords into a smaller and more general set. We introduce a core of manipulation operators that allow the specification of analyses and their manipulation with the use of the concepts of the model. We associate a design process for the integration of data extracted from documents within an OLAP system that describes the phases for designing the conceptual schema, for analysing the document sources and for the loading process. In order to validate these propositions we have implemented a prototype.Les entrepôts de données et les systèmes d'analyse en ligne OLAP (On-Line Analytical Processing) fournissent des méthodes et des outils permettant l'analyse de données issues des systèmes d'information des entreprises. Mais, seules 20% des données d'un système d'information est constitué de données analysables par les systèmes OLAP actuels. Les 80% restant, constitués de documents, restent hors de portée de ces systèmes faute d'outils ou de méthodes adaptés. Pour répondre à cette problématique nous proposons un modèle conceptuel multidimensionnel pour représenter les concepts d'analyse. Ce modèle repose sur un unique concept, modélisant à la fois les sujets et les axes d'une analyse. Nous y associons une fonction pour agréger des données textuelles afin d'obtenir une vision synthétique des informations issues de documents. Cette fonction résume un ensemble de mots-clefs par un ensemble plus petit et plus général. Nous introduisons un noyau d'opérations élémentaires permettant la spécification d'analyses multidimensionnelles à partir des concepts du modèle ainsi que leur manipulation pour affiner une analyse. Nous proposons également une démarche pour l'intégration des données issues de documents, qui décrit les phases pour concevoir le schéma conceptuel multidimensionnel, l'analyse des sources de données ainsi que le processus d'alimentation. Enfin, pour valider notre proposition, nous présentons un prototype

    Système d'information décisionnel sur les interactions environnement-santé : cas de la Fièvre de la Vallée du Rift au Ferlo (Sénégal)

    Get PDF
    Our research is in part of the QWeCI european project (Quantifying Weather and Climate Impacts on Health in Developing Countries, EU FP7) in partnership with UCAD, the CSE and the IPD, around the theme of environmental health with the practical case on vector-borne diseases in Senegal and particularly the Valley Fever (RVF). The health of human and animal populations is often strongly influenced by the environment. Moreover, research on spread factors of vector-borne diseases such as RVF, considers this issue in its dimension both physical and socio-economic. Appeared in 1912-1913 in Kenya, RVF is a widespread viral anthropo-zoonosis in tropical regions which concerns animals but men can also be affected. In Senegal, the risk area concerns mainly the Senegal River Valley and the forestry-pastoral areas Ferlo. With a Sahelian climate, the Ferlo has several ponds that are sources of water supply for humans and livestock but also breeding sites for potential vectors of RVF. The controlling of the RVF, which is crossroads of three (03) large systems (agro-ecological, pathogen, economic/health/social), necessarily entails consideration of several parameters if one wants to first understand the mechanisms emergence but also consider the work on risk modeling. Our work focuses on the decision making process for quantify the use of health data and environmental data in the impact assessment for the monitoring of RVF. Research teams involved produce data during their investigations periods and laboratory analyzes. The growing flood of data should be stored and prepared for correlated studies with new storage techniques such as datawarehouses. About the data analysis, it is not enough to rely only on conventional techniques such as statistics. Indeed, the contribution on the issue is moving towards a predictive analysis combining both aggregate storage techniques and processing tools. Thus, to discover information, it is necessary to move towards datamining. Furthermore, the evolution of the disease is strongly linked to environmental spatio-temporal dynamics of different actors (vectors, viruses, and hosts), cause for which we rely on spatio-temporal patterns to identify and measure interactions between environmental parameters and the actors involved. With the decision-making process, we have obtained many results :i.following the formalization of multidimensional modeling, we have built an integrated datawarehouse that includes all the objects that are involved in managing the health risk - this model can be generalized to others vector-borne diseases;ii.despite a very wide variety of mosquitoes, Culex neavei, Aedes ochraceus and Aedes vexans are potential vectors of FVR. They are most present in the study area and, during the rainy season period which is most prone to suspected cases; the risk period still remains the month of October;iii.the analyzed ponds have almost the same behavior, but significant variations exist in some points.This research shows once again the interest in the discovery of relationships between environmental data and the FVR with datamining methods for the spatio-temporal monitoring of the risk of emergence.Notre recherche se situe dans le cadre du projet QWECI (Quantifying Weather and Climate Impacts on Health in Developing Countries, UE FP7) en partenariat avec l’UCAD, le CSE et l’IPD, autour de la thématique environnement-santé avec comme cas pratique les maladies à vecteurs au Sénégal et plus particulièrement la Fièvre de la Vallée du Rift (FVR). La santé des populations humaines et animales est souvent fortement influencée par l’environnement. D’ailleurs, la recherche sur les facteurs de propagation des maladies à transmission vectorielle, telle que la FVR, prend en compte cette problématique dans sa dimension aussi bien physique que socio-économique. Apparue en 1912-1913 au Kenya, la FVR est une anthropo-zoonose virale répandue dans les régions tropicales qui concerne principalement les animaux mais dont les hommes peuvent aussi être touchés. Au Sénégal, la zone à risque concerne en majorité la vallée du fleuve Sénégal et la zone sylvo-pastorale du Ferlo. Bien que de climat sahélien, le Ferlo regorge de nombreuses mares qui sont des sources d’approvisionnement en eau pour les hommes et le bétail mais également les gîtes larvaires pour les vecteurs potentiels de la FVR. La maîtrise de la FVR, carrefour de trois (03) grands systèmes (agro-écologique, pathogène, économique/sanitaire/social), implique nécessairement la prise en compte de plusieurs paramètres si l’on veut d’abord comprendre les mécanismes d’émergence mais aussi envisager le travail de modélisation du risque. Notre travail porte sur le processus décisionnel pour quantifier l’utilisation de données sanitaires et environnementales dans l’évaluation de leur impact pour le suivi de la FVR. Les équipes de recherche impliquées produisent des données lors de leurs enquêtes de terrains et des analyses de laboratoire. Ce flot de données croissant devrait être stocké et préparé à des études corrélées grâce aux nouvelles techniques de stockage que sont les entrepôts de données. A propos de l’analyse des données, il ne suffit pas de s’appuyer seulement sur les techniques classiques telles que les statistiques. En effet, la valeur ajoutée de contribution sur la question s’oriente vers une analyse prédictive combinant à la fois les techniques agrégées de stockage et des outils de traitement. Ainsi, pour la découverte d’informations, nouvelles et pertinentes à priori non évidentes, il est nécessaire de s’orienter vers la fouille de données. Par ailleurs, l’évolution de la maladie étant fortement liée à la dynamique spatio-temporelle environnementale des différents acteurs (vecteurs, virus et hôtes), cause pour laquelle nous nous appuyons sur les motifs spatio-temporels pour identifier et mesurer certaines interactions entre les paramètres environnementaux et les acteurs impliqués. Grâce au processus décisionnel, les résultats qui en découlent sont multiples :i.suivant la formalisation de la modélisation multidimensionnelle, nous avons construit un entrepôt de données intégré qui regroupe l’ensemble des objets qui participent à la gestion du risque sanitaire – ce modèle peut être généralisé aux maladies à vecteurs ;ii.malgré une très grande variété de moustiques, les Culex de type neavei et les Aedes de type ochraceus et vexans sont les vecteurs potentiels de la FVR les plus présents dans la zone d’étude et ce, durant la saison des pluies, période la plus sujette à des cas suspects ; la période à risque reste quand même le mois d’octobre ;iii.les mares analysées ont quasiment le même comportement, mais des variations significatives subsistent par endroits.Ce travail de recherche démontre une fois de plus l’intérêt pour la mise en évidence des relations entre les données environnementales et la FVR à partir de méthodes de fouille de données, pour la surveillance spatio-temporelle du risque d’émergence

    Vers une optimisation du processus d'analyse en ligne de données 3D : cas des fouilles archéologiques

    Get PDF
    L'archéologie est une discipline des sciences humaines dont l'objet d'étude est l'ensemble des vestiges matériels laissés par l'Homme (objets, bâtiments, infrastructures, paysages...). Une technique précise, la fouille, est employée afin de tirer toutes les informations possibles des sols et structures fouillés en tenant compte de la localisation exacte des objets découverts, de l'étude de la succession des différentes couches de terrain déblayé afin de pouvoir procéder à une datation stratigraphique. L'analyse d'une fouille archéologique demande souvent beaucoup d'efforts pour l'archéologue car, à ce jour, aucun système informatique n'a permis de clairement les aider dans l'analyse de leurs données. Ainsi, pour exploiter des données issues d'une fouille archéologique, nous avons identifié trois critères : la rapidité et la facilité d'utilisation, la possibilité de faire évoluer les données dans le système (les interprétations de l'archéologue suivant des heuristiques qui ne peuvent pas toujours être formalisées de façon absolue) et la visualisation tridimensionnelle. L'outil d'analyse en ligne de type SOLAP est optimisé pour une analyse interactive dite multidimensionnelle où les requêtes, même celles de types agrégatives sont simples et leurs réponses sont rapides. Reste donc à l'optimiser sur les deux autres critères retenus pour exploiter les données issues d'une fouille archéologique et qui marquent les principales faiblesses de l'outil : l'évolution des données pendant la phase d'analyse et l'intégration de la 3e dimension. Ce projet de maîtrise vise à apporter des nouveaux concepts permettant à un utilisateur de réviser ces données pendant sa phase d'analyse. Par la suite, un prototype appliqué à l'archéologie a été élaboré afin de vérifier simplement si les efforts pour réviser des données pouvaient être compatibles avec les efforts d'un outil d'analyse en ligne en conservant la fluidité d'exploration interactive. D'autre part, ce projet de maîtrise a permis d'étudier la faisabilité d'un SOLAP 3D et de soulever une interrogation sur la nécessité d'introduire la 3e dimension à un outil d'analyse en ligne

    Actes de la conférence BDA 2014 : Gestion de données - principes, technologies et applications

    No full text
    International audienceActes de la conférence BDA 2014 Conférence soutenue par l'Université Joseph Fourier, Grenoble INP, le CNRS et le laboratoire LIG. Site de la conférence : http://bda2014.imag.fr Actes en ligne : https://hal.inria.fr/BDA201

    Modélisation et extraction de données pour un entrepôt objet

    Get PDF
    National audienceThis paper describes an object-oriented model for designing complex and time-variant data warehouse data. The main contribution is the warehouse class concept, which extends the class concept by temporal and archive filters as well as a mapping function. Filters allow the keeping of relevant data changes whereas the mapping function defines the warehouse class schema from a global data source schema. The approach take into account static properties as well as dynamic properties. The behaviour extraction is based on the use-matrix concept
    • …
    corecore