353 research outputs found

    Analyse en ligne (OLAP) de documents

    Get PDF
    ThÚse également disponible sur le site de l'Université Paul Sabatier, Toulouse 3 : http://thesesups.ups-tlse.fr/160/Data warehouses and OLAP systems (On-Line Analytical Processing) provide methods and tools for enterprise information system data analysis. But only 20% of the data of a corporate information system may be processed with actual OLAP systems. The rest, namely 80%, i.e. documents, remains out of reach of OLAP systems due to the lack of adapted tools and processes. To solve this issue we propose a multidimensional conceptual model for representing analysis concepts. The model rests on a unique concept that models both analysis subjects as well as analysis axes. We define an aggregation function to aggregate textual data in order to obtain a summarised vision of the information extracted from documents. This function summarises a set of keywords into a smaller and more general set. We introduce a core of manipulation operators that allow the specification of analyses and their manipulation with the use of the concepts of the model. We associate a design process for the integration of data extracted from documents within an OLAP system that describes the phases for designing the conceptual schema, for analysing the document sources and for the loading process. In order to validate these propositions we have implemented a prototype.Les entrepÎts de données et les systÚmes d'analyse en ligne OLAP (On-Line Analytical Processing) fournissent des méthodes et des outils permettant l'analyse de données issues des systÚmes d'information des entreprises. Mais, seules 20% des données d'un systÚme d'information est constitué de données analysables par les systÚmes OLAP actuels. Les 80% restant, constitués de documents, restent hors de portée de ces systÚmes faute d'outils ou de méthodes adaptés. Pour répondre à cette problématique nous proposons un modÚle conceptuel multidimensionnel pour représenter les concepts d'analyse. Ce modÚle repose sur un unique concept, modélisant à la fois les sujets et les axes d'une analyse. Nous y associons une fonction pour agréger des données textuelles afin d'obtenir une vision synthétique des informations issues de documents. Cette fonction résume un ensemble de mots-clefs par un ensemble plus petit et plus général. Nous introduisons un noyau d'opérations élémentaires permettant la spécification d'analyses multidimensionnelles à partir des concepts du modÚle ainsi que leur manipulation pour affiner une analyse. Nous proposons également une démarche pour l'intégration des données issues de documents, qui décrit les phases pour concevoir le schéma conceptuel multidimensionnel, l'analyse des sources de données ainsi que le processus d'alimentation. Enfin, pour valider notre proposition, nous présentons un prototype

    Transformer les Open Data brutes en graphes enrichis en vue d'une intégration dans les systÚmes OLAP

    Get PDF
    National audienceThe Open Data integration in the decision systems is challenged by the absence of schema, the raw data and the semantic and structural heterogeneousness. In the literature, the most of authors studies the integration of RDF’Open Data in information systems besides the little percentage of available data in this format. On the other hand, few works are interested of Excel’Open Data despite they represent more than 90% of the available data.In this paper, we provide an automatic process that transforms raw Open Data in exploitable rich graphs. This process is validated by the users. This is part of our generic approach for integrating theOpen Data into multidimensional data warehouse.L’intĂ©gration des Open Data dans les systĂšmes OLAP est difficile en raison de l’absence de schĂ©mas sources, l’aspect brut des donnĂ©es et l’hĂ©tĂ©rogĂ©nĂ©itĂ© sĂ©mantique et structurelle. La plupart des travaux existants s’intĂ©ressent aux Open Data de format RDF qui restent actuellement minoritairement disponibles. En revanche, peu de travaux s’intĂ©ressent aux Open Data de format brut, par exemple Excel qui reprĂ©sentent pourtant plus que 90% des donnĂ©es ouvertes disponibles. Dans cet article, nous proposons un processus automatique de transformation des Open Data brutes en graphes enrichis exploitables pour l’intĂ©gration. Ce processus est validĂ© par l’utilisateur et s’inscrit dans notre dĂ©marche d’intĂ©gration des Open Data dans les entrepĂŽts de donnĂ©es multidimensionnelles

    Consolidation des données statistiques par expertise et similarité pour la prévision des ventes

    Get PDF
    Cette communication a pour objectif de prĂ©senter des travaux sur des mĂ©thodes de prĂ©visions de vente utilisant des donnĂ©es statistiques consolidĂ©es par des avis d'experts et des statistiques issues de cas similaires afin de piloter l'activitĂ© commerciale d'une entreprise disposant de plusieurs points de vente. Nous proposons un modĂšle de prĂ©vision intĂ©grant les connaissances statistiques et expertes ainsi que les mesures de similaritĂ© pour affiner la prĂ©vision. Nous proposons Ă©galement une mĂ©thode d’élicitation des avis d’experts sous forme de fonctions de croyance

    Imagerie numĂ©rique et conservation-restauration : Ă©tat de l’art et perspectives

    Get PDF
    L’imagerie scientifique est un outil incontournable des sciences de la conservation-restauration. La modification du support de la photographie, devenu numĂ©rique, le dĂ©veloppement du rendu tridimensionnel qualitatif et quantitatif de l’image ont transformĂ© la photographie technique en un outil d’investigation non destructif Ă  part entiĂšre, indispensable et complĂ©mentaire des approches physiques et physico-chimiques classiques et en un outil-support de documentation. L’ensemble des dĂ©veloppements et travaux menĂ©s en imagerie scientifique et sur l’intĂ©gration dans des plateformes collaboratives d’annotation sĂ©mantique 3D permet, outre une production plus facile de documents, de mettre en synergie les rĂ©sultats provenant de diffĂ©rentes techniques d’analyse. Elle va modifier, dans un futur proche, l’approche sur le terrain des acteurs de la conservation et conduire Ă  une meilleure synergie interprofessionnelle. Ils auront ainsi la possibilitĂ© de mieux mettre en cohĂ©rence leurs observations, leurs conclusions quant aux analyses faites Ă  diffĂ©rentes Ă©chelles, dans une dynamique temporelle qui intĂšgre les donnĂ©es de la restauration, de son histoire passĂ©e. À terme, et par l’intĂ©gration des donnĂ©es environnementales, ces plateformes seront un outil de suivi de l’évolution de l’état matĂ©riel du bien culturel et aussi de transmission des connaissances vers un public large.Technical imaging has always been an essential tool in conservation science. Thanks to today’s digital photography and its quantitative and qualitative tridimensional aspects, this imaging has become an autonomous and vital nondestructive instrument that complements classic physical and chemical analyses. It is also an essential tool for documentation purposes. Results coming from different techniques of analysis can now be synthesized by means of new developments in technical imaging and their insertion into collaborative 3D semantic annotation platforms. Technical imaging can modify the infield approach of conservation professionals and will help lead to better interprofessional dialogue in the future. Conservation professionals will have the assurance of better consistency in their observations, which can cover different time frames for restoration projects and historical data and conclusions drawn from analyses made at different scales. In the long term and after integration of environmental data, these platforms will become monitoring tools dedicated to following the state of conservation of cultural heritage objects and a tool for transmitting knowledge about these objects to a wider audience

    Modélisation des bases de données multidimensionnelles : analyse par fonctions d'agrégation multiples

    Get PDF
    Le résumé en français n'a pas été communiqué par l'auteur.Le résumé en anglais n'a pas été communiqué par l'auteur

    Reconnaissance Biométrique par Fusion Multimodale de Visages

    Get PDF
    Biometric systems are considered to be one of the most effective methods of protecting and securing private or public life against all types of theft. Facial recognition is one of the most widely used methods, not because it is the most efficient and reliable, but rather because it is natural and non-intrusive and relatively accepted compared to other biometrics such as fingerprint and iris. The goal of developing biometric applications, such as facial recognition, has recently become important in smart cities. Over the past decades, many techniques, the applications of which include videoconferencing systems, facial reconstruction, security, etc. proposed to recognize a face in a 2D or 3D image. Generally, the change in lighting, variations in pose and facial expressions make 2D facial recognition less than reliable. However, 3D models may be able to overcome these constraints, except that most 3D facial recognition methods still treat the human face as a rigid object. This means that these methods are not able to handle facial expressions. In this thesis, we propose a new approach for automatic face verification by encoding the local information of 2D and 3D facial images as a high order tensor. First, the histograms of two local multiscale descriptors (LPQ and BSIF) are used to characterize both 2D and 3D facial images. Next, a tensor-based facial representation is designed to combine all the features extracted from 2D and 3D faces. Moreover, to improve the discrimination of the proposed tensor face representation, we used two multilinear subspace methods (MWPCA and MDA combined with WCCN). In addition, the WCCN technique is applied to face tensors to reduce the effect of intra-class directions using a normalization transform, as well as to improve the discriminating power of MDA. Our experiments were carried out on the three largest databases: FRGC v2.0, Bosphorus and CASIA 3D under different facial expressions, variations in pose and occlusions. The experimental results have shown the superiority of the proposed approach in terms of verification rate compared to the recent state-of-the-art method

    Suivi de l’évolution thermique de la MĂ©diterranĂ©e

    Get PDF
    Le but de ce travail de Bachelor est d’automatiser la rĂ©colte des donnĂ©es de relevĂ© thermiques de la MĂ©diterranĂ©e ainsi que leur stockage dans une base de donnĂ©es, et de fournir un moyen simple de visualisation de ces informations. ETAT DE L’ART Avant de dĂ©buter le dĂ©veloppement du projet, il est nĂ©cessaire de rechercher, lister et comparer les diffĂ©rents outils dĂ©jĂ  disponibles sur le marchĂ©. Chaque outil se diffĂ©rencie par sa palette de fonctionnalitĂ©s, sa simplicitĂ©, son utilitĂ©, sa performance ou mĂȘme son coĂ»t. Il est donc essentiel de passer par cette Ă©tape de recherche afin d’avoir une vue d’ensemble et de choisir les outils les mieux adaptĂ©s pour le projet. PROJET Le projet final est destinĂ© Ă  ĂȘtre installĂ© au sein du CREALP, qui l’utilisera aux cĂŽtĂ©s de ses autres outils de surveillance. Les donnĂ©es seront : TĂ©lĂ©chargĂ©es rĂ©guliĂšrement Converties InsĂ©rĂ©es dans une base de donnĂ©es AffichĂ©es sur une page web interne La plupart des technologies utilisĂ©es dans ce projet sont imposĂ©es par le CREALP afin de correspondre au mieux Ă  leur systĂšme et mĂ©thodes de travail. RAPPORT Le prĂ©sent rapport dĂ©taille les recherches, les grandes Ă©tapes du projet ainsi que les fonctionnalitĂ©s. Un CD-ROM est joint Ă  ce rapport, contenant entre-autres, le code source ainsi que les outils utilisĂ©s

    ImplĂ©mentation et Ă©valuation d’algorithmes parallĂšles de FFTs 3D Ă  base de modĂšles de composants logiciels

    Get PDF
    International audienceThe Fast Fourier Transform (FFT) is a widely-used building block for many high-performance scientific applications. Efficient computing of FFT is paramount for the performance of these applications. This has led to many efforts to implement machine and computation specific optimizations. However, no existing FFT library is capable of easily integrating and automating the selection of new and/or unique optimizations.To ease FFT specialization, this study evaluates the use of component-based software engineering, a programming paradigm which consists in building applications by assembling small software units. Component models are known to have many software engineering benefits but usually have insufficient performance for high-performance scientific applications.This talk uses the LÂČC model, a general purpose high-performance component model, and studies its performance and adaptation capabilities on 3D FFTs. Experiments show that LÂČC, and components in general, enables easy handling of 3D FFT specializations while obtaining performance comparable to that of well-known libraries.La transformĂ©e de Fourier rapide (FFT) est un Ă©lĂ©ment fondamentale frĂ©quemment utilisĂ© dans de nombreuses applications scientifiques de haute performance. Calculer efficacement des FFT est ainsi primordial pour la performance de ces applications. Cela a conduit Ă  de nombreux efforts pour implĂ©menter des optimisations spĂ©cifiques Ă  un matĂ©riel ou Ă  une classe d'algorithmes donnĂ©e. Cependant, aucune bibliothĂšque de FFT existante permet facilement d'intĂ©grer et d'automatiser la sĂ©lection de nouvelles optimisations et / ou d'optimisations uniques.Cette Ă©tude vise Ă  Ă©valuer l'utilisation de techniques de gĂ©nie logicielle Ă  base de composants, un paradigme de programmation qui consiste Ă  construire des applications en assemblant de petites briques logiciels. Les modĂšles de composants sont connus pour avoir de nombreux avantages de gĂ©nie logiciel, mais ont gĂ©nĂ©ralement des performances insuffisantes pour les applications scientifiques de haute performance.Cette Ă©tude s'intĂ©resse Ă  l'utilisation du modĂšle LÂČC, un modĂšle de composants de haute performance, et Ă©tudie ses performances et sa capacitĂ©s Ă  pouvoir adapter les applications de FFT 3D. Les expĂ©riences montrent que LÂČC et les composants en gĂ©nĂ©ral, permettent de manipuler facilement la structure des applications de FFT 3D via une spĂ©cialisations d'assemblage, tout en obtenant des performances comparables Ă  celle des bibliothĂšques bien connues

    Intégration holistique et entreposage automatique des données ouvertes

    Get PDF
    Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations.Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un systÚme décisionnel. Leur intégration et leur entreposage au sein du systÚme décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problÚmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problÚme d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modÚle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations

    Modélisation des bases de données multidimensionnelles : analyse par fonctions d'agrégation multiples

    Get PDF
    Le résumé en français n'a pas été communiqué par l'auteur.Le résumé en anglais n'a pas été communiqué par l'auteur
    • 

    corecore