12 research outputs found

    Modélisation et manipulation de données historisées et archivées dans un entrepôt orienté objet

    Get PDF
    National audienceThis paper deals with temporal and archive object-oriented data warehouse modelling and querying. In a first step, we define a data model describing warehouses as central repositories of complex and temporal data extracted from one information source. The model is based on the concepts of warehouse object and environment. A warehouse object is composed of one current state, several past states (modelling value changes) and several archive states (summarising some value changes). An environment defines temporal parts in a warehouse schema according to a relevant granularity (attribute, class or graph). In a second step, we provide a query algebra dedicated to data warehouses. This algebra, which is based on common object algebras, integrates temporal operators and operators for querying object states. An other important contribution concerns dedicated operators allowing users to transform warehouse objects in temporal series as well as operators facilitating analytical treatments

    Elaboration d'entrepôts de données complexes

    Get PDF
    National audienceIn this paper, we study the data warehouse modelling used in decision support systems. We provide an object-oriented data warehouse model allowing data warehouse description as a central repository of relevant, complex and temporal data. Our model integrates three concepts such as warehouse object, environment and warehouse class. Each warehouse object is composed of one current state, several past states (modelling its detailed evolutions) and several archive states (modelling its evolutions within a summarised form). The environment concept defines temporal parts in the data warehouse schema with significant granularities (attribute, class, graph). Finally, we provide five functions aiming at defining the data warehouse structures and two functions allowing the warehouse class inheritance hierarchy organisation

    CONCEPTION ET MANIPULATION DE BASES DE DONNEES DIMENSIONNELLES À CONTRAINTES

    Get PDF
    This thesis defines a constraint-based model dedicated to multidimensional databases. The defined model represents data through a constellation of facts (subjects of analyse) associated to dimensions (axis of analyse), which are possibly shared. Each dimension is organised according to several hierarchies (views of analyse) integrating several levels of data granularity. In order to insure data consistency, 5 semantic constraints (exclusion, inclusion, partition, simultaneity, totality) are introduced, which can be intra-dimension or inter-dimensions. The intra-dimension constraints allow the expression of constraints between hierarchies within a same dimension whereas the inter-dimensions constraints focus on hierarchies of distinct dimensions. The repercussions of these constraints on multidimensional manipulations are studied and OLAP operator extensions are provided.L'accroissement du volume de données dans les systèmes d'information est de nos jours une réalité à laquelle chaque entreprise doit faire face. Notamment, elle doit permettre à ses responsables de déceler les informations pertinentes afin de prendre les bonnes décisions dans les plus brefs délais. Les systèmes décisionnels répondent à ces besoins en proposant des modèles et des techniques de manipulation des données. Dans le cadre de ces systèmes, mes travaux de thèse consistent à étudier la modélisation des données décisionnelles et à proposer un langage de manipulation adapté. Dans un premier temps, nous proposons un modèle dimensionnel organisant les données en une constellation de faits (sujets d'analyse) associés à des dimensions (axes d'analyse) pouvant être partagées. Notre modèle assure une plus grande cohérence des données par sa propriété de multi instanciations qui permet de spécifier des conditions d'appartenance des instances des dimensions aux hiérarchies. De plus, nous avons défini des contraintes exprimant des relations sémantiques entre les hiérarchies intra et inter dimensions (Inclusion, Exclusion, Totalité, Partition, Simultanéité). Au niveau de la manipulation des données, nous avons redéfini les opérateurs dimensionnels afin de permettre à l'utilisateur de mieux définir ses besoins en précisant l'ensemble des instances à analyser. Cette extension a permis d'éviter les incohérences lors de la manipulation des données dimensionnelles. Nous avons étudié également l'impact de ces contraintes sur l'optimisation des manipulations basée sur la technique de matérialisation des vues. La prise en compte des contraintes sémantiques a permis de supprimer des vues incohérentes et de réduire le nombre de vues candidates à la matérialisation. Dans un second temps, nous proposons un processus de conception d'un schéma dimensionnel comportant une démarche descendante, basée sur les besoins des décideurs, et une démarche ascendante basée sur les données sources. Une phase de confrontation, permet d'intégrer les résultats des deux démarches pour obtenir un schéma dimensionnel en constellation intégrant à la fois les besoins des décideurs et les données sources. Afin de valider nos propositions, nous avons développé un outil d'aide à la conception de schémas dimensionnels contraints intitulé GMAG (Générateur de MAGasin de données dimensionnelles)

    Modélisation et manipulation d'entrepôts de données complexes et historisées

    Get PDF
    Le mémoire de cette thèse traite de la modélisation conceptuelle et de la manipulation des données (par des algèbres) dans les systèmes d'aide à la décision. Notre thèse repose sur la dichotomie de deux espaces de stockage : l'entrepôt de données regroupe les extraits des bases sources utiles pour les décideurs et les magasins de données sont déduits de l'entrepôt et dédiés à un besoin d'analyse particulier.Au niveau de l'entrepôt, nous définissons un modèle de données permettant de décrire l'évolution temporelle des objets complexes. Dans notre proposition, l'objet entrepôt intègre des états courants, passés et archivés modélisant les données décisionnelles et leurs évolutions. L'extension du concept d'objet engendre une extension du concept de classe. Cette extension est composée de filtres (temporels et d'archives) pour construire les états passés et archivés ainsi que d'une fonction de construction modélisant le processus d'extraction (origine source). Nous introduisons également le concept d'environnement qui définit des parties temporelles cohérentes de tailles adaptées aux exigences des décideurs. La manipulation des données est une extension des algèbres objet prenant en compte les caractéristiques du modèle de représentation de l'entrepôt. L'extension se situe au niveau des opérateurs temporels et des opérateurs de manipulation des ensembles d'états.Au niveau des magasins, nous définissons un modèle de données multidimensionnelles permettant de représenter l'information en une constellation de faits ainsi que de dimensions munies de hiérarchies multiples. La manipulation des données s'appuie sur une algèbre englobant l'ensemble des opérations multidimensionnelles et offrant des opérations spécifiques à notre modèle. Nous proposons une démarche d'élaboration des magasins à partir de l'entrepôt.Pour valider nos propositions, nous présentons le logiciel GEDOOH (Générateur d'Entrepôts de Données Orientées Objet et Historisées) d'aide à la conception et à la création des entrepôts dans le cadre de l'application médicale REANIMATIC

    Modélisation et extraction de données pour un entrepôt objet

    Get PDF
    National audienceThis paper describes an object-oriented model for designing complex and time-variant data warehouse data. The main contribution is the warehouse class concept, which extends the class concept by temporal and archive filters as well as a mapping function. Filters allow the keeping of relevant data changes whereas the mapping function defines the warehouse class schema from a global data source schema. The approach take into account static properties as well as dynamic properties. The behaviour extraction is based on the use-matrix concept

    Analyse en ligne (OLAP) de documents

    Get PDF
    Thèse également disponible sur le site de l'Université Paul Sabatier, Toulouse 3 : http://thesesups.ups-tlse.fr/160/Data warehouses and OLAP systems (On-Line Analytical Processing) provide methods and tools for enterprise information system data analysis. But only 20% of the data of a corporate information system may be processed with actual OLAP systems. The rest, namely 80%, i.e. documents, remains out of reach of OLAP systems due to the lack of adapted tools and processes. To solve this issue we propose a multidimensional conceptual model for representing analysis concepts. The model rests on a unique concept that models both analysis subjects as well as analysis axes. We define an aggregation function to aggregate textual data in order to obtain a summarised vision of the information extracted from documents. This function summarises a set of keywords into a smaller and more general set. We introduce a core of manipulation operators that allow the specification of analyses and their manipulation with the use of the concepts of the model. We associate a design process for the integration of data extracted from documents within an OLAP system that describes the phases for designing the conceptual schema, for analysing the document sources and for the loading process. In order to validate these propositions we have implemented a prototype.Les entrepôts de données et les systèmes d'analyse en ligne OLAP (On-Line Analytical Processing) fournissent des méthodes et des outils permettant l'analyse de données issues des systèmes d'information des entreprises. Mais, seules 20% des données d'un système d'information est constitué de données analysables par les systèmes OLAP actuels. Les 80% restant, constitués de documents, restent hors de portée de ces systèmes faute d'outils ou de méthodes adaptés. Pour répondre à cette problématique nous proposons un modèle conceptuel multidimensionnel pour représenter les concepts d'analyse. Ce modèle repose sur un unique concept, modélisant à la fois les sujets et les axes d'une analyse. Nous y associons une fonction pour agréger des données textuelles afin d'obtenir une vision synthétique des informations issues de documents. Cette fonction résume un ensemble de mots-clefs par un ensemble plus petit et plus général. Nous introduisons un noyau d'opérations élémentaires permettant la spécification d'analyses multidimensionnelles à partir des concepts du modèle ainsi que leur manipulation pour affiner une analyse. Nous proposons également une démarche pour l'intégration des données issues de documents, qui décrit les phases pour concevoir le schéma conceptuel multidimensionnel, l'analyse des sources de données ainsi que le processus d'alimentation. Enfin, pour valider notre proposition, nous présentons un prototype

    Progiciels pour les systèmes d'aide à la gestion du trafic : démarche d'intégration de progiciels

    Get PDF
    La gestion du trafic fait de plus en plus appel à des outils informatiques, et de nombreuses applications ont été mises en œuvre par les services des villes (gestion des carrefours à feux), les opérateurs de transport public (réseaux de bus et trams), les services de l’équipement (voies rapides urbaines) et les sociétés concessionnaires d’autoroutes.Il apparaît en première analyse que ces applications d’aide à la gestion de trafic répondent à des besoins voisins, et que le découpage fonctionnel est comparable d’un système à l’autre. Parmi ces fonctions, on peut distinguer les fonctions spécifiques à la gestion de trafic (« métier ») et des fonctions plus génériques, également utiles à d’autres domaines d’application. On constate que le plus souvent, l’informatique d’un PC d’exploitation se compose de plusieurs applications ou modules plus ou moins intégrés.- Les systèmes d’aide à la gestion du trafic, en particulier ceux des réseaux les plus important, font appel à des développements informatiques spécifiques, et à l’intégration de logiciels. L’objet de cette étude est d’identifier le type de progiciel utilisés, d’en expliquer les principales caractéristiques, et de donner des recommandations en matière d’intégration de progiciels.- Les systèmes de taille plus modeste sont souvent fournis par des industriels qui proposent des matériels et équipement de terrain ou embarqués, et associent à ces matériels des logiciels permettant aux exploitants de les piloter. A priori, ces systèmes « clé en main » ne semblent pas concernés par l’intégration de progiciels. En fait, ils peuvent l’être aussi, d’une part car ils peuvent être considérés comme des progiciels « métier » , d’autre part car ils utilisent parfois des progiciels du marché, enfin ils peuvent être interfacés à d’autres systèmes, ce qui peut nécessiter l’intégration de progiciels horizontaux.- Enfin, on évoquera les perspectives d’émergence de progiciels ou composants « métier » pour la gestion de trafic, capables de couvrir l’essentiel des besoin, même ceux des grands réseaux
    corecore