7 research outputs found
Entrepôts de données multidimensionnelles NoSQL
International audienceLes données des systèmes d'analyse en ligne (OLAP, On-Line Analytical Processing) sont traditionnellement gérées par des bases de données relationnelles. Malheureusement, il devient difficile de gérer des mégadonnées (de gros volumes de données, « Big Data »). Dans un tel contexte, comme alternative, les environnements « Not-Only SQL » (NoSQL) peuvent fournir un passage à l'échelle tout en gardant une certaine flexibilité pour un système OLAP. Nous définissons ainsi des règles pour convertir un schéma en étoile, ainsi que son optimisation, le treillis d'agrégats pré-calculés, en deux modèles logiques NoSQL : orienté-colonnes ou orienté-documents. En utilisant ces règles, nous implémentons et analysons deux systèmes décisionnels, un par modèle, avec MongoDB et HBase. Nous comparons ces derniers sur les phases de chargement des données (générées avec le benchmark TPC-DS), de calcul d'un treillis et d'interrogation
Implementing Multidimensional Data Warehouses into NoSQL
International audienceNot only SQL (NoSQL) databases are becoming increasingly popular and have some interesting strengths such as scalability and flexibility. In this paper, we investigate on the use of NoSQL systems for implementing OLAP (On-Line Analytical Processing) systems. More precisely, we are interested in instantiating OLAP systems (from the conceptual level to the logical level) and instantiating an aggregation lattice (optimization). We define a set of rules to map star schemas into two NoSQL models: columnoriented and document-oriented. The experimental part is carried out using the reference benchmark TPC. Our experiments show that our rules can effectively instantiate such systems (star schema and lattice). We also analyze differences between the two NoSQL systems considered. In our experiments, HBase (columnoriented) happens to be faster than MongoDB (document-oriented) in terms of loading time
Pemodelan dan implementasi data Warehouse dalam manajemen pendidikan menggunakan Nine Step Methodology
Dalam menjalankan manajemen pendidikan, pihak eksekutif
pada perguruan tinggi sering sekali merasa kesulitan dalam
pengambilan keputusan jika hanya mengandalkan Sistem Informasi
Akademik. Untuk itu dibutuhkan sebuah aplikasi yang dapat
membantu mereka dalam pengambilan keputusan serta menemukan
pola kritis dan tren dalam menjalankan manajemen pendidikan. Data
warehouse berfungsi untuk mengumpulkan dan mengintegrasikan
data, dan mengubahnya menjadi informasi yang dapat diakses untuk
query dan analisis yang menghasilkan wawasan yang dapat
menginformasikan dan mempengaruhi keputusan bisnis. Tujuan dari
penulisan ini adalah membuat suatu model data warehouse yang
dapat menampilkan semua informasi yang bermanfaat yang dapat
mendukung manajemen pendidikan. Metodologi perancangan data
warehouse menggunakan metodologi yang dikemukakan oleh
Kimball yang dikenal dengan Nine-step Methodology. Metode
pengumpulan data dengan menggunakan teknik penyebaran
kuesioner, wawancara, observasi dan tinjauan literatur. Model
dirancang menggunakan alat bantu Visual Basic.Net 2008, SQL
Server 2005 dan Crystal Report. Hasil penelitian ini berupa Model
data warehouse untuk mendukung manajemen pendidikan
10381 Summary and Abstracts Collection -- Robust Query Processing
Dagstuhl seminar 10381 on robust query processing (held 19.09.10 -
24.09.10) brought together a diverse set of researchers and practitioners
with a broad range of expertise for the purpose of fostering discussion
and collaboration regarding causes, opportunities, and solutions for
achieving robust query processing.
The seminar strove to build a unified view across
the loosely-coupled system components responsible for
the various stages of database query processing.
Participants were chosen for their experience with database
query processing and, where possible, their prior work in academic
research or in product development towards robustness in database query
processing.
In order to pave the way to motivate, measure, and protect future advances
in robust query processing, seminar 10381 focused on developing tests
for measuring the robustness of query processing.
In these proceedings, we first review the seminar topics, goals,
and results, then present abstracts or notes of some of the seminar break-out
sessions.
We also include, as an appendix,
the robust query processing reading list that
was collected and distributed to participants before the seminar began,
as well as summaries of a few of those papers that were
contributed by some participants
Investigating the Perceived Influence of Data Warehousing and Business Intelligence Maturity on Organizational Performance: A Mixed Methods Study
Over the past two decades organizations have made considerable investment in implementing data warehousing and business intelligence to improve business performance through facts-based decision-making. Although many of these organizations reap the rewards of their investments, others find that realizing the full value proposition is elusive. While the literature is rich with studies regarding data warehousing and business intelligence, much of the existing research focused on the initial experiences of adoption and implementation, and few yielded empirical data that reflected post-implementation conditions that lead to mature capabilities and improved business performance. Sited at the Defense Intelligence Agency where data warehousing and business intelligence capabilities have been in place for 10 years, this study investigated the perceived influences of data warehousing and business intelligence maturity on organizational performance through the perceptions of end users and senior leaders. This study employed mixed methods to examine the linkages between organizational support, information technology capabilities, practices, use, and organizational performance. Using survey responses from end users (N = 29 respondents), the researcher employed linear regressions, and mediation analyses to test hypotheses and assess correlations among maturity variables and their effect on organizational performance. Conversely, the qualitative phase included semi-structured interviews with six senior leaders to understand their perceptions of existing data warehousing and business intelligence capabilities. The quantitative results and qualitative findings indicated significant correlations between the perceptions of organizational support, information technology capabilities, and use in predicting organizational performance. The discoveries resulting from this research represent an original contribution to the body of knowledge by providing empirical data to aid in advancing the scholarship and practice of the data warehousing and business intelligence maturity phenomenon
Approche dirigée par les modèles pour l'implantation et la réduction d'entrepôts de données
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED.Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction.TOULOUSE1-SCD-Bib. electronique (315559902) / SudocSudocFranceF