25,695 research outputs found

    Modellierung, Entwicklung und Nutzung eines Data Warehouse fĂĽr medizinische Communication Centers

    Get PDF
    Das heutige Gesundheitssystem wird von den vielen Akteuren, den komplexen Beziehungen, den anspruchsvollen Patienten sowie dem veränderten Gesundheitsbewusstsein geprägt. Medizinische Communication Centers können als zentraler Kontaktpunkt zwischen Gesundheitssystem und Bevölkerung dienen. Durch die verschiedenen angebotenen medizinischen Dienstleistungen und die permanente Erreichbarkeit werden medizinische Communication Centers zu wichtigen Institutionen für eine bevölkerungsorientierte Versorgung. Für die ganzheitliche Bertreuung der Patienten/Versicherten müssen die Daten der Patienten/Versicherten an einer zentralen Stelle gespeichert werden. Data Warehouse Systeme ermöglichen die integrierte Speicherung der Daten und deren Auswertung. Bei einem Kontakt mit dem medizinischen Communication Center sind die Patienten-/Versichertendaten aus den früheren Kontakten bekannt und die Patienten/Versicherten können passend angesprochen und beraten werden. Die vorliegende Arbeit beschreibt den Einsatz von Data Warehouse Systemen für medizinische Communication Centers. Dabei wird der gesamte Prozess der Data Warehouse Entwicklung – Erhebung der Anforderungen an das Data Warehouse, Modellierung und Implementierung des Data Warehouse, Applikationen zur Auswertung der Data Warehouse Daten – betrachtet. Das entwickelte Data Warehouse unterstützt die Kommunikation mit den Patienten/Versicherten sowie die Qualität und Effizienz der angebotenen Dienstleistungen und Prozessen im medizinischen Communication Center. Mittels des entwickelten Data Warehouse Modells und der Auswertungsapplikationen können Daten bezüglich Beschwerden und bezogener Dienstleistungen, schweizweit und zeitbezogen, einfach und in Abhängigkeit von unterschiedlichen Analysekriterien visualisiert werden. Weiterhin können verschiedene Mitarbeiter bezogene Kennzahlen berechnet und das Reporting für die Vertragspartner zur Verfügung gestellt werden. Data Warehouse Systeme sind im Gesundheitsbereich, im Vergleich zu anderen Bereichen, weniger stark verbreitet. Das in der Arbeit beschriebene Data Warehouse zeigt das Potential und die Vorteile des Einsatzes solcher Systeme in medizinische Communication Centers und somit auch im Gesundheitswesen

    Entwicklung eines Data Warehouse fĂĽr das Produktionscontrolling:Konzepte und Erfahrungen

    Full text link
    Aufgabe eines Data Warehouse ist die schnelle und flexible Bereitstellung entscheidungsrelevanter Daten. Es stellt damit - je nach Interpretation - eine Weiterentwicklung der Entscheidungsunterstützungssysteme oder eine auf Analyseaufgaben ausgerichtete Datenbank dar. Um seine Aufgabe erfüllen zu können, muß ein Data Warehouse heterogene Datenquellen zu einer stabilen, konsistenten Datenbasis zusammenführen, Detaildaten für die analytischen Auswertungen (vor-)verdichten sowie auch zeitraumbezogene Längsschnittanalysen unterstützen. Die Entwicklung eines Warehouse unterscheidet sich deshalb in vielen Punkten von der Entwicklung eines traditionellen, transaktionsorientierten Anwendungssystems. Der folgende Beitrag diskutiert, welche Aufgaben jeweils in den verschiedenen Phasen einer Data Wareouse-Entwicklung anfallen und wie diese Aufgaben durchgeführt werden können. Die vorgestellten Konzepte und Erfahrungen sind Ergebnisse eines Kooperationsprojekts zwischen dem Institut und einem großen Maschinenbauunternehmen.<br/

    Data warehouse automation trick or treat?

    Get PDF
    Data warehousing systems have been around for 25 years playing a crucial role in collecting data and transforming that data into value, allowing users to make decisions based on informed business facts. It is widely accepted that a data warehouse is a critical component to a data-driven enterprise, and it becomes part of the organisation’s information systems strategy, with a significant impact on the business. However, after 25 years, building a Data Warehouse is still painful, they are too time-consuming, too expensive and too difficult to change after deployment. Data Warehouse Automation appears with the promise to address the limitations of traditional approaches, turning the data warehouse development from a prolonged effort into an agile one, with gains in efficiency and effectiveness in data warehousing processes. So, is Data Warehouse Automation a Trick or Treat? To answer this question, a case study of a data warehousing architecture using a data warehouse automation tool, called WhereScape, was developed. Also, a survey was made to organisations that are using data warehouse automation tools, in order to understand their motivation in the adoption of this kind of tools in their data warehousing systems. Based on the results of the survey and on the case study, automation in the data warehouses building process is necessary to deliver data warehouse systems faster, and a solution to consider when modernize data warehouse architectures as a way to achieve results faster, keeping costs controlled and reduce risk. Data Warehouse Automation definitely may be a Treat.Os sistemas de armazenamento de dados existem há 25 anos, desempenhando um papel crucial na recolha de dados e na transformação desses dados em valor, permitindo que os utilizadores tomem decisões com base em fatos. É amplamente aceite, que um data warehouse é um componente crítico para uma empresa orientada a dados e se torna parte da estratégia de sistemas de informação da organização, com um impacto significativo nos negócios. No entanto, após 25 anos, a construção de um Data Warehouse ainda é uma tarefa penosa, demora muito tempo, é cara e difícil de mudar após a sua conclusão. A automação de Data Warehouse aparece com a promessa de endereçar as limitações das abordagens tradicionais, transformando o desenvolvimento da data warehouse de um esforço prolongado em um esforço ágil, com ganhos de eficiência e eficácia. Será, a automação de Data Warehouse uma doçura ou travessura? Foi desenvolvido um estudo de caso de uma arquitetura de data warehousing usando uma ferramenta de automação, designada WhereScape. Foi também conduzido um questionário a organizações que utilizam ferramentas de automação de data warehouse, para entender sua motivação na adoção deste tipo de ferramentas. Com base nos resultados da pesquisa e no estudo de caso, a automação no processo de construção de data warehouses, é necessária para uma maior agilidade destes sistemas e uma solução a considerar na modernização destas arquiteturas, pois permitem obter resultados mais rapidamente, mantendo os custos controlados e reduzindo o risco. A automação de data warehouse pode bem vir a ser uma “doçura”

    Manutenção incremental de visões materializadas em ambientes data warehousing

    Get PDF
    Orientadora: Silvia Regina VergilioDissertação (mestrado) - Universidade Federal do ParanáResumo: Data warehouse é um repositorio de dados coletados de fontes de dados distribuídas, autônomas e heterogêneas. A tecnologia data warehousing tem sido utilizada em Sistemas de Suporte à Decisão (DSS - Decision Support Systems) para auxiliar nos processos decisorios e identificar tendências de mercado. O data warehouse armazena uma ou mais visões materializadas dos ciados das fontes. A qualidade do processo de tomada de decisão em um DSS depende da correta propagação das atualizações ocorridas nas fontes de dados para as visões materializadas no data warehouse. Disso depende a manutenção da consistência dos dados que é em geral irai processo complexo. Nos últimos anos, algoritmos de manutenção incrementai de visões materializadas em data warehouse têm se destacado como uma importante abordagem para o problema. Um estudo comparativo desses algoritmos foi realizado e como conseqüência desse estudo um novo algoritmo, denominado SVM {Algorithm for Scheduling Warehouse View Maintenance), é aqui proposto. Esse algoritmo combina os aspectos positivos dos algoritmos estudados. Sua principal vantagem é definir intervalos de tempo para propagar as atualizações das fontes no data warehouse. Os principais aspectos de implementação do SVM são discutidos e um estudo de caso, composto de diferentes situações que mostram seu funcionamento, é apresentado.Resumo: Data warehouse é um repositorio de dados coletados de fontes de dados distribuídas, autônomas e heterogêneas. A tecnologia data warehousing tem sido utilizada em Sistemas de Suporte à Decisão (DSS - Decision Support Systems) para auxiliar nos processos decisorios e identificar tendências de mercado. O data warehouse armazena uma ou mais visões materializadas dos ciados das fontes. A qualidade do processo de tomada de decisão em um DSS depende da correta propagação das atualizações ocorridas nas fontes de dados para as visões materializadas no data warehouse. Disso depende a manutenção da consistência dos dados que é em geral irai processo complexo. Nos últimos anos, algoritmos de manutenção incrementai de visões materializadas em data warehouse têm se destacado como uma importante abordagem para o problema. Um estudo comparativo desses algoritmos foi realizado e como conseqüência desse estudo um novo algoritmo, denominado SVM {Algorithm for Scheduling Warehouse View Maintenance), é aqui proposto. Esse algoritmo combina os aspectos positivos dos algoritmos estudados. Sua principal vantagem é definir intervalos de tempo para propagar as atualizações das fontes no data warehouse. Os principais aspectos de implementação do SVM são discutidos e um estudo de caso, composto de diferentes situações que mostram seu funcionamento, é apresentado

    Index Strukturen fĂĽr Data Warehouse

    Get PDF
    0 Title and Table of Contents i 1\. Introduction 1 2\. State of the Art of Data Warehouse Research 5 3\. Data Storage and Index Structures 15 4\. Mixed Integer Problems for Finding Optimal Tree-based Index Structures 35 5\. Aggregated Data in Tree-Based Index Structures 43 6\. Performance Models for Tree-Based Index Structures 63 7\. Techniques for Comparing Index Structures 89 8\. Conclusion and Outlook 113 Bibliographie 116 Appendix 125This thesis investigates which index structures support query processing in typical data warehouse environments most efficiently. Data warehouse applications differ significantly from traditional transaction-oriented operational applications. Therefore, the techniques applied in transaction- oriented systems cannot be used in the context of data warehouses and new techniques must be developed. The thesis shows that the time complexity for the computation of optimal tree-based index structures prohibits its use in real world applications. Therefore, we improve heuristic techniques (e. g., R*-tree) to process range queries on aggregated data more efficiently. Experiments show the benefits of this approach for different kinds of typical data warehouse queries. Performance models estimate the behavior of standard index structures and the behavior of the extended index structures. We introduce a new model that considers the distribution of data. We show experimentally that the new model is more precise than other models known from literature. Two techniques compare two tree-based index structures with two bitmap indexing techniques. The performance of these index structures depends on a set of different parameters. Our results show which index structure performs most efficiently depending on the parameters.In dieser Arbeit wird untersucht, welche Indexstrukturen Anfragen in typischen Data Warehouse Systemen effizient unterstützen. Indexstrukturen, seit mehr als zwanzig Jahren Forschungsgegenstand im Datenbankbereich, wurden in der Vergangenheit für transaktionsorientierte Systeme optimiert. Ein Kennzeichen dieser Systeme ist die effiziente Unterstützung von Einfüge-, Änderungs- und Löschoperationen auf einzelnen Datensätzen. Typische Operationen in Data Warehouse Systemen sind dagegen komplexe Anfragen auf großen relativ statischen Datenmengen. Aufgrund dieser veränderten Anforderungen müssen Datenbankmanagementsysteme, die für Data Warehouses eingesetzt werden, andere Techniken nutzen, um komplexe Anfragen effizient zu unterstützen. Zunächst wird ein Ansatz untersucht, der mit Hilfe eines gemischt ganzzahligen Optimierungsproblems eine optimale Indexstruktur berechnet. Da die Kosten für die Berechnung dieser optimalen Indexstruktur mit der Anzahl der zu indizierenden Datensätze exponentiell steigen, wird in anschließenden Teilen der Arbeit heuristischen Ansätzen nachgegangen, die mit der Größe der zu indizierenden Datensätze skalieren. Ein Ansatz erweitert auf Bäumen basierende Indexstrukturen um aggregierte Daten in den inneren Knoten. Experimentell wird gezeigt, daß mit Hilfe der materialisierten Zwischenergebnisse in den inneren Knoten Bereichsanfragen auf aggregierten Daten wesentlich schneller bearbeitet werden. Um das Leistungsverhalten von Indexstrukturen mit und ohne materialisierte Zwischenergebnisse zu untersuchen, wird das PISA Modell (Performance of Index Structures with and without Aggregated Data) entwickelt. In diesem Modell wird die Verteilung der Daten und die Verteilung der Anfragen berücksichtigt. Das PISA Modell wird an gleich-, schief- und normalverteilte Datensätze angepaßt. Experimentell wird gezeigt, daß das PISA Modell mit einer höheren Präzision als die bisher aus der Literatur bekannten Modelle arbeitet. Die Leistung von Indexstrukturen hängt von unterschiedlichen Parametern ab. In dieser Arbeit werden zwei Techniken vorgestellt, die abhängig von einer bestimmten Menge von Parametern Indexstrukturen vergleichen. Mit Hilfe von Klassifikationsbäumen wird z. B. gezeigt, daß die Blockgröße die relative Leistung weniger beeinflußt als andere Parameter. Ein weiteres Ergebnis ist, daß Bitmap-Indexstrukturen von den Verbesserungen neuerer Sekundärspeicher stärker profitieren als heute übliche auf Bäumen basierende Indexstrukturen. Bitmap-Indexierungstechniken bieten noch ein großes Potential für weitere Leistungssteigerungen im Datenbankbereich

    A decision-making approach for investigating the potential effects of near sourcing on supply chain

    Get PDF
    Purpose - Near sourcing is starting to be regarded as a valid alternative to global sourcing in order to leverage supply chain (SC) responsiveness and economic efficiency. The present work proposes a decision-making approach developed in collaboration with a leading Italian retailer that was willing to turn the global store furniture procurement process into near sourcing. Design/methodology/approach - Action research is employed. The limitations of the traditional SC organisation and purchasing process of the company are first identified. On such basis, an inventory management model is applied to run spreadsheet estimates where different purchasing and SC management strategies are adopted to determine the solution providing the lowest cost performance. Finally, a risk analysis of the selected best SC arrangement is conducted and results are discussed. Findings - Switching from East Asian suppliers to continental vendors enables a SC reengineering that increases flexibility and responsiveness to demand uncertainty which, together with decreased transportation costs, assures economic viability, thus proving the benefits of near sourcing. Research limitations/implications - The decision-making framework provides a methodological roadmap to address the comparison between near and global sourcing policies and to calculate the savings of the former against the latter. The approach could include additional organisational aspects and cost categories impacting on near sourcing and could be adapted to investigate different products, services, and business sectors. Originality/value - The work provides SC researchers and practitioners with a structured approach for understanding what drives companies to adopt near sourcing and for quantitatively assessing its advantage

    Data Mining of understanding of the phenomenon of pain: a proposal for implementation

    Get PDF
    A Dor, fenómeno difícil de compreender, tem sido objecto de estudo na Medicina. A sua natureza subjectiva faz com que as variáveis em estudo devam ter um âmbito alargado, que permita caracterizar convenientemente este fenómeno. A compreensão deste fenómeno pode ser facilitada com recurso a técnicas de Data Mining, suportadas, ou não, por Data Warehouses. O Clinical Data Mining tem sido utilizado para identificar as melhores terapias para diversas doenças, para explorar os factores de sucesso/insucesso das cirurgias e para determinar padrões diversos. O Clinical Data Warehouse consiste num repositório de dados optimizado para facilitar a análise de dados clínicos. Este artigo apresenta os conceitos associados ao Clinical Data Mining e Clinical Data Warehouse, assim como apresenta um conjunto de variáveis relevantes para a compreensão da dor. Esta compreensão será realizada recorrendo a técnicas de Data Mining, na análise de uma Base de Dados cuja estrutura é também aqui apresentada.Agência de Inovaçã

    A spatial data warehouse to predict megaliths slabs sources: mixing geochemistry, petrology, cartography and archaeology for spatial analysis

    Get PDF
    MEGAGEO - Moving megaliths in the Neolithic is a project that aims to find the provenance of slabs used in the construction of dolmens. A multidisciplinary approach has been carried out with researchers from the several fields of knowledge involved. In this work it is presented a spatial data warehouse specially developed for the project, which comprises information from national archaeological databases, geographic and geological information and new geochemical and petrographic data obtained during the project. Redondo area is used as a case study for the application of the spatial data warehouse to analyze relationships between geochemistry, geology and the dolmens of the region.O projeto MEGAGEO tem como objetivo estabelecer a proveniência das lajes utilizadas na construção de antas. Nesse sentido foi constituída uma equipa multidisciplinar, com investigadores das diferentes áreas de conhecimento envolvidas. Neste trabalho é apresentado o armazém de dados espaciais criado especialmente para este projeto, constituido por informação dos arquivos arqueológicos nacionais, cartografia geológica e geográfica a diferentes escalas, e os novos dados geoquímicos e petrográficos obtidos durante o projeto. Usando a área do Redondo como um caso de estudo, são apresentados aqui os resultados obtidos e a aplicação do armazém de dados espaciais para analisar as relações entre geoquímica, geologia e as antas daquela região
    • …
    corecore