8 research outputs found

    Eliminating redundancy and duplicates in XML data

    No full text
    Wydział Matematyki i InformatykiNiniejsza praca doktorska została poświęcona analizie zagadnień występowania i rozwiązywania problemów jakie wynikają z obecności redundancji i duplikatów w bazach danych, w szczególności w bazach danych XML. W pracy przedstawiono ogólne metody przydatne do wykrywania redundancji i duplikatów. Główna tezą w pracy jest pokazanie, że poprawę jakości zarówno schematu, jak i stanu bazy danych XML można uzyskać poprzez wykrywanie i eliminowanie występujących w niej redundancji i duplikatów. Metody wykrywania redundancji i duplikatów opracowane na potrzeby relacyjnych baz danych można skutecznie uogólnić na przypadek baz danych XML. Proponowana metoda normalizacji do postaci normalnej XML pozwala na przeprowadzenie transformacji, w wyniku której wyeliminowana zostaje redundancja, natomiast zachowane są zarówno dane, jak i zależności funkcyjne. Zaproponowana metoda wykrywania i eliminacji duplikatów w danych XML nie powoduje utraty postaci normalnej tych danych, jeśli przed normalizacją były one w postaci normalnej XML. Istotne wyniki teoretyczne przedstawione w pracy dotyczą metod eliminacji redundancji w danych XML poprzez ich normalizację. Najbardziej istotne wyniki o charakterze praktycznym dotyczą eliminowania duplikatów w danych XML, gdzie dyskutowane są metody eliminacji duplikatów w bazach danych XML zarówno na podstawie przeglądu wybranych rozwiązań, jak i własnych propozycji.This thesis is dedicated to the analysis of occurrence and solving the issues that result from the presence of redundancy and duplicates in databases, in particular XML databases. The paper presents general methods useful for detecting redundancy and duplicates. The main thesis of the paper is to show that improving the quality of both schema and status of the XML database can be obtained by detecting and eliminating redundancy and duplicates occurring in it. Methods of detecting redundancy and duplicates developed for the needs of relational databases can be effectively generalized to the case of XML databases. The proposed method of normalization to the XML normal form allows transformations, as a result of which redundancy is eliminated, while both data and functional dependencies are retained. The proposed method of detecting and eliminating duplicates in XML data does not cause the loss of the normal form if it was in the form of normal XML before normalization. Important theoretical results presented in the paper relate to the methods of elimination of redundancy in the XML data through their standardization. The most important practical results concern the elimination of duplicates in XML data, where the methods of elimination of duplicates in XML databases are discussed, based on a review of selected solutions and own propositions

    Metody przeprowadzania normalizacji danych XML

    No full text
    Normalization is the process of efficiently organizing data in a database. There are two goals of the normalization process: eliminating redundant data and ensuring data dependencies. At the work we discuss methods achieving the normalization of data XML. In the case of XML data, this problem is more difficult than for relational data – we must also take the hierarchical data structure into consideration.Normalizacja jest procesem mającym na celu uzyskanie schematu danych odpornego na możliwość wystąpienia w instancji powtarzających się danych. Proces ten jest dobrze zbadany dla danych relacyjnych. Wraz z rosnącą popularnością stosowania XML jako formatu wymiany i przechowywania danych normalizacja nabiera ogromnego znaczenia dla danych XML. W procesach integracji danych nieuzasadniona nadmiarowość danych jest szczególnie niepożądana. W pracy analizujemy metody przeprowadzania normalizacji danych XML. Badanie tego problemu w ujęciu XML jest trudniejsze niż dla danych relacyjnych, gdyż w tym przypadku musimy dodatkowo uwzględnić hierarchiczną strukturę danych

    Zależności funkcyjne w danych XML

    No full text
    In the work we discuss the problem of appearing and checking functional dependencies in XML data. Examining functional dependencies is one of the main factors witch provide data integrity. This problem was successfully examined for relational data. In the case of XML data we must also take the hierarchical structure of data into consideration.W pracy omawiamy problem występowania i sprawdzania spełniania zależności funkcyjnych w danych XML. Zależności funkcyjne są jednym z głównych elementów zapewniających zachowanie spójności danych. Problem sprawdzania speł¬niania zależności funkcyjnych był z powodzeniem badany w przypadku danych rela¬cyjnych, jednak w przypadku danych XML jest trudniejszy, gdyż tym razem należy również uwzględnić hierarchiczną strukturę danych. W artykule przedstawiamy metody badania spełniania zależności funkcyjnych w danych XML. Stosujemy przy tym reprezentacje schematu i zależności funkcyjnych w postaci formuł drzewiastych. Umożliwia to przeprowadzenie normalizacji schematu przez zwiększenie szans na po-prawienie jakości danych w procesach ich integracji

    Predicting Injuries in Football Based on Data Collected from GPS-Based Wearable Sensors

    No full text
    The growing intensity and frequency of matches in professional football leagues are related to the increasing physical player load. An incorrect training model results in over- or undertraining, which is related to a raised probability of an injury. This research focuses on predicting non-contact lower body injuries coming from over- or undertraining. The purpose of this analysis was to create decision-making models based on data collected during both training and match, which will enable the preparation of a tool to model the load and report the increased risk of injury for a given player in the upcoming microcycle. For this purpose, three decision-making methods were implemented. Rule-based and fuzzy rule-based methods were prepared based on expert understanding. As a machine learning baseline XGBoost algorithm was considered. Taking into account the dataset used containing parameters related to the external load of the player, it is possible to predict the risk of injury with a certain precision, depending on the method used. The most promising results were achieved by the machine learning method XGBoost algorithm (Precision 92.4%, Recall 96.5%, and F1-score 94.4%)

    Predicting Injuries in Football Based on Data Collected from GPS-Based Wearable Sensors

    No full text
    The growing intensity and frequency of matches in professional football leagues are related to the increasing physical player load. An incorrect training model results in over- or undertraining, which is related to a raised probability of an injury. This research focuses on predicting non-contact lower body injuries coming from over- or undertraining. The purpose of this analysis was to create decision-making models based on data collected during both training and match, which will enable the preparation of a tool to model the load and report the increased risk of injury for a given player in the upcoming microcycle. For this purpose, three decision-making methods were implemented. Rule-based and fuzzy rule-based methods were prepared based on expert understanding. As a machine learning baseline XGBoost algorithm was considered. Taking into account the dataset used containing parameters related to the external load of the player, it is possible to predict the risk of injury with a certain precision, depending on the method used. The most promising results were achieved by the machine learning method XGBoost algorithm (Precision 92.4%, Recall 96.5%, and F1-score 94.4%)
    corecore