13 research outputs found
The concept and evaluating of big data quality in the semantic environment
Big data refers to large volumes, complex data sets with various autonomous sources, characterized by continuous growth. Data storage and data collection capabilities are now rapidly expanding in all fields of science and technology due to the rapid development of networks. Evaluating the quality of data is a difficult task in the context of big data, because the speed of semantic data reasoning directly depends on its quality. The appropriate strategies are necessary to evaluate and assess data quality according to the huge amount of data and its rapid generation. Managing a large volume of heterogeneous and distributed data requires defining and continuously updating metadata describing various aspects of data semantics and its quality, such as conformance to metadata schema, provenance, reliability, accuracy and other properties. The article examines the problem of evaluating the quality of big data in the semantic environment. The definition of big data and its semantics is given below and there is a short excursion on a theory of quality assessment. The model and its components which allow to form and specify metrics for quality have already been developed. This model includes such components as: quality characteristics; quality metric; quality system; quality policy. A quality model for big data that defines the main components and requirements for data evaluation has already been proposed. In particular, such evaluation components as: accessibility, relevance, popularity, compliance with the standard, consistency, etc. are highlighted. The problem of inference complexity is demonstrated in the article. Approaches to improving fast semantic inference through materialization and division of the knowledge base into two components, which are expressed by different dialects of descriptive logic, are also considered below. The materialization of big data makes it possible to significantly speed up the processing of requests for information extraction. It is demonstrated how the quality of metadata affects materialization. The proposed model of the knowledge base allows increasing the qualitative indicators of the reasoning speed.Великі дані стосуються великих обсягів, складних наборів даних із різними автономними джерелами, що характеризуються постійним зростанням. Зі швидким розвитком мереж, зберігання даних і можливостей збору даних, великі дані швидко розширюються в усіх сферах науки та техніки. У контексті великих даних оцінка якості даних є складною задачею. Для семантичних даних якість і швидкість виводу безпосередньо залежить від якості даних. Враховуючи величезний обсяг даних і їх швидке генерування, це вимагає відповідних стратегій для оцінки якості даних. Управління великим обсягом різнорідних і розподілених даних вимагає визначення та постійного оновлення метаданих, що описують різні аспекти семантики та якості даних, такі як відповідність схемі метаданих, походження, надійність, точність та інші властивості. В статі розглянута проблематика оцінювання якості великих даних у семантичному середовищі. Наведено визначення великих даних та їх семантики, зроблено невеликий екскурс в теорію оцінювання якості. Розроблена модель та її компоненти, що дозволяє сформувати та конкретизувати метрики для якості. В дану модель входять такі компоненти як: характеристика якості, метрика якості, система якості, політка якості. Запропонована модель якості для великих даних, яка визначає основні компоненти та вимоги до оцінювання даних. Зокрема, виділено такі компоненти оцінювання як: доступність, релеватність, популярність, відповідність стандарту, узгодженість тощо. Продемонстрована проблема складності виводу. Розглянуто підходи до покращення швидкого семантичного виводу через матеріалізацію та поділ бази знань на два компоненти, які виражаються різними діалектами дескриптивної логіки. Оскільки матеріалізація великих даних дозволяє значно пришвидшити обробку запитів на екстракцію інформації. Продемонстровано як якість метаданих вливає на матеріалізацію. Запропонована модель бази знань, яка дозволяє підвищити якісні показники швидкості виводу
Recommended from our members
LARP Long Nb3Sn Quadrupole Design
A major milestone for the LHC Accelerator Research Program (LARP) is the test, by the end of 2009, of two 4m-long quadrupole magnets (LQ) wound with Nb{sub 3}Sn conductor. The goal of these magnets is to be a proof of principle that Nb{sub 3}Sn is a viable technology for a possible LHC luminosity upgrade. The design of the LQ is based on the design of the LARP Technological Quadrupoles, presently under development at FNAL and LBNL, with 90-mm aperture and gradient higher than 200 T/m. The design of the first LQ model will be completed by the end of 2007 with the selection of a mechanical design. In this paper we present the coil design addressing some fabrication technology issues, the quench protection study, and three designs of the support structure
Recommended from our members
LARP Long Nb3Sn Quadrupole Design.
A major milestone for the LHC Accelerator Research Program (LARP) is the test, by the end of 2009, of two 4m-long quadrupole magnets (LQ) wound with Nb{sub 3}Sn conductor. The goal of these magnets is to be a proof of principle that Nb{sub 3}Sn is a viable technology for a possible LHC luminosity upgrade. The design of the LQ is based on the design of the LARP Technological Quadrupoles, presently under development at FNAL and LBNL, with 90-mm aperture and gradient higher than 200 T/m. The design of the first LQ model will be completed by the end of 2007 with the selection of a mechanical design. In this paper we present the coil design addressing some fabrication technology issues, the quench protection study, and three designs of the support structure