15 research outputs found

    Historia problemu Webera

    No full text
    W pracy zajmujemy się zagadnieniem, które znane jest powszechnie jako konstrukcja mediany Webera. Chodzi mianowicie o znalezienie takiego punktu w przestrzeni Ên , że suma jego odległości od m danych punktów w tejże przestrzeni jest najmniejsza. Prezentujemy historię badań w tej dziedzinie począwszy od najprostszej formytego problemu, tj. minimalizacji sumy odległości od wierzchołków trójkąta, którym zajmowano się w XVII i XVIII wieku aż po współczesne wyniki w tym zakresie i jego dalsze uogólnienia. Wskazujemy także na możliwości jego zastosowań w statystyce i ekonometrii

    Использование метода cтупенчатого перехода от малых значений к большим или наоборот (метод будстрап) для оценки точности данных из выборочного обследования переписи населения 2011 г. на примере проездов на работу

    No full text
    Artykuł prezentuje rezultaty eksperymentu symulacyjnego zastosowanego do oszacowania jakości estymacji danych o dojazdach do pracy na podstawie informacji z badania reprezentacyjnego przeprowadzonego podczas Narodowego Spisu Powszechnego Ludności i Mieszkań w 2011 r. (NSP 2011). Do analizy wykorzystano metodę bootstrapową polegającą na wielokrotnych losowaniach z powtórzeniami próbek z wyjściowej próby reprezentacyjnej i badaniu rozkładu uzyskiwanych dla nich wartości szacowanych parametrów. Szacunki wykonano stosując estymator bezpośredni Horvitza-Thompsona z wagami kalibracyjnymi oraz warstwami zdefiniowanymi w tymże spisie. Na podstawie zawartych w literaturze przedmiotu sugestii ustalono optymalne rozmiary i liczebności prób oraz dokonano obliczeń względnego średniego kwadratu błędu, obciążenia względnego oraz empirycznego obciążenia względnego dla estymacji różnych wartości wyrażonych w liczbach bezwzględnych według kategorii i województw w ujęciu ogółem i według płci. Na tej podstawie sformułowano wnioski praktyczne.This paper is devoted to a presentation of results of simulation experiment aimed at assessment of estimation quality of data on commuting to work on the basis of information collected during sample survey conducted within the National Population and Housing Census 2011. The analysis uses the bootstrap method consisting in multiple sampling with replacement of samples from a given ’starting’ sample and studying distribution of values of parameter of interest estimated for them. The generalization was conducted using Horvitz-Thompson direct estimator with calibration weights computed by working subgroup for statistical and mathematical methods for censuses within the 2011 Census project and strata defined for such census. On the basis of suggestions contained in subject matter literature sizes and number of bootstrap samples were established and computation of relative mean squared error, relative bias and empirical relative bias for estimation of various values expressed in absolute numbers and percentage by categories and voivodships for each analyzed sample as total and by sex. Using the results relevant practical conclusions were formulated.Статья представляет результаты моделированного эксперимента использованного для оценки качества данных (предварительного рассчета данных) о проездах на работу на основе информаций полученных в выборочном обследовании проводимым во время Всеобщей переписи населения и квартир в 2011 г. Для анализа был использован метод Бутстрап заключающийся в многократых случайных выборках с повторением выборок из исходной выборки и в анализе распределения полученных для них значений оцененых параметров. Оценки были провeдены с использованием прямой оценки Horvitza-Thompsona c калибровочными весами и определенными слоями в этой же переписи. На основе предложений в литературе были проведены и установлены оптимальные размеры и объем выборок, а также были сделаны расчеты относительного среднего квадрата ошибки, относительной нагрузки и эмпирической относительной нагрузки для оценки различных значений выраженных в абсолютных числах по категориям и воеводствам в общем подходе и по полу. На этой основе были сформулированы практические выводы

    Using the Complex Measure in an Assessment of the Information Loss Due to the Microdata Disclosure Control

    No full text
    Praca zawiera propozycję oryginalnej metody oceny straty informacji powstałej na skutek zastosowania kontroli ujawniania danych (ang. Statistical Disclosure Control, SDC) dokonywanej podczas przygotowywania danych wynikowych do publikacji i do udostępniania ich zainteresowanym użytkownikom. Narzędzia SDC umożliwiają ochronę danych wrażliwych przed ujawnieniem – tak bezpośrednim, jak i pośrednim. Artykuł koncentruje się na przypadku spseudonimizowanych mikrodanych, czyli wykorzystywanych do badań naukowych danych jednostkowych pozbawionych zasadniczych cech identyfikacyjnych. SDC polega tu zazwyczaj na ukrywaniu, zamienianiu czy zakłócaniu oryginalnych danych. Tego rodzaju ingerencja wiąże się jednak ze stratą pewnych informacji. Stosowane tradycyjnie metody pomiaru owej straty są nierzadko wrażliwe na odmienności wynikające ze skali i zakresu wartości zmiennych oraz nie mogą być zastosowane do danych wyrażonych na skali porządkowej. Wiele z nich słabo uwzględnia też powiązania między zmiennymi, co bywa istotne w różnego rodzaju analizach. Stąd celem artykułu jest przedstawienie propozycji użycia – mającej swe źródło w pracach Zdzisława Hellwiga – metody konstrukcji unormowanego i łatwo interpretowalnego miernika kompleksowego (zwanego także wskaźnikiem syntetycznym) powiązanych cech opartego na wzorcu i antywzorcu rozwojowym w ocenie straty informacji spowodowanej zastosowaniem wybranych technik SDC oraz zbadanie jej praktycznej użyteczności. Miernik został tutaj skonstruowany na podstawie odległości między danymi wyjściowymi a danymi po zastosowaniu SDC z uwzględnieniem skal pomiarowych.The paper contains a proposal of original method of assessment of information loss resulted from an application of the Statistical Disclosure Control (SDC) conducted during preparation of the resulting data to the publication and disclosure to interested users. The SDC tools enable protection of sensitive data from their disclosure – both direct and indirect. The article focuses on pseudon-imised microdata, i.e. individual data without fundamental identifiers, used for scientific purposes. This control is usually to suppress, swapping or disturbing of original data. However, such intervention is connected with the loss of some information. Optimization of choice of relevant SDC method requires then a minimization of such loss (and risk of disclosure of protected data). Traditionally used methods of measurement of such loss are not rarely sensitive to dissimilarities resulting from scale and scope of values of variables and cannot be used for ordinal data. Many of them weakly take also connections between variables into account, what can be important in various analyses. Hence, this paper is aimed at presentation of a proposal (having the source in papers by Zdzisław Hellwig) concerning use of a method of normalized and easy interpretable complex measure (called also the synthetic indicator) for connected features based on benchmark and anti–benchmark of development to the assessment of information loss resulted from an application of some SDC techniques and at studying its practical utility. The measure is here constructed on the basis of distances between original data and data after application of the SDC taking measurement scales into account

    An application of a complex measure to model-based imputation in business statistics

    No full text
    When faced with missing data in a statistical survey or administrative sources, imputation is frequently used in order to fill the gaps and reduce the major part of bias that can affect aggregated estimates as a consequence of these gaps. This paper presents research on the efficiency of model-based imputation in business statistics, where the explanatory variable is a complex measure constructed by taxonomic methods. The proposed approach involves selecting explanatory variables that fit best in terms of variation and correlation from a set of possible explanatory variables for imputed information, and then replacing them with a single complex measure (meta-feature) exploiting their whole informational potential. This meta-feature is constructed as a function of a median distance of given objects from the benchmark of development. A simulation study and empirical study were used to verify the efficiency of the proposed approach. The paper also presents five types of similar techniques: ratio imputation, regression imputation, regression imputation with iteration, predictive mean matching and the propensity score method. The second study presented in the paper involved a simulation of missing data using IT business data from the California State University in Los Angeles, USA. The results show that models with a strong dependence on functional form assumptions can be improved by using a complex measure to summarize the predictor variables rather than the variables themselves (raw or normalized)

    Coherence and Comparability as Criteria of Quality Assessment in Business Statistics

    No full text
    The problems of coherence and comparability exceed the classical notion of analysis of survey errors, because they do not concern single surveys or variables but the question of how results of two or more surveys can be used together and how relevant data can effectively be compared to obtain a better picture of social and economic phenomena over various aspects, e.g. space or time. This paper discusses characteristics of the main concepts of coherence and comparability as well as a description of differences and similarities between these two notions. Types of coherence and various aspects of perception of these notions in business statistics are analysed. Main sources of lack of coherence and comparability, factors affecting them (e.g. methodology, time, region, etc.) and methods of their measurement in context of information obtained from businesses will be also presented

    Information loss resulting from statistical disclosure control of output data

    No full text
    W pracy omówiono najważniejsze metody, za pomocą których można ocenić stratę informacji spowodowaną przeprowadzaniem kontroli ujawniania danych (ang. statistical disclosure control, SDC). Kontrola ta ma na celu ochronę przed identyfikacją jednostki i dotarciem do dotyczących jej wrażliwych informacji przez osoby nieupoważnione. Zastosowanie metod zarówno opartych na ukrywaniu określonych danych, jak i prowadzących do ich zniekształcania powoduje stratę informacji, która ma wpływ na jakość danych wynikowych, w tym rozkładów zmiennych, kształt ich związków oraz estymacji. Celem artykułu jest krytyczna analiza mocnych i słabych stron metod oceny straty informacji na skutek zastosowania SDC. Przedstawiono również nowatorskie propozycje prowadzące do uzyskania efektywnych i dobrze interpretowalnych mierników, m.in. nową możliwość wykorzystania funkcji cyklometrycznej (arcus tangens) do wyznaczenia odchylenia wartości od tych oryginalnych po przeprowadzeniu SDC. Ponadto zastosowano odwróconą macierz korelacji do oceny wpływu SDC na siłę związków między zmiennymi. Pierwsza z przedstawionych metod umożliwia uzyskanie efektywnych i dobrze interpretowalnych mierników, druga – maksymalne wykorzystanie wzajemnych powiązań między zmiennymi (także tych trudno uchwytnych za pomocą klasycznych metod statystycznych) w celu lepszej analizy skutków kontroli w tym zakresie. Empiryczna weryfikacja użyteczności sugerowanych metod potwierdziła m.in. przewagę funkcji cyklometrycznej w pomiarze odległości w zakresie uwypuklania odchyleń od danych oryginalnych, a także potrzebę umiejętnej korekcji jej spłaszczenia przy dużej wartości argumentów.The most important methods of assessing information loss caused by statistical disclosure control (SDC) are presented in the paper. The aim of SDC is to protect an individual against identification or obtaining any sensitive information relating to them by anyone unauthorised. The application of methods based either on the concealment of specific data or on their perturbation results in information loss, which affects the quality of output data, including the distributions of variables, the forms of relationships between them, or any estimations. The aim of this paper is to perform a critical analysis of the strengths and weaknesses of the particular types of methods of assessing information loss resulting from SDC. Moreover, some novel ideas on how to obtain effective and well-interpretable measures are proposed, including an innovative way of using a cyclometric function (arcus tangent) to determine the deviation of values from the original ones, as a result of SDC. Additionally, the inverse correlation matrix was applied in order to assess the influence of SDC on the strength of relationships between variables. The first presented method allows obtaining effective and well- -interpretable measures, while the other makes it possible to fully use the potential of the mutual relationships between variables (including the ones difficult to detect by means of classical statistical methods) for a better analysis of the consequences of SDC. Among other findings, the empirical verification of the utility of the suggested methods confirmed the superiority of the cyclometric function in measuring the distance between the curved deviations and the original data, and also heighlighted the need for a skilful correction of its flattening when large value arguments occur
    corecore