3,221 research outputs found

    Влияние уменьшения размеров изображения на вычисление оценки его качества

    Get PDF
    The article describes studies of the effect of image reduction on the quantitative assessment of their quality. Image reduction refers to the proportional reduction of horizontal and vertical image resolutions in pixels. Within the framework of these studies, correlation analysis between quantitative assessments of image quality and subjective assessments of experts was performed. For the experiments, we used images from the public TID2013 database with a resolution of 512 × 384 pixels and expert estimates of their quality, as well as photographs taken with a Nikon D5000 digital camera with a resolution of 4288 × 2848 pixels. All images were reduced in 2, 4 and 8 times. For this two methods were used: bilinear interpolation and interpolation by the nearest neighbor.22 measures were selected to evaluate image quality. Quantitative assessment of image quality was calculated in two stages. At the first stage, an array of local estimates was obtained in the vicinity of each pixel using the selected measures. At the second stage, a global quality assessment was calculated from the obtained local ones. To summarize local quality estimates, the parameters of 16 distributions of random variables were considered.According to the results of the experiments, it was concluded that the accuracy of the quality assessment for some measures decreases with image reduction (for example, FISH, GORD, HELM, LOEN measures). BREN and SHAR measures are recommended as the best. To reduce images, it is better to use the nearest neighbor interpolation method. At the same time, the computation time of estimates is reduced on average by 4 times while reducing images by 2 times. When images are reduced by 8 times, the calculation time decreases on average by 80 times. The amount of memory required to store the reduced images is 25 times less.В статье описаны исследования влияния уменьшения изображений на количественную оценку их качества. Под уменьшением изображения подразумевается пропорциональное уменьшение горизонтального и вертикального разрешений изображения в пикселях. В рамках данных исследований был выполнен анализ корреляции между количественными оценками качества изображений и субъективными оценками экспертов. Для экспериментов использовались изображения из общедоступной базы TID2013с разрешением изображений 512 × 384 пикселя и с экспертными оценками их качества, а также фотографии, сделанные цифровой фотокамерой Nikon D5000 с разрешением 4288 × 2848 пикселя. Все изображения уменьшались в 2, 4 и 8 раз. Для уменьшения использовались два метода: билинейная интерполяция и интерполяция по ближайшему соседу.Для оценки качества изображений было отобрано 22 меры. Количественная оценка качества изображения вычислялась в два этапа. На первом этапе получали массив локальных оценок в окрестности каждого пиксела с использованием отобранных мер. На втором этапе вычислялась глобальная оценка качества по полученным локальным. Для обобщения локальных оценок качества рассматривались параметры 16 распределений случайных величин.По результатам экспериментов сделан вывод, что точность оценки качества для некоторых мер снижается при уменьшении изображений (например, меры FISH, GORD, HELM, LOEN). Рекомендуется применять меры BREN и SHAR. Для уменьшения изображений лучше использовать метод интерполяции ближайшего соседа. При этом время вычислений оценок в среднем сокращается в 4 раза при уменьшении изображений в 2 раза. При уменьшении изображений в 8 раз, время вычислений в среднем снижается в 80 раз. При этом объем памяти необходимой для хранения цифровых изображений уменьшается в 25 раз

    СРАВНИТЕЛЬНЫЙ АНАЛИЗ БЕЗЭТАЛОННЫХ ОЦЕНОК РЕЗКОСТИ ЦИФРОВЫХ ИЗОБРАЖЕНИЙ

    Get PDF
    Recently, problems of digital image sharpness determination are becoming more relevant and significant. The number of digital images used in many fields of science and technology is growing. Images obtained in various ways may have unsatisfactory quality; therefore, an important step in image processing and analysis algorithms is a quality control stage of the received data. Poor quality images can be automatically deleted. In this article we study the problem of the automatic sharpness evaluation of digital images. As a result of the scientific literature analysis, 28 functions were selected that are used to analyze the clarity of digital images by calculation local estimates. All the functions first calculate local estimates in the neighborhood of every pixel, and then use the arithmetic mean as a generalized quality index. Testing have demonstrated that many estimates of local sharpness of the image often have abnormal distribution of the data. Therefore, some modified versions of the studied functions were additionally evaluated, instead of the average of local estimates, we studied the Weibull distribution parameters (FORM, SCALE, MEAN weib, MEDIAN weib). We evaluated three variants of the correlation of quantitative sharpness assessments with the subjective assessments of human experts. Since distribution of local features is abnormal, Spearman and Kendall rank correlation coefficients were used. Correlation above 0.7 means good agreement between quantitative and visual estimates. The experiments were carried out on digital images of various quality and clarity: artificially blurred images and blurred during shooting. Summing up results of the experiments, we propose to use seven functions for automatic analysis of the digital image sharpness, which are fast calculated and better correlated with the subjective sharpness evaluation.В последнее время вопросы определения резкости цифровых изображений становятся все более актуальными и значимыми. Растет количество цифровых фотографий, используемых в разных областях науки и техники. Получаемые разными способами изображения могут иметь неудовлетворительное качество, поэтому важным этапом в алгоритмах обработки и анализа изображений является этап проверки качества получаемых данных. Некачественные изображения можно автоматически удалять. В статье исследуется задача автоматической оценки резкости цифровых изображений. В результате анализа научно-технической литературы были отобраны 28 функций, которые используются для анализа резкости цифровых изображений посредством вычисления множества локальных оценок. Все функции сначала вычисляют локальные оценки в окрестности каждого пиксела, затем в качестве обобщенной оценки качества всего изображения использовались средние арифметические значения локальных оценок. Тестирование показало, что множество локальных оценок резкости одного изображения чаще всего не соответствуют нормальному распределению данных. Поэтому дополнительно оценивались модифицированные варианты исследуемых функций, в которых вместо средних значений локальных оценок использовался один из параметров распределения Вейбулла (FORM, SCALE, MEAN weib, MEDIAN weib). В статье оценивались три варианта корреляции количественных оценок резкости с субъективными оценками человека-эксперта. Так как распределение локальных признаков отличается от нормального, применялись два ранговых коэффициента корреляции – Спирмена и Кендалла. Корреляция выше 0,7 означала хорошее совпадение количественных и визуальных оценок. Эксперименты выполнялись на цифровых изображениях различного качества и резкости – на искусственно размытых изображениях и на размытых в процессе съемки. Обобщая результаты выполненных экспериментов, для автоматического анализа резкости цифровых изображений предлагается использовать семь функций, которые быстро вычисляются и лучше других коррелируют с субъективными оценками резкости, выставленными человеком-экспертом

    A Universal Retinal Image Template for Automated Screening of Diabetic Retinopathy

    Get PDF
    Diabetic retinopathy (DR) frequently appears in diabetic patients. It is initially asymptomatic, but can progress to blindness. Screening studies for its diagnosis are performed in many countries by means of photographing the eye retina with special fundus-cameras. These studies are aimed at revealing the presence of microaneurysms (MAs) on the retina, which are the primary signs of DR. The wide variety of cameras, peculiarities of retina illumination, FOV angles, and sizes of digital images has complicated the development of a reliable and universal approach to analyzing retina images by machine-learning methods. In this paper, we consider the problem of choosing the size and shape of a unified template for representing the data of an arbitrary retinal image for subsequent automated DR screening. It is experimentally proved that it is possible to extract a square inscribed in the FOV region from each retinal image and compress it to the size of 512 × 512 pixels. This is the minimum allowable size of the template. It preserves the required number of MAs for DR screening by machine-learning methods

    Об оценке результатов классификации несбалансированных данных по матрице ошибок1

    Get PDF
    When applying classifiers in real applications, the data imbalance often occurs when the number of elements of one class is greater than another. The article examines the estimates of the classification results for this type of data. The paper provides answers to three questions: which term is a more accurate translation of the phrase "confusion matrix", how preferable to represent data in this matrix, and what functions to be better used to evaluate the results of classification by such a matrix. The paper demonstrates on real data that the popular accuracy function cannot correctly estimate the classification errors for imbalanced data. It is also impossible to compare the values of this function, calculated by matrices with absolute quantitative results of classification and normalized by classes. If the data is imbalanced, the accuracy calculated from the confusion matrix with normalized values will usually have lower values, since it is calculated by a different formula. The same conclusion is made for most of the classification accuracy functions used in the literature for estimation of classification results. It is shown that to represent confusion matrices it is better to use absolute values of object distribution by classes instead of relative ones, since they give an idea of the amount of data tested for each class and their imbalance. When constructing classifiers, it is recommended to evaluate errors by functions that do not depend on the data imbalance, that allows to hope for more correct classification results for real data.При применении классификаторов в реальных приложениях часто число элементов одного класса больше числа элементов другого, т. е. имеет место дисбаланс данных. В статье исследуются оценки результатов классификации данных такого типа. Рассматривается, какой из переводов термина confusion matrix более точен, как предпочтительнее представлять данные в такой матрице и какими функциями лучше оценивать результаты классификации по ней.На реальных данных демонстрируется, что с помощью популярной функции точности accuracy не всегда корректно оцениваются ошибки классификации несбалансированных данных. Нельзя также сравнивать значения функции accuracy, вычисленные по матрицам с абсолютными количественными и нормализованными по классам результатами классификации. При дисбалансе данных точность, вычисленная по матрице ошибок с нормализованными значениями, как правило, будет иметь меньшие значения, поскольку она определяется по иной формуле. Такой же вывод сделан относительно большинства функций, используемых в литературе для нахождения оценок результатов классификации. Показывается, что для представления матриц ошибок лучше использовать абсолютные значения распределения объектов по классам вместо относительных, так как они описывают количество протестированных данных каждого класса и их дисбаланс.При построении классификаторов рекомендуется оценивать ошибки функциями, не зависящими от дисбаланса данных, что позволяет надеяться на получение более корректных результатов классификации реальных данных

    Нормализация данных в машинном обучении

    Get PDF
    In machine learning, the input data is often given in different dimensions. As a result of the scientific papers review, it is shown that the initial data described in different types of scales and units of measurement should be converted into a single representation by normalization or standardization. The difference between these operations is shown. The paper systematizes the basic operations presented in these scales, as well as the main variants of the function normalization. A new scale of parts is suggested and examples of the data normalization for correct analysis are given. Analysis of publications has shown that there is no universal method of data normalization, but normalization of the initial data makes it possible to increase the accuracy of their classification. It is better to perform data clustering by methods using distance functions after converting all features into a single scale. The results of classification and clustering by different methods can be compared with different scoring functions, which often have different ranges of values. To select the most accurate function, it is reasonable to normalize several functions and to compare their estimates on a single scale. The rules for separating features of tree-like classifiers are invariant to scales of quantitative features. Only comparison operation is used. Perhaps due to this property, the random forest classifier, as a result of numerous experiments, is recognized as one of the best classifiers in the analysis of data of different nature.В задачах машинного обучения исходные данные часто заданы в разных единицах измерения и типах шкал. Такие данные следует преобразовывать в единое представление путем их нормализации или стандартизации. В работе показана разница между этими операциями. Систематизированы основные типы шкал, операции над данными, представленными в этих шкалах, и основные варианты нормализации функций. Предложена новая шкала частей и приведены примеры использования нормализации данных для их более корректного анализа.На сегодняшний день универсального метода нормализации данных, превосходящего другие методы, не существует, но нормализация исходных данных позволяет повысить точность их классификации. Кластеризацию данных методами, использующими функции расстояния, лучше выполнять после преобразования всех признаков в единую шкалу.Результаты классификации и кластеризации разными методами можно сравнивать различными оценочными функциями, которые зачастую имеют разные диапазоны значений. Для выбора наиболее точной функции можно выполнить нормализацию нескольких из них и сравнить оценки в единой шкале.Правила разделения признаков древовидных классификаторов инвариантны к шкалам количественных признаков. Они используют только операцию сравнения. Возможно, благодаря этому свойству классификатор типа «случайный лес» в результате многочисленных экспериментов признан одним из лучших при анализе данных разной природы

    Сравнительный анализ оценок качества бинарной классификации

    Get PDF
    The paper describes results of analytical and experimental analysis of seventeen functions used for evaluation of binary classification results of arbitrary data. The results are presented by 2×2 error matrices. The behavior and properties of the main functions calculated by the elements of such matrices are studied.  Classification options with balanced and imbalanced datasets are analyzed. It is shown that there are linear dependencies between some functions, many functions are invariant to the transposition of the error matrix, which allows us to calculate the estimation without specifying the order in which their elements were written to the matrices.It has been proven that all classical measures such as Sensitivity, Specificity, Precision, Accuracy, F1, F2, GM, the Jacquard index are sensitive to the imbalance of classified data and distort estimation of smaller class objects classification errors. Sensitivity to imbalance is found in the Matthews correlation coefficient and Kohen’s kappa. It has been experimentally shown that functions such as the confusion entropy, the discriminatory power, and the diagnostic odds ratio should not be used for analysis of binary classification of imbalanced datasets. The last two functions are invariant to the imbalance of classified data, but poorly evaluate results with approximately equal common percentage of classification errors in two classes.We proved that the area under the ROC curve (AUC) and the Yuden index calculated from the binary classification confusion matrix are linearly dependent and are the best estimation functions of both balanced and imbalanced datasets.Приведены данные аналитического и экспериментального анализов 17 функций, используемых для оценки результатов бинарной классификации произвольных данных. Результаты классификации представлены матрицами ошибок размером 2×2. Исследованы поведение и свойства основных функций, вычисляемых по элементам этих матриц. Анализируются варианты классификации со сбалансированными и несбалансированными классами данных. Показано, что между отдельными функциями существуют линейные зависимости. Многие функции инвариантны к транспонированию матриц ошибок, что позволяет вычислять оценки, не уточняя порядок записи данных в эти матрицы.Доказано, что все классические функции (Sensitivity, Specificity, Precision, Accuracy, F1, F2, GM, индекс Жаккара) чувствительны к дисбалансу классифицируемых данных и искажают оценки при ошибках классификации объектов меньшего класса. Чувствительность к дисбалансу имеется у коэффициента корреляции Мэтьюса и каппы Коэна. Экспериментально показано, что такие функции, как энтропия ошибки (confusion entropy), степень разделимости (discriminatory power) и диагностическое отношение шансов (diagnostic odds ratio), не стоит использовать для анализа результатов бинарной классификации несбалансированных классов. Две последние функции инвариантны к дисбалансу классифицируемых данных, но плохо оценивают результаты с примерно равным суммарным процентом ошибок классификации. Доказано, что площадь под ROC-кривой (AUC) и индекс Юдена, вычисляемые по матрице ошибок бинарной классификации, линейно зависимы и являются наиболее подходящими оценочными функциями для сравнения результатов бинарной классификации как сбалансированных, так и несбалансированных данных

    Data normalization in machine learning

    Get PDF
    В задачах машинного обучения исходные данные часто заданы в разных единицах измерения и типах шкал. Такие данные следует преобразовывать в единое представление путем их нормализации или стандартизации. В работе показана разница между этими операциями. Систематизированы основные типы шкал, операции над данными, представленными в этих шкалах, и основные варианты нормализации функций. Предложена новая шкала частей и приведены примеры использования нормализации данных для их более корректного анализа. На сегодняшний день универсального метода нормализации данных, превосходящего другие методы, не существует, но нормализация исходных данных позволяет повысить точность их классификации. Кластеризацию данных методами, использующими функции расстояния, лучше выполнять после преобразования всех признаков в единую шкалу. Результаты классификации и кластеризации разными методами можно сравнивать различными оценочными функциями, которые зачастую имеют разные диапазоны значений. Для выбора наиболее точной функции можно выполнить нормализацию нескольких из них и сравнить оценки в единой шкале. Правила разделения признаков древовидных классификаторов инвариантны к шкалам количественных признаков. Они используют только операцию сравнения. Возможно, благодаря этому свойству классификатор типа «случайный лес» в результате многочисленных экспериментов признан одним из лучших при анализе данных разной природы. In machine learning, the input data is often given in different dimensions. As a result of the scientific papers review, it is shown that the initial data described in different types of scales and units of measurement should be converted into a single representation by normalization or standardization. The difference between these operations is shown. The paper systematizes the basic operations presented in these scales, as well as the main variants of the function normalization. A new scale of parts is suggested and examples of the data normalization for correct analysis are given. Analysis of publications has shown that there is no universal method of data normalization, but normalization of the initial data makes it possible to increase the accuracy of their classification. It is better to perform data clustering by methods using distance functions after converting all features into a single scale. The results of classification and clustering by different methods can be compared with different scoring functions, which often have different ranges of values. To select the most accurate function, it is reasonable to normalize several functions and to compare their estimates on a single scale. The rules for separating features of tree-like classifiers are invariant to scales of quantitative features. Only comparison operation is used. Perhaps due to this property, the random forest classifier, as a result of numerous experiments, is recognized as one of the best classifiers in the analysis of data of different nature

    About the confusion-matrix-based assessment of the results of imbalanced data classification

    Get PDF
    При применении классификаторов в реальных приложениях часто число элементов одного класса больше числа элементов другого, т. е. имеет место дисбаланс данных. В статье исследуются оценки результатов классификации данных такого типа. Рассматривается, какой из переводов термина confusion matrix более точен, как предпочтительнее представлять данные в такой матрице и какими функциями лучше оценивать результаты классификации по ней. На реальных данных демонстрируется, что с помощью популярной функции точности accuracy не всегда корректно оцениваются ошибки классификации несбалансированных данных. Нельзя также сравнивать значения функции accuracy, вычисленные по матрицам с абсолютными количественными и нормализованными по классам результатами классификации. При дисбалансе данных точность, вычисленная по матрице ошибок с нормализованными значениями, как правило, будет иметь меньшие значения, поскольку она определяется по иной формуле. Такой же вывод сделан относительно большинства функций, используемых в литературе для нахождения оценок результатов классификации. Показывается, что для представления матриц ошибок лучше использовать абсолютные значения распределения объектов по классам вместо относительных, так как они описывают количество протестированных данных каждого класса и их дисбаланс. При построении классификаторов рекомендуется оценивать ошибки функциями, не зависящими от дисбаланса данных, что позволяет надеяться на получение более корректных результатов классификации реальных данных. When applying classifiers in real-world applications, data imbalance often occurs when the number of elements of one class is greater than another. The article examines the estimates of the classification results for this type of data. The paper provides answers to three questions: which term is a more accurate translation of the phrase confusion matrix, how it is preferable to represent data in this matrix, and what functions are better to evaluate the results of classification by such a matrix. The paper demonstrates on real data that the popular accuracy function cannot correctly estimate the classification errors for imbalanced data. It is also impossible to compare the values of this function, calculated by matrices with the absolute quantitative results of classification and normalized by classes. If the data is imbalanced, the accuracy calculated from the confusion matrix with normalized values will usually have lower values, since it is calculated by a different formula. The same conclusion is made for most of the classification accuracy functions used in the literature for estimation of classification results. It is shown that to represent confusion matrices it is better to use absolute values of object distribution by classes instead of relative ones, since they give an idea of the amount of data tested for each class and their imbalance. When constructing classifiers, it is recommended to evaluate errors by functions that do not depend on the data imbalance, which allows us to hope for more correct classification results for real data

    High Dynamic Range Mapping for Synthetic Aperture Radar Images

    Get PDF
    Luminance compression is often performed for high dynamic range images (still images and videos). A nonlinear tone mapping is applied for the compression in order to reproduce high dynamic range images using devices with a more limited (low) dynamic range. The images obtained after mapping may provide significant content differences in comparison to original data. This can be found for both optical and non-optical images. In this paper, we consider non-optical high dynamic range images, such as synthetic aperture radar images. Particularly, luminance compression may produce unwanted effects. Artificial objects found in an image and speckle noise may significantly affect the quality after tone mapping. In this paper, we consider several examples related to synthetic aperture radar images, as well as several global and a local luminance reduction method. The experimental analysis includes a comparison of several quality assessment methods

    Методы математического моделирования в проектировании бортовых лазерных локационных систем космических аппаратов

    Get PDF
    To perform rendezvous and docking of spacecraft (SC), it is necessary to detect and measure the coordinates of a passive space vehicle (SV) using the onboard aids of an active SV. For this purpose, in addition to radio engineering systems, laser-ranging systems (LRS) are used. A designing process of the onboard LRS for promising spacecraft is currently becoming more complicated and requires taking into account a lot of factors.The authors have developed the PC software to assess capabilities of onboard pulse LRS of spacecraft when working on the nearby or distant space objects that have a diffusely scattering surface, as well as are equipped with the corner reflectors. The software also allows us to calculate the LRS parameters, which, according to GOST R 50723-94, ensure eye-safety in the spectral range of 0.81 ... 1.5 microns in case of accidental irradiation.The energy of the intensifier pulse and the divergence of a sensing beam determine the LRS range and the distance of eye-safe observation, which are the most important indicators to characterize the onboard LRS capabilities. To ensure the best LRS range and safety characteristics simultaneously, it is necessary to solve the problem of multi-criteria optimization.The paper solves the problem of multi-criteria optimization for the maximum LRS range and the eye-safe observation distance by Pareto sets the use of which allows us to avoid uncertainty in choosing a significance of criteria.The results obtained show that the proposed methods can be successfully applied in designing onboard LRS of spacecraft.Для выполнения операций сближения и стыковки космических аппаратов (КА) необходимо обнаружение и измерение координат пассивного КА с помощью бортовых средств активного КА. Для этой цели кроме радиотехнических систем используются лазерные локационные системы (ЛЛС). Процесс проектирования бортовых ЛЛС для перспективных КА в настоящее время усложняется и требует учета многих факторов.Авторами была разработана программа для персональных ЭВМ, предназначенная для оценки возможностей бортовых ЛЛС КА, работающих в импульсном режиме, при работе по близкорасположенным или удаленным космическим объектам, имеющим диффузно рассеивающую поверхность, а также снабженными уголковыми отражателями. Программа также позволяет рассчитать параметры ЛЛС, обеспечивающие безопасность для органов зрения при случайном облучении в спектральном диапазоне 0,81…1,5 мкм согласно требованиям, устанавливаемым ГОСТ Р 50723-94.Энергия импульса подсветки и расходимость зондирующего пучка определяют дальность ЛЛС и дистанцию безопасного наблюдения, которые являются важнейшими показателями, характеризующими возможности бортовых ЛЛС. Для одновременного обеспечения наилучших характеристик по дальности и безопасности ЛЛС, необходимо решить задачу многокритериальной оптимизации.В работе решена задача многокритериальной оптимизации для максимальной дальности ЛЛС и дистанции безопасного наблюдения с использованием множеств Парето, применение которых позволяет избежать неопределенности при выборе значимости критериев.Полученные результаты показывают, что предложенные методы могут успешно применяться при разработке бортовых ЛЛС КА
    corecore