27 research outputs found

    Effective Image Fingerprint Extraction Based on Random Bubble Sampling

    Get PDF
    In this paper we propose an algorithm for image fingerprint extraction based on random selection of circular bubbles on the considered image. In more detail, a fingerprint vector is associated to the image, the components of which are the variances of pixel luminance values in randomly selected circular zones of the image. The positions and radius of these bubbles result from a random selection, whose parameters are user-defined. The obtained fingerprint has then been used for content-based image retrieval, using the standard euclidean distance as similarity metric between the extracted features. Experiments based on the detection of various linearly and nonlinearly distorted versions of a test image in a large database show very promising results

    Image Retrieval with Random Bubbles

    Get PDF
    In this work we propose an algorithm for content based im−age retrieval based on random selection of circular bubbles on the reference image. More specifically, an image finger−print vector is extracted from the image, the components of which are simple statistical parameters associated to the luminance values in some selected circular areas of the im−age. The positions and radius of these bubbles result from a random selection, with characteristics defined by the user. In this way, the extracted fingerprint is very robust with respect to linear and nonlinear distortion of the image. Experiments based on the detection of various linearly and nonlinearly distorted versions of a test image in a large database have shown very promising results

    A Robust Image Hashing Algorithm Resistant Against Geometrical Attacks

    Get PDF
    This paper proposes a robust image hashing method which is robust against common image processing attacks and geometric distortion attacks. In order to resist against geometric attacks, the log-polar mapping (LPM) and contourlet transform are employed to obtain the low frequency sub-band image. Then the sub-band image is divided into some non-overlapping blocks, and low and middle frequency coefficients are selected from each block after discrete cosine transform. The singular value decomposition (SVD) is applied in each block to obtain the first digit of the maximum singular value. Finally, the features are scrambled and quantized as the safe hash bits. Experimental results show that the algorithm is not only resistant against common image processing attacks and geometric distortion attacks, but also discriminative to content changes

    Average Hashing for Perceptual Image Similarity in Mobile Phone Application

    Full text link
    Common problem occurs in almost all mobile devices was duplicated data or files. Such as duplicated images that often happen by event like capturing perceptually similar photos by the user, or images that shared several times in messaging applications chat groups. This common problem can be solved by manually search and remove the duplicated images one by one by the users, but better solutions is by building automated application that search perceptually similar images then provide the result to the users. We study and implementing Average Hashing and Hamming distance for perceptual image similarity into application under mobile phone platform to realize the solution for the problem. The result was very promising in speed and accuracy for finding perceptually similar images under limited resources device like mobile phone

    Hybrid Hashing Method for Similar Vehicle Image Search

    Get PDF
    The novel hybrid method of a hash image calculation that can be applied in a search for similar vehicle images is proposed in this paper. The main novelty of the method described herein is the combination of two hashing types: the visual and semantic hash of the image. The method is based on SIFT and DCT algorithms. We use frontal vehicle images to test the method accuracy. The experimental results indicate that the proposed algorithm has the practical application of image search in the vehicle identification systems based on license plate recognition. We show that method is a novel in this area. The proposed method is also applicable for use in other problem domains

    Enhanced Parallel Hash Function Algorithm Based on 3C Construction (EPHFA-3C)

    Get PDF
    The hash function is a function that can convert data from variable size to fixed-size data that can be used in security of communication like, authentication, digital signature and integration. In this paper, a parallel, secure and fast hash function algorithm that is based on 3C construction is proposed. It is an enhancement for the MD construction. This enhancement makes the construction more resistant to the extension and multi-blocks attacks. The parallel structure of the algorithm improves the speed of hashing and reduces the number of operations. The simulation analysis such as hashes distribution, confusion and diffusion properties, and collision resistance are executed. Based on the results, our proposed hash algorithm is efficient, simple, and has strong security compared with some recent hash algorithms

    Digital Signature untuk Menjaga Keaslian Data dengan Algoritma MD5 dan Algoritma RSA

    Get PDF
    Penelitian ini bertujuan untuk menjaga keaslian data untuk memberikan jaminan kepada si penerima bahwa data tersebut bebas dari modifikasi yang dilakukan oleh pihak lain, dan jika terjadi suatu modifikasi terhadap data tersebut, maka si penerima akan mengetahui bahwa data tersebut tidak lagi terjaga keasliannya. Untuk menjaga keaslian data digunakan teknik digital signature dengan menggunakan algoritma MD5 sebagai algoritma fungsi hash untuk menghasilkan message digest, dan algoritma RSA sebagai algoritma kunci publik, dengan kombinasi kedua algoritma tersebut akan dihasilkan digital signature dari setiap data yang akan dijaga keasliannya

    Authentication with Distortion Criteria

    Full text link
    In a variety of applications, there is a need to authenticate content that has experienced legitimate editing in addition to potential tampering attacks. We develop one formulation of this problem based on a strict notion of security, and characterize and interpret the associated information-theoretic performance limits. The results can be viewed as a natural generalization of classical approaches to traditional authentication. Additional insights into the structure of such systems and their behavior are obtained by further specializing the results to Bernoulli and Gaussian cases. The associated systems are shown to be substantially better in terms of performance and/or security than commonly advocated approaches based on data hiding and digital watermarking. Finally, the formulation is extended to obtain efficient layered authentication system constructions.Comment: 22 pages, 10 figure

    Модифікований спосіб обробки зображень для томографічних знімків

    Get PDF
    Актуальність теми. Обробка зображень та комп’ютерний зір є ключовими дисциплінами роботи з зображеннями та використовуються для розробки прикладних програм та систем реального часу для вирішення аналітичних, дослідницьких та наукових задач. Медичні зображення є важливою складовою медичних досліджень та охорони здоров’я. Запропонований алгоритм для порівняння зображень з використанням блочного методу обчислення хеш-коду зображення дозволяє відслідковувати прогрес лікування та визначати зміни на томографічних знімках. Метою роботи є покращення порівняння медичних томографічних зображень з використанням блочного методу обчислення хеш-коду зображень. Об’єктом дослідження є обробка зображень. Предметом дослідження є методи порівняння томографічних зображень. Методи дослідження: методи порівняння зображень, порівняння алгоритмів по критеріям точності, швидкодії, надійності та доцільності використання для порівняння томографічних зображень. Наукова новизна полягає у модифікації алгоритму Average Hash та застосування блочної обробки зображень як перцептивної хеш-функції для обчислення хеш-коду зображень, що дозволяє порівнювати томографічні знімки, вміст яких може бути оберненим на кут повороту до 7°. Практична цінність полягає у можливості використання розробленого алгоритму для порівняння зображень, що можуть бути модифіковані шляхом їх обертання на кут до 7°, та доцільності використання такого алгоритму для порівняння томографічних знімків. Алгоритм не є ресурсозатратним та є швидким у плані часу виконання, тому може бути використаний у високонавантажених системах та системах з обмеженими ресурсами. Структура та обсяг роботи. Магістерська дисертація складається з вступу, чотирьох розділів, висновків та додатків. У вступі представлена загальна характеристика роботи, запропоноване використання методів обробки зображень для медичних зображень, обґрунтована актуальність роботи. У першому розділі описуються та порівнюються між собою існуючі алгоритми порівняння зображень. У другому розділі наведені визначення, особливості, властивості та характеристики перцептивних хеш-фунцій, хеш-кодів та методів їх порівняння хеш-кодів. У третьому розділі наведені характеристики, які повинен мати перцептивний хеш-алгоритм для обробки томографічних знімків. Запропонований новий, блочний алгоритм обчислення хеш-коду зображень та перелічені його властивості. У четвертому розділі наведені результати тестів та досліджень розробленого алгоритму на тестових наборах зображень та їх модифікаціях, а також порівняння розробленого алгоритму з іншими перцептивними хеш-алгоритмами. У висновках стисло наводяться результати розробки та досдіджень.Topic relevance Image processing and computer vision are key disciplines of image work and are used to develop real-time applications and systems to solve analytical, research and scientific problems. Medical imaging is an important part of medical research and health care. The proposed algorithm for comparing images using the block-based method of calculating the hash code of the image allows to track the progress of treatment and determine changes in tomographic images The object of study is image processing. The subject of study are image comparison methods. The goal of this work is an improvement in the comparison of medical tomographic images using the block-based method of calculating hash codes of images. Study methods: methods of image comparison, comparison of algorithms on criteria of accuracy, speed, reliability and expediency of use for comparison of tomographic images. The scientific novelty is the modification of the Average Hash algorithm and the use of the block processing of the image is as a perceptual hash function for calculating the hash code of the image, so that it allows to compare the tomographic images, which can be rotated up to 7°. The practical value is the possibility of using the developed algorithm to compare images that can be modified by rotating them at an angle of up to 7 ° and the feasibility of using such an algorithm to compare tomographic images. The algorithm is not resource intensive and is fast in terms of execution time, so it can be used in high-load systems and systems with limited resources. Structure and scope of work. The master's dissertation consists of an introduction, four chapters, conclusions and appendices. The introduction presents the general characteristics of the work, the proposed use of image processing methods for medical images, substantiates the relevance of the work. The first chapter describes and compares existing image comparison algorithms. The second chapter presents definitions, features, properties and characteristics of perceptual hash functions, hash codes and methods of their comparison of hash codes. The third chapter presents the characteristics that a perceptual hash algorithm must have for processing tomographic images. A new, block algorithm for calculating the hash code of images and its properties are proposed. The fourth chapter presents the results of tests and research of the developed algorithm on test sets of images and their modifications, as well as a comparison of the developed algorithm with other perceptual hash algorithms. The conclusion summarizes the results of development and research. Keywords algorithm, image processing, image comparison, hash code, perceptual hash function
    corecore