24 research outputs found

    Improving Robustness of TCM-based Robust Steganography with Variable Robustness

    Full text link
    Recent study has found out that after multiple times of recompression, the DCT coefficients of JPEG image can form an embedding domain that is robust to recompression, which is called transport channel matching (TCM) method. Because the cost function of the adaptive steganography does not consider the impact of modification on the robustness, the modified DCT coefficients of the stego image after TCM will change after recompression. To reduce the number of changed coefficients after recompression, this paper proposes a robust steganography algorithm which dynamically updates the robustness cost of every DCT coefficient. The robustness cost proposed is calculated by testing whether the modified DCT coefficient can resist recompression in every step of STC embedding process. By adding robustness cost to the distortion cost and using the framework of STC embedding algorithm to embed the message, the stego images have good performance both in robustness and security. The experimental results show that the proposed algorithm can significantly enhance the robustness of stego images, and the embedded messages could be extracted correctly at almost all cases when recompressing with a lower quality factor and recompression process is known to the user of proposed algorithm.Comment: 15 pages, 5 figures, submitted to IWDW 2020: 19th International Workshop on Digital-forensics and Watermarkin

    Ефективність стегоаналізу цифрових зображень у випадку попередньої фільтрації стеганограм, сформованих згідно адаптивних методів MG та MIPOD

    Get PDF
    В роботі досліджено вплив попередньої фільтрації цифрових зображень на точ-ність виявлення стеганограм, сформованих згідно адаптивних методів MG та MiPOD. Встановлено, що застосування медіанної, вінеровської та анізотропної (дифузної) філь-трації не дозволяє суттєво підвищити точність виявлення стеганограм. Виявлено, що налаштування стегодетектору з використанням різниць ознак вихідного та обробленого зображень дозволяє на 2%-5% зменшити похибку виявлення стеганограм у порівнянні з випадком використання ознак вихідного зображення.The influence of preliminary filtering of digital images on the detection accuracy of stego images formed according to adaptive methods of MG and MiPOD is investigated. The limitation of applying median, Wiener and anisotropic (diffuse) filters for improvind stedetec-tors performance is shown. It is revealed that usage of linearly transformed features for initial and processed (calibrated) images allows reducing up to 2%-5% detection error in comparison with processing of uncalibrated images

    Ефективність універсального стегодетектору фаріда при вбудовуванні даних у цифрові зображення згідно адаптивних методів

    Get PDF
    В роботі проведено порівняльний аналіз імовірності виявлення стеганограм, сформованих згідно адаптивних алгоритмів HUGO, WOW та S-UNIWARD, при використанні універсального стегодетектору Фаріда. Виявлено вагомі обмеження застосування стегодетектору, особливо в області слабкого заповнення зображення-контейнеру стегоданими (менше 10%).The paper is devoted to comparative analysis of detection accuracy the stego images, formed according to content-adaptive embedding methods HUGO, WOW and S-UNIWARD, by usage of universal Farid’s stegdetector. It is revealed substantial limitation of stegdetector, especially by low cover image payload (less than 10%).В работе проведен сравнительный анализ вероятности обнаружения стеганограм, сформированных согласно адаптивных алгоритмов HUGO, WOW и S-UNIWARD, при использовании универсального стегодетектора Фарида. Выявлены существенные огра-ничения стегодетектора, особенно в случае слабого заполнения изображения-контейнера стегоданными (меньше 10%)

    Теоретико-інформаційні оцінки спотворень контейнерів при формуванні стеганограм

    Get PDF
    Показано вагомі обмеження використання поширених теоретико-інформаційних оцінок відстаней між розподілами значень елементів зображень-контейнерів та стеганограм, зокрема відстані Кульбака-Лейблера. Для підсилення слабких відмінностей між даними розподілами запропоновано використовувати спеціалізовані відстані Хеллінгера, Бхаттачарайя, X2-відстані та спектр відстаней Реньї.It is shown significant limitation of usage the widespread information-theoretical estimations of distance between cover and stego file’s elements distributions, such as KullbackLeibler divergence. For enhancement the weak differences between these distributions it is proposed to use specialized measurements – Hellinger diveregence, Bhattacharayya divergence, X2-divergence and Renyi divergence.Показано существенные ограничения использования распространенных теоретикоинформационных оценок для определения расстояний между распределениями значений элементов изображений-контейнера и стеганограмм, в частности расстояния КульбакаЛейблера. Для усиления слабых различий между данными распределениями предложено использовать специализированные расстояния Хеллингера, Бхаттачарайя, X2-расстояния та спектра расстояний Реньи

    Theoretical model of the FLD ensemble classifier based on hypothesis testing theory

    Get PDF
    International audienceThe FLD ensemble classifier is a widely used machine learning tool for steganalysis of digital media due to its efficiency when working with high dimensional feature sets. This paper explains how this classifier can be formulated within the framework of optimal detection by using an accurate statistical model of base learners' projections and the hypothesis testing theory. A substantial advantage of this formulation is the ability to theoretically establish the test properties, including the probability of false alarm and the test power, and the flexibility to use other criteria of optimality than the conventional total probability of error. Numerical results on real images show the sharpness of the theoretically established results and the relevance of the proposed methodology

    Steganographer Identification

    Full text link
    Conventional steganalysis detects the presence of steganography within single objects. In the real-world, we may face a complex scenario that one or some of multiple users called actors are guilty of using steganography, which is typically defined as the Steganographer Identification Problem (SIP). One might use the conventional steganalysis algorithms to separate stego objects from cover objects and then identify the guilty actors. However, the guilty actors may be lost due to a number of false alarms. To deal with the SIP, most of the state-of-the-arts use unsupervised learning based approaches. In their solutions, each actor holds multiple digital objects, from which a set of feature vectors can be extracted. The well-defined distances between these feature sets are determined to measure the similarity between the corresponding actors. By applying clustering or outlier detection, the most suspicious actor(s) will be judged as the steganographer(s). Though the SIP needs further study, the existing works have good ability to identify the steganographer(s) when non-adaptive steganographic embedding was applied. In this chapter, we will present foundational concepts and review advanced methodologies in SIP. This chapter is self-contained and intended as a tutorial introducing the SIP in the context of media steganography.Comment: A tutorial with 30 page
    corecore