7 research outputs found

    Aliasing artefact index for image interpolation quality assessment

    Get PDF
    A preliminary study of a non-reference aliasing artefact index (AAI) metric is presented in this paper. We focus on the effects of combining a full-reference metric and interpolation algorithm. The nearest neighbor algorithm (NN) is used as the gold standard against which test-algorithms are judged in terms of aliased structures. The structural similarity index (SSIM) metric is used to evaluate a test image (i.e. a test-algorithm's image) and a reference image (i.e. the NN's image). Preliminary experiments demonstrated promising effects of the AAI metric against state-of-the-art non-reference metrics mentioned. A new study may further develop the studied metric for potential applications in image quality adaptation and/or monitoring in medical imaging

    On The Performance of Human Visual System Based Image Quality Assessment Metric Using Wavelet Domain

    Get PDF
    International audienceMost of the efficient objective image or video quality metrics are based on properties and models of the Human Visual System (HVS). This paper is dealing with two major drawbacks related to HVS properties used in such metrics applied in the DWT domain : subband decomposition and masking effect. The multi-channel behavior of the HVS can be emulated applying a perceptual subband decomposition. Ideally, this can be performed in the Fourier domain but it requires too much computation cost for many applications. Spatial transform such as DWT is a good alternative to reduce computation effort but the correspondence between the perceptual subbands and the usual wavelet ones is not straightforward. Advantages and limitations of the DWT are discussed, and compared with models based on a DFT. Visual masking is a sensitive issue. Several models exist in literature. Simplest models can only predict visibility threshold for very simple cue while for natural images one should consider more complex approaches such as entropy masking. The main issue relies on finding a revealing measure of the surround influences and an adaptation: should we use the spatial activity, the entropy, the type of texture, etc.? In this paper, different visual masking models using DWT are discussed and compared

    Masques perceptuels reposant sur l'interpolation en tatouage numérique

    Get PDF
    Cet article s'intéresse à la construction de tatouages numériques imperceptibles. Des masques psychovisuels, destinés à être combinés avec les algorithmes de tatouage classiques, sont proposés. Ils consistent à pondérer le tatouage par une erreur d'interpolation, générée heuristiquement ou par filtrage. Le masque spatial obtenu privilégie les textures et les contours du document. De nombreuses variantes, notamment préservant les contours, sont envisageables. D'autre part, nous proposons une comparaison des performances perceptuelles de masques psychovisuels classiques et des masques proposés, évaluées à l'aide de mesures de qualité objectives

    Fidelity and robustness analysis of SVD-based image watermarking schemes

    Get PDF
    In this paper, an SVD-based perceptual fidelity metric is reviewed and used in the context of objective quantification of image watermarking fidelity for two stateof- the-art Image Adaptive SVD-based Watermarking Schemes. The proposed metric makes use of a Human Visual System perceptual model in the wavelet domain. The robustness of the watermarking schemes against JPEG compression and resizing is also tested on an image dataset of natural color images.Presentado en el IX Workshop Computación Gráfica, Imágenes y Visualización (WCGIV)Red de Universidades con Carreras en Informática (RedUNCI

    Gradient-based image and video quality assessment

    No full text
    У овој дисертацији разматране су објективне мере процене квалитета слике и видеа са потпуним и делимичним референцирањем на изворни сигнал. За потребе евалуације квалитета развијене су поуздане, рачунски ефикасне мере, засноване на очувању информација о градијенту. Мере су тестиране на великом броју тест слика и видео секвенци, различитих типова и степена деградације. Поред јавно доступних база слика и видео секвенци, за потребе истраживања формиране су и нове базе видео секвенци са преко 300 релевантних тест узорака. Поређењем доступних субјективних и објективних скорова квалитета показано је да је објективна евалуација квалитета веома сложен проблем, али га је могуће решити и доћи до високих перформанси коришћењем предложених мера процене квалитета слике и видеа.U ovoj disertaciji razmatrane su objektivne mere procene kvaliteta slike i videa sa potpunim i delimičnim referenciranjem na izvorni signal. Za potrebe evaluacije kvaliteta razvijene su pouzdane, računski efikasne mere, zasnovane na očuvanju informacija o gradijentu. Mere su testirane na velikom broju test slika i video sekvenci, različitih tipova i stepena degradacije. Pored javno dostupnih baza slika i video sekvenci, za potrebe istraživanja formirane su i nove baze video sekvenci sa preko 300 relevantnih test uzoraka. Poređenjem dostupnih subjektivnih i objektivnih skorova kvaliteta pokazano je da je objektivna evaluacija kvaliteta veoma složen problem, ali ga je moguće rešiti i doći do visokih performansi korišćenjem predloženih mera procene kvaliteta slike i videa.This thesis presents an investigation into objective image and video quality assessment with full and reduced reference on original (source) signal. For quality evaluation purposes, reliable, computational efficient, gradient-based measures are developed. Proposed measures are tested on different image and video datasets, with various types of distorsions and degradation levels. Along with publicly available image and video quality datasets, new video quality datasets are maded, with more than 300 relevant test samples. Through comparison between available subjective and objective quality scores it has been shown that objective quality evaluation is highly complex problem, but it is possible to resolve it and acchieve high performance using proposed quality measures

    Contribution des filtres LPTV et des techniques d'interpolation au tatouage numérique

    Get PDF
    Les Changements d'Horloge Périodiques (PCC) et les filtres Linéaires Variant Périodiquement dans le Temps (LPTV) sont utilisés dans le domaine des télécommunications multi-utilisateurs. Dans cette thèse, nous montrons que, dans l'ensemble des techniques de tatouage par étalement de spectre, ils peuvent se substituer à la modulation par code pseudo-aléatoire. Les modules de décodage optimal, de resynchronisation, de pré-annulation des interférences et de quantification de la transformée d'étalement s'appliquent également aux PCC et aux filtres LPTV. Pour le modèle de signaux stationnaires blancs gaussiens, ces techniques présentent des performances identiques à l'étalement à Séquence Directe (DS) classique. Cependant, nous montrons que, dans le cas d'un signal corrélé localement, la luminance d'une image naturelle notamment, la périodicité des PCC et des filtres LPTV associée à un parcours d'image de type Peano-Hilbert conduit à de meilleures performances. Les filtres LPTV sont en outre un outil plus puissant qu'une simple modulation DS. Nous les utilisons pour effectuer un masquage spectral simultanément à l'étalement, ainsi qu'un rejet des interférences de l'image dans le domaine spectral. Cette dernière technique possède de très bonnes performances au décodage. Le second axe de cette thèse est l'étude des liens entre interpolation et tatouage numérique. Nous soulignons d'abord le rôle de l'interpolation dans les attaques sur la robustesse du tatouage. Nous construisons ensuite des techniques de tatouage bénéficiant des propriétés perceptuelles de l'interpolation. La première consiste en des masques perceptuels utilisant le bruit d'interpolation. Dans la seconde, un schéma de tatouage informé est construit autour de l'interpolation. Cet algorithme, qu'on peut relier aux techniques de catégorisation aléatoire, utilise des règles d'insertion et de décodage originales, incluant un masquage perceptuel intrinsèque. Outre ces bonnes propriétés perceptuelles, il présente un rejet des interférences de l'hôte et une robustesse à diverses attaques telles que les transformations valumétriques. Son niveau de sécurité est évalué à l'aide d'algorithmes d'attaque pratiques. ABSTRACT : Periodic Clock Changes (PCC) and Linear Periodically Time Varying (LPTV) filters have previously been applied to multi-user telecommunications in the Signal and Communications group of IRIT laboratory. In this thesis, we show that in each digital watermarking scheme involving spread-spectrum, they can be substituted to modulation by a pseudo-noise. The additional steps of optimal decoding, resynchronization, pre-cancellation of interference and quantization of a spread transform apply also to PCCs and LPTV filters. For white Gaussian stationary signals, these techniques offer similar performance as classical Direct Sequence (DS) spreading. However we show that, in the case of locally correlated signals such as image luminance, the periodicity of PCCs and LPTV filters associated to a Peano-Hilbert scan leads to better performance. Moreover, LPTV filters are a more powerful tool than simple DS modulation. We use LPTV filters to conduct spectrum masking simultaneous to spreading, as well as image interference cancellation in the spectral domain. The latter technique offers good decoding performance. The second axis of this thesis is the study of the links between interpolation and digital watermarking.We stress the role of interpolation in attacks on the watermark.We propose then watermarking techniques that benefit from interpolation perceptual properties. The first technique consists in constructing perceptualmasks proportional to an interpolation error. In the second technique, an informed watermarking scheme derives form interpolation. This scheme exhibits good perceptual properties, host-interference rejection and robustness to various attacks such as valumetric transforms. Its security level is assessed by ad hoc practical attack algorithms
    corecore