5 research outputs found

    A Gray-Level Dynamic Range Modification Technique for Image Feature Extraction Using Fuzzy Membership Function

    Full text link
    The features of an image must be unique so it is necessary to use certain techniques to ensure them. One of the common techniques is to modify the gray dynamic range of an image. In principle, the gray level dynamic range modification maps the gray level ranges from the input image to the new gray level range as an output image using a specific function. Fuzzy Membership Function (MF) is one kind of membership function that applies the Fuzzy Logic concept. This study uses Trapezoidal MF to map the gray dynamic range of each RGB component to produce a feature of an RGB image. The aim of this study is how to ensure the uniqueness of image features through the setting of Trapezoidal MF parameters to obtain the new dynamic range of gray levels that minimize the possibility of other features other than the selected feature. To test the performance of the proposed method, it also tries to be applied to the signature image. Mean Absolute Error (MAE) calculations between feature labels are performed to test authentication between signatures. The results obtained are for comparison of samples of signature images derived from the same source having a much smaller MAE than the comparison of samples of signature images originating from different sources

    Security Analysis of Bit plane Level Image Encryption Schemes

    Get PDF
    A selective bit-plane encryption scheme was proposed for securing the transmission of image data in mobile environments with a claim that it provides a high security viz. the encryption of the four most significant bit-planes is sufficient for a high image data security. This paper presents the security analysis of the said encryption scheme and reports new important results. We perform the security analysis of the bit-level encryption by considering the normal images and their histogram equalised enhanced images. We consider different bit-plane aspects to analyse the security of the image encryption, and show that the encryption of the four most significant bit-planes is not adequate. The contents of the images can be obtained even when all the bit-planes except one least significant bit-plane are encrypted in the histogram equalised images as shown in the results. The bit-plane level security analysis seems very useful for the analysis of the bit-plane level image encryption schemes

    Visual Contrast Enhancement Algorithm Based on Histogram Equalization

    No full text
    Image enhancement techniques primarily improve the contrast of an image to lend it a better appearance. One of the popular enhancement methods is histogram equalization (HE) because of its simplicity and effectiveness. However, it is rarely applied to consumer electronics products because it can cause excessive contrast enhancement and feature loss problems. These problems make the images processed by HE look unnatural and introduce unwanted artifacts in them. In this study, a visual contrast enhancement algorithm (VCEA) based on HE is proposed. VCEA considers the requirements of the human visual perception in order to address the drawbacks of HE. It effectively solves the excessive contrast enhancement problem by adjusting the spaces between two adjacent gray values of the HE histogram. In addition, VCEA reduces the effects of the feature loss problem by using the obtained spaces. Furthermore, VCEA enhances the detailed textures of an image to generate an enhanced image with better visual quality. Experimental results show that images obtained by applying VCEA have higher contrast and are more suited to human visual perception than those processed by HE and other HE-based methods

    Análise de imagens orientada a objetos e amostragem estatística no monitoramento de cana-de-açúcar, milho e soja no estado de São Paulo.

    Get PDF
    Resumo: A superfície do estado de São Paulo é recoberta por diversos tipos de usos e coberturas da terra, distribuídos em diferentes porções geográficas. Entre esses usos, a cana-de-açúcar, o milho e a soja ocupam a maior parte das áreas agrícolas do estado. Apesar de essas culturas possuírem grande importância para o cenário agrícola, elas ainda não são monitoradas sistematicamente em tempo quase-real. Como os dados de estimativas agrícolas possuem grande importância nas tomadas de decisão, a presente pesquisa teve como meta avaliar a possibilidade de se obter o valor de área ocupada pelas culturas de cana-de-açúcar, milho e soja no estado de São Paulo, em tempo-quase real (período bi-mensal), utilizando sensoriamento remoto (SR), classificação visual e automática de imagens multitemporais OLI. Três diferentes áreas-teste foram avaliadas: o Estado de São Paulo (A1), o município de Cândido Mota/SP (A2) e 15 municípios contínuos e localizados no extremo Sul de São Paulo (A3). Os objetivos específicos de cada área teste foram: (A1) informar o valor da área ocupada com cana-de-açúcar, milho e soja para o estado de São Paulo, em períodos de dois meses do ano safra 2014/2015; (A2) validar informações de campo, desenvolver um protocolo de classificação visual e avalia-lo; e (A3) avaliar o desempenho da classificação automática. Para A1, 5.000 pixels aleatórios foram estratificados em cada mesorregião do estado, em cada período P1 (Nov/Dez), P2 (Jan/Fev), P3 (Mar/Abr) e P4 (Mai/Jun) do ano safra e classificados em laboratório, utilizando protocolo de classificação visual. Além disso, um banco de dados composto por 432 imagens multitemporais OLI foi montado e dividido em 24 mosaicos (n), salvos em composição colorida R-b5 G-b6 B-b4. Cada imagem do mosaico (composto por 18 cenas) foi padronizada através de um algoritmo nominado Aparência Equalizada (ApEq). A ApEq foi executada para que não ocorressem grandes alterações na cor resultante dos alvos pseudo-invariantes presentes nas diferentes imagens dos mosaicos. A análise visual dos resultados da ApEq foi discutida sobre o mosaico de nº 13. Em A2, 200 pixels OLI foram sorteados sobre o município de Cândido Mota/SP e validados em campo no período de 13 a 17 de abril/2015. Informações sobre as áreas ocupadas com cana-de-açúcar, milho e soja foram coletadas, e posteriormente utilizadas para avaliar o protocolo de classificação visual através das estatísticas geradas pela matriz de confusão (Exatidão Global). O protocolo de classificação visual foi aplicado por oito intérpretes, divididos em dois grupos - G1: intérpretes com maior experiência na classificação visual de imagens de SR e G2: intérpretes com menor experiência. O comportamento espectro-temporal (CET) e a presença de vegetação fotossinteticamente ativa (VFA) das três culturas estudadas foram analisados com uso das imagens multitemporais OLI. Os 200 pixels de A2 também foram usados para treinamento de modelos de classificação automática por análise de imagem orientada a objetos OBIA/Random Forest e segmentação via Segmentador Multi-resolução (SM-R). Foram gerados 1150 modelos de classificação, formados pela variação dos parâmetros fator de escala (Fe), forma (Fm) e compacidade (Cp) do algoritmo MR-S aplicado sobre quatro imagem multitemporais OLI 222/076, datadas de agosto/2014, outubro/2014, janeiro/2015 e maio/2015. Os resultados dos modelos de classificação foram testados pela amostragem out-of-bag (OOB), e aquele que obteve maior valor de EG foi replicado para gerar o mapa temático com três classes (cana-de-açúcar, milho e outros), em A3. Outros 200 pixels foram sorteados aleatoriamente sobre A3 e validados por classificação visual, utilizando o protocolo de classificação da presente pesquisa. A ApEq mostrou-se útil no processo de classificação visual, uma vez que o efeito de sobreposição entre órbitas adjacentes foi minimizado pela equalização dos histogramas das imagens, além de proporcionar uma padronização nas cores da VFA das culturas da cana-de-açúcar, milho e soja, nas imagens OLI, em composição colorida R-b5 G-b6 B-b4 de diferentes orbitas/pontos do estado. O protocolo de classificação visual mostrou que a EG média da classificação visual de G2 (94,50 %) foi equivalente ao G1. O modelo de classificação OBIA/Random Forest obteve resultados de exatidão global OOB igual a 99 % quando os parâmetros fe (25), fm (30) e cp (10) foram aplicados no segmentador MS-R. Quando o modelo de classificação foi replicado para A3, o resultado de EG foi 86,50 %. No mapa temático produzido em A3 foram obtidos resultados de área ocupada com milho, semelhantes aos dados da Produção Agrícola Municipal (PAM) (mapa temático produzido em A3 subestimou em 4 % as áreas de milho). Em relação à cana-de-açúcar, a subestimativa foi de 11%, em comparação com os dados da PAM-IBGE. De acordo com estes resultados, a classificação visual pode ser utilizada para estimativa agrícola de cana-de-açúcar, milho e soja em São Paulo, bimensalmente. O protocolo de classificação visual em laboratório é viável, o que reduz custos com visitas em campo. Já a classificação automática ainda não obteve resultados de classificação equiparáveis à classificação visual.Tese (Doutorado em Sensoriamento Remoto) - INPE, São José dos Campos. Orientador: Alfredo José Barreto Luiz (CNPMA)

    Contrast Enhancement Algorithm Based on Gap Adjustment for Histogram Equalization

    No full text
    Image enhancement methods have been widely used to improve the visual effects of images. Owing to its simplicity and effectiveness histogram equalization (HE) is one of the methods used for enhancing image contrast. However, HE may result in over-enhancement and feature loss problems that lead to unnatural look and loss of details in the processed images. Researchers have proposed various HE-based methods to solve the over-enhancement problem; however, they have largely ignored the feature loss problem. Therefore, a contrast enhancement algorithm based on gap adjustment for histogram equalization (CegaHE) is proposed. It refers to a visual contrast enhancement algorithm based on histogram equalization (VCEA), which generates visually pleasing enhanced images, and improves the enhancement effects of VCEA. CegaHE adjusts the gaps between two gray values based on the adjustment equation, which takes the properties of human visual perception into consideration, to solve the over-enhancement problem. Besides, it also alleviates the feature loss problem and further enhances the textures in the dark regions of the images to improve the quality of the processed images for human visual perception. Experimental results demonstrate that CegaHE is a reliable method for contrast enhancement and that it significantly outperforms VCEA and other methods
    corecore