10 research outputs found

    Formulation and error analysis for a generalized image point correspondence algorithm

    Get PDF
    A Generalized Image Point Correspondence (GIPC) algorithm, which enables the determination of 3-D motion parameters of an object in a configuration where both the object and the camera are moving, is discussed. A detailed error analysis of this algorithm has been carried out. Furthermore, the algorithm was tested on both simulated and video-acquired data, and its accuracy was determined

    A polarization interferometer for coherent optical image processing

    Get PDF
    Imperial Users onl

    Reconhecimento de padrões em expressões faciais : algoritmos e aplicações

    Get PDF
    Orientador: Hélio PedriniTese (doutorado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: O reconhecimento de emoções tem-se tornado um tópico relevante de pesquisa pela comunidade científica, uma vez que desempenha um papel essencial na melhoria contínua dos sistemas de interação humano-computador. Ele pode ser aplicado em diversas áreas, tais como medicina, entretenimento, vigilância, biometria, educação, redes sociais e computação afetiva. Há alguns desafios em aberto relacionados ao desenvolvimento de sistemas emocionais baseados em expressões faciais, como dados que refletem emoções mais espontâneas e cenários reais. Nesta tese de doutorado, apresentamos diferentes metodologias para o desenvolvimento de sistemas de reconhecimento de emoções baseado em expressões faciais, bem como sua aplicabilidade na resolução de outros problemas semelhantes. A primeira metodologia é apresentada para o reconhecimento de emoções em expressões faciais ocluídas baseada no Histograma da Transformada Census (CENTRIST). Expressões faciais ocluídas são reconstruídas usando a Análise Robusta de Componentes Principais (RPCA). A extração de características das expressões faciais é realizada pelo CENTRIST, bem como pelos Padrões Binários Locais (LBP), pela Codificação Local do Gradiente (LGC) e por uma extensão do LGC. O espaço de características gerado é reduzido aplicando-se a Análise de Componentes Principais (PCA) e a Análise Discriminante Linear (LDA). Os algoritmos K-Vizinhos mais Próximos (KNN) e Máquinas de Vetores de Suporte (SVM) são usados para classificação. O método alcançou taxas de acerto competitivas para expressões faciais ocluídas e não ocluídas. A segunda é proposta para o reconhecimento dinâmico de expressões faciais baseado em Ritmos Visuais (VR) e Imagens da História do Movimento (MHI), de modo que uma fusão de ambos descritores codifique informações de aparência, forma e movimento dos vídeos. Para extração das características, o Descritor Local de Weber (WLD), o CENTRIST, o Histograma de Gradientes Orientados (HOG) e a Matriz de Coocorrência em Nível de Cinza (GLCM) são empregados. A abordagem apresenta uma nova proposta para o reconhecimento dinâmico de expressões faciais e uma análise da relevância das partes faciais. A terceira é um método eficaz apresentado para o reconhecimento de emoções audiovisuais com base na fala e nas expressões faciais. A metodologia envolve uma rede neural híbrida para extrair características visuais e de áudio dos vídeos. Para extração de áudio, uma Rede Neural Convolucional (CNN) baseada no log-espectrograma de Mel é usada, enquanto uma CNN construída sobre a Transformada de Census é empregada para a extração das características visuais. Os atributos audiovisuais são reduzidos por PCA e LDA, então classificados por KNN, SVM, Regressão Logística (LR) e Gaussian Naïve Bayes (GNB). A abordagem obteve taxas de reconhecimento competitivas, especialmente em dados espontâneos. A penúltima investiga o problema de detectar a síndrome de Down a partir de fotografias. Um descritor geométrico é proposto para extrair características faciais. Experimentos realizados em uma base de dados pública mostram a eficácia da metodologia desenvolvida. A última metodologia trata do reconhecimento de síndromes genéticas em fotografias. O método visa extrair atributos faciais usando características de uma rede neural profunda e medidas antropométricas. Experimentos são realizados em uma base de dados pública, alcançando taxas de reconhecimento competitivasAbstract: Emotion recognition has become a relevant research topic by the scientific community, since it plays an essential role in the continuous improvement of human-computer interaction systems. It can be applied in various areas, for instance, medicine, entertainment, surveillance, biometrics, education, social networks, and affective computing. There are some open challenges related to the development of emotion systems based on facial expressions, such as data that reflect more spontaneous emotions and real scenarios. In this doctoral dissertation, we propose different methodologies to the development of emotion recognition systems based on facial expressions, as well as their applicability in the development of other similar problems. The first is an emotion recognition methodology for occluded facial expressions based on the Census Transform Histogram (CENTRIST). Occluded facial expressions are reconstructed using an algorithm based on Robust Principal Component Analysis (RPCA). Extraction of facial expression features is then performed by CENTRIST, as well as Local Binary Patterns (LBP), Local Gradient Coding (LGC), and an LGC extension. The generated feature space is reduced by applying Principal Component Analysis (PCA) and Linear Discriminant Analysis (LDA). K-Nearest Neighbor (KNN) and Support Vector Machine (SVM) algorithms are used for classification. This method reached competitive accuracy rates for occluded and non-occluded facial expressions. The second proposes a dynamic facial expression recognition based on Visual Rhythms (VR) and Motion History Images (MHI), such that a fusion of both encodes appearance, shape, and motion information of the video sequences. For feature extraction, Weber Local Descriptor (WLD), CENTRIST, Histogram of Oriented Gradients (HOG), and Gray-Level Co-occurrence Matrix (GLCM) are employed. This approach shows a new direction for performing dynamic facial expression recognition, and an analysis of the relevance of facial parts. The third is an effective method for audio-visual emotion recognition based on speech and facial expressions. The methodology involves a hybrid neural network to extract audio and visual features from videos. For audio extraction, a Convolutional Neural Network (CNN) based on log Mel-spectrogram is used, whereas a CNN built on Census Transform is employed for visual extraction. The audio and visual features are reduced by PCA and LDA, and classified through KNN, SVM, Logistic Regression (LR), and Gaussian Naïve Bayes (GNB). This approach achieves competitive recognition rates, especially in a spontaneous data set. The second last investigates the problem of detecting Down syndrome from photographs. A geometric descriptor is proposed to extract facial features. Experiments performed on a public data set show the effectiveness of the developed methodology. The last methodology is about recognizing genetic disorders in photos. This method focuses on extracting facial features using deep features and anthropometric measurements. Experiments are conducted on a public data set, achieving competitive recognition ratesDoutoradoCiência da ComputaçãoDoutora em Ciência da Computação140532/2019-6CNPQCAPE

    Aprendendo a suprimir não-máximos para aperfeiçoar a detecção de nódulos pulmonares em imagens de CT

    Get PDF
    Orientador: Alexandre Xavier FalcãoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: O câncer de pulmão é o tipo mais comum de câncer em homens e o terceiro mais comum em mulheres. Devido ao mau prognóstico, o câncer de pulmão é responsável pela maior taxa de mortalidade, atingindo 1,8 milhão de mortes por ano. O diagnóstico e o tratamento nos estágios iniciais podem aumentar as chances de sobrevivência. A tomografia computadorizada (TC) é a modalidade de imagem preferida para detectar e diagnosticar câncer de pulmão, pois fornece imagens 3D do tórax em alta resolução, facilitando a detecção de pequenos nódulos. No entanto, a natureza 3D das imagens dificulta sua análise visual. Como conseqüência, o número de falsos positivos ainda é alto e, mesmo contando com a opinião de vários especialistas, o diagnóstico é frequentemente sujeito a alguma falta de consenso. Os sistemas de Diagnóstico Assistida por Computador (CAD) foram desenvolvidos para solucionar o problema, auxiliando especialistas na tarefa de detecção e classificação mais rápidas e precisas de anormalidades. As técnicas usadas nos sistemas CAD podem ser divididas em dois grupos: sistemas CAD que exploram features de imagem baseados em conhecimento e sistemas CAD que aprendem os features de imagens anotadas, principalmente baseadas em aprendizado profundo por meio de redes neurais convolucionais (CNNs). Na última década, muitos métodos computacionais (sistemas CAD) foram desenvolvidos para auxiliar os médicos na detecção de nódulos pulmonares. Tais métodos são baseados principalmente em CNNs, que alcançaram resultados promissores na detecção precoce de nódulos pulmonares. No entanto, esses métodos geram várias regiões candidatas por nódulo, de modo que um algoritmo de não-máxima supressão (NMS) é necessário para selecionar uma única região por nódulo, eliminando as redundantes. O GossipNet é uma rede neural 1D para NMS, que pode aprender os parâmetros do NMS em vez de confiar nos parâmetros artesanais. No entanto, o GossipNet não tira proveito dos features de imagem para aprender NMS. Neste trabalho, propomos um sistema CAD automatizado para detecção de nódulos pulmonares, que consiste em quatro módulos: pré-processamento, a definição de uma região de interesse (por exemplo, por segmentação pulmonar), detecção de nódulos e a eliminação de candidatos redundantes. Para a segmentação pulmonar, usamos uma abordagem recente baseada em sequências de transformações florestais de imagem (IFTs) denominada ALTIS, fornecendo uma segmentação mais precisa dos pulmões em comparação com o método usado no desafio LUNA16. Para a detecção de nódulos e a eliminação de candidatos redundantes, usamos o 3D Faster R-CNN com ResNet18 para a detecção de regiões candidatas com nódulos e apresentamos FeatureNMS --- uma rede neural que fornece features de imagem adicionais à entrada do GossipNet, que resultam de uma transformação sobre as intensidades de voxel de cada região candidata na imagem da TC. Para validação, usamos o conjunto de dados de desafio LUNA16Abstract: Lung cancer is the most common type of cancer in men and the third most common one in women. Due to poor prognosis, lung cancer is responsible for the largest mortality rate, reaching 1.8 million deaths per year. Diagnosis and treatment at the early stages can increase the chances of survival. Computerized Tomography (CT) is the imaging modality of preference to detect and diagnose lung cancer since it provides high-resolution 3D images of the thorax, facilitating the detection of small nodules. However, the 3D nature of the images makes their visual analysis difficult. As a consequence, the number of false positives is still high and, even by counting on the opinion of multiple specialists, the diagnosis is often subjected to some lack of consensus. Computer-Aided Detection (CAD) systems have been developed to address the problem, assisting to specialists in the task of quicker and more accurate detection and classification of abnormalities. The techniques used in CAD systems may be divided into two groups: CAD systems that explore knowledge-based image features and CAD systems that learn the features from annotated images, mostly based on deep learning through Convolutional Neural Networks (CNNs). In the last decade, many computational methods (CAD systems) have been developed to assist physicians in lung nodule detection. Such methods are mostly based on CNNs, which have achieved promising results in early detection of lung nodules. However, these methods generate several candidate regions per nodule, such that a Non-Maximum Suppression (NMS) algorithm is required to select a single region per nodule while eliminating the redundant ones. GossipNet is a 1D Neural Network (NN) for NMS, which can learn the NMS parameters rather than relying on handcrafted ones. However, GossipNet does not take advantage of image features to learn NMS. In this work, we propose an automated CAD system for lung nodule detection which consists of four modules: pre-processing, the definition of a region of interest (e.g., by lung segmentation), nodule detection, and the elimination of redundant candidates. For lung segmentation, we use a recent approach based on sequences of Image Foresting Transforms (IFTs) named ALTIS providing a more accurate segmentation of the lungs compared to the method used in the LUNA16 challenge. For nodule detection and the elimination of redundant candidates, we use 3D Faster R-CNN with ResNet18 for the detection of candidate regions with nodules and present \emph{FeatureNMS} --- a neural network that provides additional image features to the input of GossipNet, which result from a transformation over the voxel intensities of each candidate region in the CT image. For validation, we use the LUNA16 challenge datasetMestradoCiência da ComputaçãoMestre em Ciência da Computação171063/2017-12014/12236-1CNPQFAPES

    Otimização de descritores usados nos estudos de cambios associadas à malignidade em imagens digitais de células cervicais

    Get PDF
    Orientadores: Marco Antonio Garcia de Carvalho, Guilherme Palermo CoelhoTese (doutorado) - Universidade Estadual de Campinas, Faculdade de TecnologiaResumo: O Câncer de Colo de Útero (CCU) é um problema de saúde coletiva em todo o mundo, nesse sentido foram feitos grandes avanços para sua detecção e prevenção. Apesar dos esforços feitos pelos países da América Latina para reduzir os indicadores de mortes por essa doença, eles ainda não são suficientes em comparação com o progresso de outros países europeus.Uma das razões, é que os sistemas de saúde pública em vários países da América têm limitações importantes em seus programas de acompanhamento e prevenção.O vírus do papanicolau está associado a 95 % dos cânceres cervicais, embora as instituições de saúde pública em todo o mundo invistam esforços técnicos, humanos e econômicos para reduzir o impacto da CCU em suas comunidades. Desde 1960, são realizadas pesquisas a respeito ao exame do Papanicolau, considerado este como um dos mecanismos mais utilizados pelo mundo para controlar e diagnosticar esta doença. Alterações Associadas à Malignidade (MAC), são pequenas alterações na morfologia e textura da cromatina, predizendo possíveis lesões malignas associadas ao CCU, tornando-se uma investigação interessante na aplicação do exame do panicolau. A identificação de MAC¿s em imagens de células cervicais é um problema accessível a possíveis investigações, devido às complexidades da identificação visual de estruturas nucleares. A partir das técnicas de Processamento Digital de Imagens (PDI), tem se conseguido grandes avanços, especialmente na obtenção de 400 descritores para o estudo de MAC's, no entanto a pequena quantidade de imagens focadas no estudo MAC, assim como a limitação técnica do equipamento e poucos profissionais que trabalham nesses estudos limitam o progresso nesta área. Esta tese tem como objetivo, otimizar descritores propostos na literatura para o estudo do MAC utilizando PDI. Para atingir este objetivo, foi criado em conjunto com a Fundação Universitária de Ciências para a Saúde da Colômbia (FUCS), um Data set de imagens de células cervicais que possibilitará o estudo de MAC's. Para adquirir imagens para o estudo, foram digitalizadas 6 folhas de pacientes com diferentes patologias que foram diagnosticadas e marcadas por uma cito-técnica especializada. As imagens foram pré-processadas empregando filtros espaciais e núcleos segmentados usando o algoritmo k-means e watershed. Os canais de cor foram separados pela sua contribuição de hematoxilina e corante Orange G6 dos núcleos segmentados; se extraíram 800 descritores morfológicos, de textura, densidade óptica e iluminação dos núcleos para sua posterior classificação. Contribuímos com a criação de um conjunto de dados para o estudo do MAC em imagens de CCU de exames de citologia convencional. Comparamos três classificadores supervisionados, treinados com 795 descritores, 412 descritores, 200 descritores e 962 instâncias. Calculamos e ordenamos os descritores extraídos pela informação obtida de cada um deles. Com um grupo de descritores, a precisão da classificação é 95,3 %. A segmentação dos núcleos mostrou uma precisão de 85,6 %. A otimização dos descritores foi de 4,3% melhor que a dos descritores propostos pela literatura, sendo composta por 30% de descritores de textura, 27% de descritores morfológicos, 11,5% de descritores de densidade óptica e 17% de descritores associados à concordância de níveis de cinzaAbstract: Cervical cancer (CCU) is a collective health problem worldwide, in that sense great advances have been made for its detection and prevention. Despite the efforts made by Latin American countries to reduce the indicators of deaths from this disease, they are still not sufficient compared to the progress of other European countries. One of the reasons is that the public health systems of several countries in the Americas present important limitations in their monitoring and prevention programs. The Human Papilloma Virus is associated with 95% of cervical cancers. Public health institutions around the world invest technical, human, and economic efforts to lessen the impact of the CCU on their communities. The mechanism most used by the world to control and diagnose this disease is the examination of the Human Papilloma. Research on this test has been conducted since 1960. The Malignancy Associated Changes MAC, are slight alterations in the morphology and texture of chromatin predicting possible malignant lesions associated to CCU, becoming one of the promising researches to be applied in the examination of the human papilloma. The identification of MAC's in cervical cell images is an open problem, due to the complexities of visual identification of nuclear structures. From Digital Image Processing (DIP) techniques great advances have been made especially in obtaining 400 descriptors for the study of MAC's, however the small amount of images focused on MAC's study, as well as the technical limitation of the equipment and few professionals who worked to these studies has limited progress in this area. The objective of this thesis is to optimize the descriptors proposed in the literature for the study of MAC using DIP. In order to achieve this objective, a set of cervical cell images was created for the study of MAC's, in conjunction with the Fundación Universitaria de Ciencias para la Salud-Colombia (FUCS). With the purpose of acquiring images for the study, 6 slides of patients with different pathologies were digitalized, which were diagnosed and labeled by a specialized cyto-technique. The images were pre-processed using spatial filters and segmented nuclei using the k-means and watershed algorithm. The color channels were separated by contribution of Hematoxylin and Orange G6 dye from the segmented nuclei; 800 morphological, texture, optical density and illumination descriptors were extracted from the nuclei for later classification. We contributed with the creation of a Data Set for the study of MAC in CCU images of conventional cytology examinations. We compared three supervised classifiers with 795 descriptors, 412 descriptors, 200 descriptors and 962 instances. We calculated and sorted the extracted descriptors by the information gain of each one of them. The optimization of the descriptors was 4.3% better than the descriptors proposed in the literature, consisting of 30% texture descriptors, 27% morphological descriptors, 11.5% optical density descriptors and 17% descriptors associated with the agreement of gray levelsDoutoradoSistemas de Informação e ComunicaçãoDoutor em TecnologiaCAPE

    Connoisseur : análise de procedência em pinturas

    Get PDF
    Orientador: Anderson de Rezende RochaDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: O crescimento de arte no meio digital tem, sem sombras de dúvida, democratizado o acesso ao conteúdo pelo público em geral. Entretanto, esse crescimento também implicou no indesejado aumento no número de falsificações e desinformação sobre conteúdos acerca de arte. Nesta linha, aprendizado de máquina pode ser utilizado para automatizar a organização e identificação de obras de arte em relação à sua providência, auxiliando especialistas e usuários comuns na obtenção e validação de obras de arte. Empregamos neste trabalho estratégias baseadas em redes convolucionais para identificar e classificar artefatos digitais relacionados à arte. Primeiramente, pinturas de van Gogh são usadas para explorar e refinar estratégias capazes de discriminar seus padrões de pincelada. Múltiplos testes de conjuntos de dados cruzados são executados a fim de validar o método mais promissor encontrado. Os resultados indicam que atingimos uma drástica melhora em performance enquanto produzindo uma leve melhora em pontuação (90.99% acurácia em nível de segmento de pintura, 95.52% acurácia em nível de pinturas), quando comparado à estudos anteriores sobre o mesmo conjunto de dados. Estendendo nosso trabalho a partir da análise sobre van Gogh para um maior escopo, consideramos o conjunto de dados Painter by Numbers, onde expandimos nossa estratégia para o cenário multi-classe, onde buscamos distinguir pinturas divididas em 1.584 diferentes autores, 135 estilos e 42 gêneros. Propomos um método que combina informação dos três grupos de classes em um único discriminador de autoria, atingindo a ROC AUC competitiva de 0.91361 sem a aplicação de transformações potencialmente destrutivas sobre os padrões de pincelada que poderiam salientar características artificiais adjacentes, como brilho, contraste, escalas e objetosAbstract: Increasing digital art has without a doubt democratized the access to art content to the public at large. It has had, however, resulted in an inadvertent growing number of forgeries and misinformation around art content. In this vein, machine learning can be used to automatically organize and identify art content with respect to its provenance, aiding experts and regular users to retrieve and validate art pieces. In this work, we employ convolutional networks-based strategies to identify and classify art-related digital artifacts. Firstly, van Gogh paintings are used to explore and refine strategies capable of discriminating the brushstroke pattern of van Gogh. Multiple cross-dataset tests are performed in order to further validate the most promising method. We achieve significant performance improvements while slightly increasing accuracy (91% patch-level, 95.5% sample-level) when compared to previous studies in the same dataset. Extending our work from van Gogh analyses to a much broader setup, we consider the Painter by Numbers dataset, in which we expand our strategy to a multi-class scenario, seeking to distinguish paintings from 1,584 different authors, 135 art styles and 42 genres. We propose a method that combines information from these three class-groups into a single authorship discriminator, achieving the competitive ROC AUC of 0.91 without any transformations that could potentially damage the brushstroke patterns and emphasize adjacent features, such as brightness, contrast, scales and objectsMestradoCiência da ComputaçãoMestre em Ciência da Computação137446/2016-0CNP

    Automatic lungs and trachea segmentation on computed tomography images from the thorax

    Get PDF
    Orientador: Alexandre Xavier FalcãoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Atualmente, doenças respiratórias afetam uma grande parcela da população mundial. A melhor maneira para detecção e análise desse tipo de doença é o diagnóstico por imagem, principalmente a tomografia computadorizada (CT). Sistemas de apoio ao diagnóstico foram desenvolvidos para auxiliar especialistas clínicos na análise de imagens de CT e na obtenção de diagnósticos precisos e rápidos. Em tais sistemas, a segmentação dos pulmões é um passo primordial a ser realizado, sendo fundamental para análises quantitativas. Ao longo dos últimos anos, muitos métodos de segmentação dos pulmões foram propostos. Entretanto, eles sofrem de pelo menos uma das seguintes limitações: alto tempo computacional, fracas condições para separação da traqueia e de cada pulmão, e um número limitado de amostras para validação. Abordando tais limitações, esta dissertação de mestrado propõe um método rápido e automático chamado Automatic Lung and Trachea Image Segmentation (ALTIS), para segmentação dos pulmões e da traqueia em imagens de CT do tórax. O método ALTIS se fundamenta na competição ótima de sementes para segmentar os pulmões e a traqueia em tempo proporcional ao tamanho da imagem. Ele consiste de uma rápida sequência de operações de processamento de imagem baseadas em características anatômicas que são robustas para a maioria das variações de forma e aparência dos pulmões. Isto é, a partir da premissa de que o sistema respiratório em uma imagem de CT representa o maior objeto cercado por tecido mais claro, os pulmões e a traqueia são extraídos criando o volume de interesse. Considerando que os pulmões direito e esquerdo são mais largos do que a traqueia e que a traqueia é um objeto longo e distante dos pulmões, sementes com rótulos diferentes dentro de cada um desses componentes são estimadas por meio de transformadas de distância. A competição ótima de sementes propaga esses rótulos para o resto do volume de interesse, realizando o delineamento dos objetos. O delineamento é feito nos volumes de ar da traqueia e dos pulmões até a pleura visceral. Assim, a segmentação da cavidade pleural está fora do escopo deste projeto. O método ALTIS foi extensivamente avaliado em um conjunto de aproximadamente 1.750 imagens de tomografia, unindo tanto bases de dados internas como públicas. Até onde sabemos, esse é o maior conjunto de imagens para validação dentre os trabalhos reportados na literatura. Além do método ALTIS, outros dois métodos baseados em modelos de forma, MALF e SOSM-S, foram quantitativamente avaliados em 250 imagens desse conjunto. Essa avaliação foi feita através da análise de sobreposição e distância até a borda das segmentações interativas consideradas corretas. Os experimentos realizados indicaram que o método ALTIS é estatisticamente superior e consideravelmente mais rápido que ambos os métodos comparados. As 1.500 imagens restantes foram utilizadas para verificação da robustez do método proposto. Nesta etapa, cada uma das imagens de segmentação geradas pelo ALTIS foram visualmente examinadas à procura de falhas. Foram observados erros de segmentação em uma pequena porcentagem delasAbstract: On the present day, respiratory diseases affect a great portion of people worldwide. The best way to detect and analyze this kind of disease is by diagnostic imaging, mainly Computed Tomography (CT). Computer-aided diagnosis systems have been developed to help specialists with the analysis of CT images to obtain an accurate and fast diagnosis. In such systems, the segmentation of the lungs is paramount for quantitative analysis. In the past years, many lung segmentation methods have been proposed. However,they suffer from at least one of these limitations: high computational time, weak conditions for separating the trachea and each lung with internal structures brighter than the air, and a limited number of samples for validation. Addressing those limitations, this master¿s thesis proposes a fast lung and trachea segmentation method, called Automatic Lung and Trachea Image Segmentation (ALTIS), on CT images from the thorax. The ALTIS method uses optimum seed competition to segment the lungs and the trachea in a time proportional to the domain of the image. It consists of a fast sequence of image processing operations which takes into consideration anatomical characteristics that are robust for most appearance variations of abnormal lungs. That is, from the premise that the respiratory system on a CT image represents the largest object surrounded by brighter tissue, the lungs and the trachea are extracted creating the volume of interest. Considering that the lungs are larger than the trachea and the trachea is a thin object distant from the lungs, seeds with different labels are estimated inside each component by means of distance transforms. The optimum seed competition propagates these labels to the rest of the volume of interest, delineating the objects. The delineation is performed on the volumes of air inside the trachea and both lungs, limited by the visceral pleura. Therefore, the segmentation of the pleural cavity is not within the scope of this project. The ALTIS method was extensively evaluated on a set of approximately 1.750 CT images, gathering both in-house and public datasets. To the best of our knowledge, this is the largest set of CT images used for validation ever reported in the literature. Besides ALTIS, two other shape model-based methods, MALF and SOSM-S, were quantitatively evaluated on 250 CT images from the original set. This evaluation was made through overlapping and border distance analysis over the ground-truth segmentations. The performed experiments indicated that ALTIS is statistically superior and considerably faster than both compared methods. The remaining 1.500 images were used to verify ALTIS¿s robustness. At this stage, each ALTIS¿s segmentation was visually analyzed on the search for failures. Segmentation errors were observed in a small percentage of themMestradoCiência da ComputaçãoMestre em Ciência da ComputaçãoCAPE

    Gestion Électronique des Documents iconographiques au SICD de Strasbourg

    Get PDF
    Projet Professionnel Personnalisé, travail de fin d\u27année des élèves bibliothécaires, portant sur la numérisation et la diffusion en ligne d\u27un fonds iconographique au SICD des universités de Strasbourg. Mise en place d\u27un système de Gestion électronique de documents

    Impact of using lifting techniques to explore the differences between interpreted and compiled tools in the computational speed of wavelet static image coding

    Get PDF
    Orientadores: Yuzo Iano, Ana Lucia Mendes Cruz Silvestre da SilvaDissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de ComputaçãoResumo: O campo de análise e compressão de imagens tem recebido especial atenção da comunidade científica recentemente por abranger os principais sistemas de TV digital, comunicações via satélite e comunicações móveis. Neste contexto, as Transformadas Wavelets Discretas (TWD) surgem como uma ferramenta poderosa e suas inúmeras vantagens permitiram sua inserção em importantes padrões tais como JPEG2000, MPEG4 e MPEG7. O método lifting realiza a TWD sub-amostrando o sinal antes do processo de filtragem, implicando em rápido processamento por fazer uso das similaridades entre filtros passa-alta e passa-baixa, acelerando o cálculo dos coeficientes. Na literatura, ganhos aritméticos teóricos de diferentes proporções foram obtidos sobre o método tradicional, destacando-se os trabalhos de Daubechies e Sweldens e de Reichel. O objetivo desta pesquisa consiste em estender esta discussão de resultados teóricos quando implementados através de ferramentas, interpretada e compilada, focando no tempo de processamento necessário para a realização (decomposição e reconstrução) de diferentes imagens estáticas empregando wavelets pertencentes às famílias de Daubechies, Symlets e Biortogonais. Medidas de PSNR foram utilizadas de forma a corroborar a perfeita implementação do lifting, dado que o mesmo não pode implicar em deterioração na imagem reconstruída.Abstract: The field of analysis and compression of images has been received special attention of the scientific community because of including in the main systems of digital TV, satellite communications and mobile communications. In this context, the Discrete Transform Wavelet (TWD) arise how a powerful tool and its many advantages allowed your insertion in important standards such as JPEG2000, MPEG4 and MPEG7. The lifting method realizes the TWD sub-sampling the signal before the filtering, resulting in faster processing by using the similarities between high and low pass filters, speeding up the calculation of coefficients. In the literature, arithmetic theoretical gains of different proportions were obtained on the traditional method, especially the works of Daubechies and Sweldens and of Reichel. The objective of this research is to extend this discussion of theoretical results when implemented through tools, interpreted and compiled, targeting the processing time required to perform (decomposition and reconstruction) of different images using wavelets belonging to the families of Daubechies, and Symlets Biortogonais. Measures of PSNR were used to corroborate the perfect implementation of the lifting, since that cannot result in deterioration in the reconstructed image.MestradoTelecomunicações e TelemáticaMestre em Engenharia Elétric

    Traitement et valorisation du fonds photographique de l’Établissement de communication et de production audiovisuelle de l’armée (ECPAD) – Médiathèque de la Défense

    Get PDF
    Mémoire de fin d\u27étude du diplôme de conservateur, promotion DCB18, portant sur le traitement et la valorisation d\u27un fonds photographique
    corecore