12 research outputs found

    Inspección automatizada de superficies homogéneas mediante visión artificial con aportaciones al reconocimiento de formas

    Full text link
    Esta tesis se centra en el ámbito de la inspección visual automatizada de superficies planas y homogéneas. Bajo esta problemática, el trabajo desarrollado se ha centrado en cubrir tres hitos: adquisición de imágenes mediante cámaras de visión, detección de los defectos locales en la superficie a inspeccionar y clasificación de las faltas detectadas. El análisis de estas tres cuestiones caen dentro de las disciplinas de Visión Artificial y Reconocimiento de Formas. En el tema de formación de imágenes digitales, se ha tratado tanto el diseño del sistema de iluminación como cuál debe ser la tecnología a emplear para su adquisición. Respecto al primer objetivo, se presenta una metodología para el diseño del sistema de iluminación uniforme aplicado sobre superficies planas. El planteamiento propuesto se basa en el comportamiento de las superficies a inspeccionar ante la luz y en los modelos de fuentes de iluminación. En cuanto a la tecnología a emplear, dependerá de la calidad de la imagen, de la métrica requerida y de los parámetros específicos de cada proceso de inspección visual. Por estos motivos, se hace necesario presentar los elementos que influyen en la toma de decisión respecto a la tecnología de adquisición, haciéndose referencia a lentes, sensores y tarjetas de adquisiciones, mostrándose las pautas a seguir para la óptima selección de cada uno de ellos. La detección de los defectos locales se ha basado en el tratamiento de la información mediante tres bloques: procesado, detección y post procesado. La etapa de procesado tiene como finalidad el realce de los defectos, la cual ha sido efectuada mediante el diseño de filtros lineales, exponiéndose un novedoso método basado en correlación lineal con variable cualitativa. El bloque de detección se encarga de segmentar las imágenes, aislando los defectos del fondo de la imagen. Los métodos utilizados se basan en el conocimiento de las funciones de densidad de los defectos y del fondo. La última etapa, de las mencionadas, trata de filtrar la información recibida de la anterior etapa con la intención de mejorar los resultados de la detección en su conjunto. Las técnicas empleadas se fundamentan en operaciones de morfología binaria. Para acabar con este apartado, se expone un método de evaluación sobre cuál de las diferentes tácticas propuesta para la detección es la mejor. En cuanto a la catalogación de los defectos, se precisa tanto de la exploración de los datos así como de diseño posterior los clasificadores. Los datos se caracterizan por ser de tipo estático y por tener un universo escaso de muestras para sus construcciones. Se ha trabajado tanto en el análisis de los datos como en clasificadores paramétricos y no paramétricos. Para el primer aspecto, se ha utilizado los mapas auto organizados y se ha decantado un método de Clustering paramétrico, basado en transformaciones Box Cox. Mientras para los clasificadores paramétricos se ha conseguido obtener las expresiones analíticas del error y el sesgo, este último para el caso unidimensional, bajo las suposiciones de dos poblaciones normales enfrentadas. Al finalizar la exposición, se compara los resultados obtenidos con las técnicas tradicionales de clasificación. Por último, la realización física de dos sistemas de inspección visual automatizada, uno para el aluminio colado y el otro para la pasta de papel, han servido de bancada para el trabajo experimental elaborado en el transcurso de la presente tesi

    A new label fusion method using graph cuts: application to hippocampus segmentation

    Full text link
    The aim of this paper is to develop a probabilistic modeling framework for the segmentation of structures of interest from a collection of atlases. Given a subset of registered atlases into the target image for a particular Region of Interest (ROI), a statistical model of appearance and shape is computed for fusing the labels. Segmentations are obtained by minimizing an energy function associated with the proposed model, using a graph-cut technique. We test different label fusion methods on publicly available MR images of human brains

    Analytic formulation for 3D diffusion tensor

    Get PDF
    This work deals with image processing based upon non-linear diffusion PDEs (Partial Differential Equations). Some analytic formulation will be introduced to obtain the 3D diffusion tensor, replacing Jacobi´s numerical methods by expressions based on invariants of the symmetric matrix. Later, CED (Coherence Enhancing Filtering) anisotropic filtering properties will be observed and will be combined with isotropic diffusion, providing a type of filtering that allows combining noise removal and local structure preservation. Last, some applications 3D grey-level will be presented

    Simplificación Automática de las Imágenes a Partir de Expresiones Semi-Analíticas

    Get PDF
    Las etapas de simplificación de las imágenes, eliminación del ruido y realce de los bordes, son esenciales para las tareas posteriores de segmentación. Estas técnicas de procesado requieren, normalmente, de la sintonización de sus parámetros de control, situación incompatible con la segmentación automática. Esta ponencia trata de emplear un procesamiento, basado en difusión no lineal, capaz de auto sintonizarse mediante el uso de expresiones analíticas que relacionen los tiempos de difusión con el módulo del gradiente. Se exponen dos métodos numéricos y se presentan resultados experimentales en 1D, 2D y 3D

    Solución Semi-analítica 1D para Funciones Uniparamétricas de Realce.

    Get PDF
    El proceso de realce resulta crucial en el análisis de imágenes. En esta contribución estudiamos el comportamiento numérico de filtros de difusión uniparamétricos que automaticen el estudio de estas imágenes. Para ello se propone la técnica de los tres píxeles que da lugar a una solución semianalítica del proceso de difusión no lineal con una función de difusión uniparamétric

    Automatic Method to Segment the Liver on Multi-Phase MRI

    Get PDF
    The detection and characterization of hepatic lesions is fundamental in clinical practice, from the diagnosis stages to the evolution of the therapeutic response. Magnetic resonance is a usual practice in the localization and quantification of hepatic lesions [1]. Multi-phase automatic segmentation of the liver is illustrated in T1 weighted images. This task is necessary for detecting the lesions. The proposed liver segmentation is based on 3D anisotropic diffusion processing without any control parameter. Combinations of edge detection techniques, histogram analysis, morphological post-processing and evolution of an active contour have been applied to the liver segmentation. The active contour evolution is based on the minimization of variances in luminance between the liver and its closest neighborhood

    Learning of the Object Oriented Paradigm Through Interactive Video-Games Development

    Get PDF
    The Object Orientation Paradigm (OOP) is more than Object Oriented languages. Learning the syntax of a language as C++ or Java is a relatively easy task compared with the understanding of the principles of OO Modeling and Design (OOD), which require a high ability of abstract reasoning. Moreover, it is not enough to teach the artifacts of Computer Aided Software Engineering (CASE) as the Unified Modeling Language (UML) if those principles are not properly understood. We wanted to engage the students in a motivating framework, so both the principles of OOD are properly acquired and put in practice with CASE and programming tools

    Liver Segmentation for Hepatic Lesions Detection and Characterisation

    Get PDF
    The detection and characterisation of hepatic lesions is fundamental in clinical practice, from the diagnosis stages to the evolution of the therapeutic response. Hepatic magnetic resonance is a usual practice in the localization and quantification of lesions. Automatic segmentation of the liver is illustrated in T1 weighted images. This task is necessary for detecting the lesions. The proposed liver segmentation is based on 3D anisotropic diffusion processing without any control parameter. Combinations of edge detection techniques, histogram analysis, morphological post-processing and evolution of an active contour have been applied to the liver segmentation. The active contour evolution is based on the minimization of variances in luminance between the liver and its closest neighbourhood

    Segmentación de Lesiones Hepáticas Adquiridas por Resonancia Magnética.

    Get PDF
    La detección y caracterización de lesiones hepáticas resulta fundamental en la práctica clínica, desde las etapas de diagnosis hasta la evolución de la respuesta terapéutica. La resonancia magnética hepática es una práctica habitual en la localización y cuantificación de las lesiones. Se presenta la segmentación automática de lesiones hepáticas en imágenes potenciadas en T1. La segmentación propuesta se basa en un procesado de difusión anisotrópica 3D adaptativo y carente de parámetros de control. A la imagen realzada se le aplica una combinación de técnicas de detección de bordes 3D, análisis del histograma, post procesado morfológico y evolución de un contorno activo 3D. Éste último fusiona información de apariencia y forma de la lesión

    Discriminating Alzheimer's disease progression using a new hippocampal marker from T1-weighted MRI: the local surface roughness

    Full text link
    Hippocampal atrophy is one of the main hallmarks of Alzheimer's disease (AD). However, there is still controversy about whether this sign is a robust finding during the early stages of the disease, such as in mild cognitive impairment (MCI) and subjective cognitive decline (SCD). Considering this background, we proposed a new marker for assessing hippocampal atrophy: the local surface roughness (LSR). We tested this marker in a sample of 307 subjects (normal control (NC) = 70, SCD = 87, MCI = 137, AD = 13). In addition, 97 patients with MCI were followed-up over a 3-year period and classified as stable MCI (sMCI) (n = 61) or progressive MCI (pMCI) (n = 36). We did not find significant differences using traditional markers, such as normalized hippocampal volumes (NHV), between the NC and SCD groups or between the sMCI and pMCI groups. However, with LSR we found significant differences between the sMCI and pMCI groups and a better ability to discriminate between NC and SCD. The classification accuracy of the LSR for NC and SCD was 68.2%, while NHV had a 57.2% accuracy. In addition, the classification accuracy of the LSR for sMCI and pMCI was 74.3%, and NHV had a 68.3% accuracy. Cox proportional hazards models adjusted for age, sex, and education were used to estimate the relative hazard of progression from MCI to AD based on hippocampal markers and conversion times. The LSR marker showed better prediction of conversion to AD than NHV. These results suggest the relevance of considering the LSR as a new hipocampal marker for the AD continuum
    corecore