15 research outputs found

    Combination of global features for the automatic quality assessment of retinal images

    Get PDF
    Producción CientíficaDiabetic retinopathy (DR) is one of the most common causes of visual loss in developed countries. Computer-aided diagnosis systems aimed at detecting DR can reduce the workload of ophthalmologists in screening programs. Nevertheless, a large number of retinal images cannot be analyzed by physicians and automatic methods due to poor quality. Automatic retinal image quality assessment (RIQA) is needed before image analysis. The purpose of this study was to combine novel generic quality features to develop a RIQA method. Several features were calculated from retinal images to achieve this goal. Features derived from the spatial and spectral entropy-based quality (SSEQ) and the natural images quality evaluator (NIQE) methods were extracted. They were combined with novel sharpness and luminosity measures based on the continuous wavelet transform (CWT) and the hue saturation value (HSV) color model, respectively. A subset of non-redundant features was selected using the fast correlation-based filter (FCBF) method. Subsequently, a multilayer perceptron (MLP) neural network was used to obtain the quality of images from the selected features. Classification results achieved 91.46% accuracy, 92.04% sensitivity, and 87.92% specificity. Results suggest that the proposed RIQA method could be applied in a more general computer-aided diagnosis system aimed at detecting a variety of retinal pathologies such as DR and age-related macular degeneration.Ministerio de Ciencia, Innovación y Universidades - Fondo Europeo de Desarrollo Regional (projects RTC-2015-3467-1 and DPI2017-84280-R

    Automated Glaucoma Detection Using Hybrid Feature Extraction in Retinal Fundus Images

    Get PDF
    Glaucoma is one of the most common causes of blindness. Robust mass screening may help to extend the symptom-free life for affected patients. To realize mass screening requires a cost-effective glaucoma detection method which integrates well with digital medical and administrative processes. To address these requirements, we propose a novel low cost automated glaucoma diagnosis system based on hybrid feature extraction from digital fundus images. The paper discusses a system for the automated identification of normal and glaucoma classes using higher order spectra (HOS), trace transform (TT), and discrete wavelet transform (DWT) features. The extracted features are fed to a support vector machine (SVM) classifier with linear, polynomial order 1, 2, 3 and radial basis function (RBF) in order to select the best kernel for automated decision making. In this work, the SVM classifier, with a polynomial order 2 kernel function, was able to identify glaucoma and normal images with an accuracy of 91.67%, and sensitivity and specificity of 90% and 93.33%, respectively. Furthermore, we propose a novel integrated index called Glaucoma Risk Index (GRI) which is composed from HOS, TT, and DWT features, to diagnose the unknown class using a single feature. We hope that this GRI will aid clinicians to make a faster glaucoma diagnosis during the mass screening of normal/glaucoma images

    Detección automática de la presencia de patología ocular en retinografías empleando técnicas de procesado de imágenes

    Get PDF
    La vista es uno de los sentidos de mayor importancia para la vida humana. En los últimos años el número de enfermedades oculares ha aumentado y las predicciones de los científicos es que van a seguir aumentando en los próximos años. Existen enfermedades oculares que se han convertido en importantes causas de pérdida de visión a nivel mundial como la retinopatía diabética (RD), el glaucoma, la degeneración macular asociada a la edad (DMAE) y las cataratas. Estas enfermedades oculares suelen provocar alteraciones en el ojo humano, que pueden detectarse observando el ojo. Una de las técnicas más extendidas para observar el fondo del ojo es la retinografía, que es una imagen digital a color de la retina. Esta imagen es muy útil para el diagnóstico de enfermedades que afectan al ojo como RD y DMAE, entre otras. No obstante, la creciente incidencia de algunas enfermedades oculares y la escasez de oftalmólogos especialistas provoca que el análisis de las retinografías sea una tarea compleja y laboriosa. El objetivo de este Trabajo Fin de Grado (TFG) ha sido el diseño y desarrollo de un método automático para diferenciar entre retinografías patológicas y no patológicas. Este método permitiría ayudar en el diagnóstico y cribado de los pacientes con enfermedades oculares y reducir la carga de trabajo a los oftalmólogos. Para ello, se partió de una base de datos (BD) formada por 1044 imágenes de calidad adecuada para su procesado automático. De ellas, 326 pertenecían a sujetos sanos y a 819 pacientes con algún tipo de patología. Estas imágenes se dividieron en un conjunto de entrenamiento (559 imágenes) y un conjunto de test (585 imágenes). En todos los casos, un oftalmólogo especialista indicó si las imágenes eran normales o patológicas.Grado en Ingeniería de Tecnologías de Telecomunicació

    Automatic analysis of retinal images to aid in the diagnosis and grading of diabetic retinopathy

    Get PDF
    Diabetic retinopathy (DR) is the most common complication of diabetes mellitus and one of the leading causes of preventable blindness in the adult working population. Visual loss can be prevented from the early stages of DR, when the treatments are effective. Therefore, early diagnosis is paramount. However, DR may be clinically asymptomatic until the advanced stage, when vision is already affected and treatment may become difficult. For this reason, diabetic patients should undergo regular eye examinations through screening programs. Traditionally, DR screening programs are run by trained specialists through visual inspection of the retinal images. However, this manual analysis is time consuming and expensive. With the increasing incidence of diabetes and the limited number of clinicians and sanitary resources, the early detection of DR becomes non-viable. For this reason, computed-aided diagnosis (CAD) systems are required to assist specialists for a fast, reliable diagnosis, allowing to reduce the workload and the associated costs. We hypothesize that the application of novel, automatic algorithms for fundus image analysis could contribute to the early diagnosis of DR. Consequently, the main objective of the present Doctoral Thesis is to study, design and develop novel methods based on the automatic analysis of fundus images to aid in the screening, diagnosis, and treatment of DR. In order to achieve the main goal, we built a private database and used five retinal public databases: DRIMDB, DIARETDB1, DRIVE, Messidor and Kaggle. The stages of fundus image processing covered in this Thesis are: retinal image quality assessment (RIQA), the location of the optic disc (OD) and the fovea, the segmentation of RLs and EXs, and the DR severity grading. RIQA was studied with two different approaches. The first approach was based on the combination of novel, global features. Results achieved 91.46% accuracy, 92.04% sensitivity, and 87.92% specificity using the private database. We developed a second approach aimed at RIQA based on deep learning. We achieved 95.29% accuracy with the private database and 99.48% accuracy with the DRIMDB database. The location of the OD and the fovea was performed using a combination of saliency maps. The proposed methods were evaluated over the private database and the public databases DRIVE, DIARETDB1 and Messidor. For the OD, we achieved 100% accuracy for all databases except Messidor (99.50%). As for the fovea location, we also reached 100% accuracy for all databases except Messidor (99.67%). The joint segmentation of RLs and EXs was accomplished by decomposing the fundus image into layers. Results were computed per pixel and per image. Using the private database, 88.34% per-image accuracy (ACCi) was reached for the RL detection and 95.41% ACCi for EX detection. An additional method was proposed for the segmentation of RLs based on superpixels. Evaluating this method with the private database, we obtained 84.45% ACCi. Results were validated using the DIARETDB1 database. Finally, we proposed a deep learning framework for the automatic DR severity grading. The method was based on a novel attention mechanism which performs a separate attention of the dark and the bright structures of the retina. The Kaggle DR detection dataset was used for development and validation. The International Clinical DR Scale was considered, which is made up of 5 DR severity levels. Classification results for all classes achieved 83.70% accuracy and a Quadratic Weighted Kappa of 0.78. The methods proposed in this Doctoral Thesis form a complete, automatic DR screening system, contributing to aid in the early detection of DR. In this way, diabetic patients could receive better attention for their ocular health avoiding vision loss. In addition, the workload of specialists could be relieved while healthcare costs are reduced.La retinopatía diabética (RD) es la complicación más común de la diabetes mellitus y una de las principales causas de ceguera prevenible en la población activa adulta. El diagnóstico precoz es primordial para prevenir la pérdida visual. Sin embargo, la RD es clínicamente asintomática hasta etapas avanzadas, cuando la visión ya está afectada. Por eso, los pacientes diabéticos deben someterse a exámenes oftalmológicos periódicos a través de programas de cribado. Tradicionalmente, estos programas están a cargo de especialistas y se basan de la inspección visual de retinografías. Sin embargo, este análisis manual requiere mucho tiempo y es costoso. Con la creciente incidencia de la diabetes y la escasez de recursos sanitarios, la detección precoz de la RD se hace inviable. Por esta razón, se necesitan sistemas de diagnóstico asistido por ordenador (CAD) que ayuden a los especialistas a realizar un diagnóstico rápido y fiable, que permita reducir la carga de trabajo y los costes asociados. El objetivo principal de la presente Tesis Doctoral es estudiar, diseñar y desarrollar nuevos métodos basados en el análisis automático de retinografías para ayudar en el cribado, diagnóstico y tratamiento de la RD. Las etapas estudiadas fueron: la evaluación de la calidad de la imagen retiniana (RIQA), la localización del disco óptico (OD) y la fóvea, la segmentación de RL y EX y la graduación de la severidad de la RD. RIQA se estudió con dos enfoques diferentes. El primer enfoque se basó en la combinación de características globales. Los resultados lograron una precisión del 91,46% utilizando la base de datos privada. El segundo enfoque se basó en aprendizaje profundo. Logramos un 95,29% de precisión con la base de datos privada y un 99,48% con la base de datos DRIMDB. La localización del OD y la fóvea se realizó mediante una combinación de mapas de saliencia. Los métodos propuestos fueron evaluados sobre la base de datos privada y las bases de datos públicas DRIVE, DIARETDB1 y Messidor. Para el OD, logramos una precisión del 100% para todas las bases de datos excepto Messidor (99,50%). En cuanto a la ubicación de la fóvea, también alcanzamos un 100% de precisión para todas las bases de datos excepto Messidor (99,67%). La segmentación conjunta de RL y EX se logró descomponiendo la imagen del fondo de ojo en capas. Utilizando la base de datos privada, se alcanzó un 88,34% de precisión por imagen (ACCi) para la detección de RL y un 95,41% de ACCi para la detección de EX. Se propuso un método adicional para la segmentación de RL basado en superpíxeles. Evaluando este método con la base de datos privada, obtuvimos 84.45% ACCi. Los resultados se validaron utilizando la base de datos DIARETDB1. Finalmente, propusimos un método de aprendizaje profundo para la graduación automática de la gravedad de la DR. El método se basó en un mecanismo de atención. Se utilizó la base de datos Kaggle y la Escala Clínica Internacional de RD (5 niveles de severidad). Los resultados de clasificación para todas las clases alcanzaron una precisión del 83,70% y un Kappa ponderado cuadrático de 0,78. Los métodos propuestos en esta Tesis Doctoral forman un sistema completo y automático de cribado de RD, contribuyendo a ayudar en la detección precoz de la RD. De esta forma, los pacientes diabéticos podrían recibir una mejor atención para su salud ocular evitando la pérdida de visión. Además, se podría aliviar la carga de trabajo de los especialistas al mismo tiempo que se reducen los costes sanitarios.Escuela de DoctoradoDoctorado en Tecnologías de la Información y las Telecomunicacione

    Documenting and predicting topic changes in Computers in Biology and Medicine: A bibliometric keyword analysis from 1990 to 2017

    Get PDF
    The Computers in Biology and Medicine (CBM) journal promotes the use of com-puting machinery in the fields of bioscience and medicine. Since the first volume in 1970, the importance of computers in these fields has grown dramatically, this is evident in the diversification of topics and an increase in the publication rate. In this study, we quantify both change and diversification of topics covered in CBM. This is done by analysing the author supplied keywords, since they were electronically captured in 1990. The analysis starts by selecting 40 keywords, related to Medical (M) (7), Data (D)(10), Feature (F) (17) and Artificial Intelligence (AI) (6) methods. Automated keyword clustering shows the statistical connection between the selected keywords. We found that the three most popular topics in CBM are: Support Vector Machine (SVM), Elec-troencephalography (EEG) and IMAGE PROCESSING. In a separate analysis step, we bagged the selected keywords into sequential one year time slices and calculated the normalized appearance. The results were visualised with graphs that indicate the CBM topic changes. These graphs show that there was a transition from Artificial Neural Network (ANN) to SVM. In 2006 SVM replaced ANN as the most important AI algo-rithm. Our investigation helps the editorial board to manage and embrace topic change. Furthermore, our analysis is interesting for the general reader, as the results can help them to adjust their research directions

    Evaluación automática de la calidad en retinografías para la ayuda al diagnóstico de la Retinopatía Diabética

    Get PDF
    La Diabetes Mellitus es una enfermedad cuya prevalencia supone un grave problema de salud pública. Entre sus complicaciones destaca la Retinopatía Diabética (RD), que se ha convertido en una de las principales causas de pérdida de visión en países desarrollados. La retinografía es una prueba diagnóstica que consiste en la captura de imágenes en color de la retina mediante un instrumento óptico llamado retinógrafo. Esta técnica permite una visión exacta de la retina y es útil para el diagnóstico y el seguimiento de enfermedades que la afectan, como RD, Glaucoma y Degeneración Macular Asociada a la Edad. En los programas de cribado de la RD, la adquisición de retinografías aptas para ser analizadas es básico. De hecho, los sistemas automáticos de análisis de retinografías para la ayuda al diagnóstico pueden fallar si las imágenes no tienen calidad suficiente. El objetivo de este Trabajo Fin de Máster fue el desarrollo de un sistema de evaluación automática de la calidad en retinografías con el fin de determinar si las imágenes son aptas para ser analizadas. De esta manera, se puede mejorar la eficacia de sistemas de cribado y de ayuda al diagnóstico de diversas enfermedades, entre ellas la RD. Este TFM se centró en la extracción, selección y clasificación de características globales que cuantifican la calidad de las retinografías para tratar de determinar si son aptas para ser analizadas por sistemas automáticos. Para ello, se aplicaron técnicas de análisis de imágenes basadas en métodos de evaluación de calidad de imagen sin referencia (No Reference Image Quality Assessment, NR-IQA). En concreto, se aplicaron los métodos de propósito general Natural Image Quality Evaluator (NIQE) y Spatial and Spectral Entropy-based Quality (SSEQ). Además, se analizaron las imágenes mediante la Transformada Wavelet Continua y la luminosidad del fondo de las imágenes a partir del espacio de color HSV. Después, se seleccionaron las características más relevantes mediante el algoritmo Fast Correlation-Based Filter (FCBF). Para la clasificación, se empleó una red neuronal artificial de tipo Perceptrón Multicapa. Para comprobar el funcionamiento del método se utilizó una base de datos de 2107 retinografías proporcionada por el Instituto Universitario de Oftalmobiología Aplicada de la Universidad de Valladolid y el Hospital Clínico Universitario de Valladolid. Los expertos determinaron si las imágenes tenían calidad suficiente para ser analizadas según criterios objetivos de claridad. La base de datos se dividió en dos conjuntos independientes para el desarrollo del método: entrenamiento (1053 imágenes) y test (1054 imágenes). El método se evaluó sobre el conjunto de test, consiguiéndose una precisión del 92.13%, con una sensibilidad del 93,26% y un valor predictivo positivo del 97.46%. Los resultados logrados fueron similares a los obtenidos en la literatura, si bien las bases de datos empleadas difieren entre estudios. Estos valores de sensibilidad y valor predictivo positivo hacen que el método propuesto sea adecuado para seleccionar las retinografías de buena calidad como paso previo a su análisis automático. En este sentido, se pretende incluir este método como una de las etapas de un algoritmo de análisis de retinografías para la ayuda al diagnóstico y cribado de la RD.Departamento de Teoría de la Señal y Comunicaciones e Ingeniería TelemáticaMáster en Investigación en Tecnologías de la Información y las Comunicacione

    Qhaway: una herramienta de apoyo para el diagnóstico del glaucoma con aprendizaje profundo

    Get PDF
    Propone un método para el diagnóstico del glaucoma basado en un modelo híbrido de modelos DL, con el cual usando imágenes del fondo de ojo de un paciente se consigue hacer el diagnóstico con alta precisión. Se consideró la integración de los dataset públicos de glaucoma HRF, Drishti-GS1, sjchoi86-HRF, RIM-ONE y ACRIMA, con un total de 1707 imágenes (919 normal y 788 glaucoma) del fondo de ojo, un modelo híbrido de Voting sobre los modelos de DL ResNet50 con dos tipos de fine tuning y ResNet50V2, y la implementación usando Keras y Tensor Flow, con lo que se consiguió un diagnóstico con exactitud del 96.55%, sensibilidad del 98.54% y especificidad del 94.32%. Además, los experimentos numéricos muestran que el aprendizaje usando 5 bases de datos permite mejores resultados que por separado, incluso aplicando transfer learning, también muestran que el modelo híbrido voting genera una exactitud superior en 20.69% a la mejor exactitud obtenido por el mejor modelo de DL (DenseNet169) usando un dataset, 13.22% al mejor modelo (ResNet50V2) usando transfer learning con los 5 datasets, y 1.72% al mejor modelo (ResNet50) considerando los 5 dataset

    Fusion of B‐mode and shear wave elastography ultrasound features for automated detection of axillary lymph node metastasis in breast carcinoma

    Get PDF
    Abstract: In this study, we evaluate and compare the diagnostic performance of ultrasound for non‐invasive axillary lymph node (ALN) metastasis detection. The study was based on fusing shear wave elastography (SWE) and B‐mode ultrasonography (USG) images. These images were subjected to pre‐processing and feature extraction, based on bi‐dimensional empirical mode decomposition and higher order spectra methods. The resulting nonlinear features were ranked according to their p‐value, which was established with Student's t‐test. The ranked features were used to train and test six classification algorithms with 10‐fold cross‐validation. Initially, we considered B‐mode USG images in isolation. A probabilistic neural network (PNN) classifier was able to discriminate positive from negative cases with an accuracy of 74.77% using 15 features. Subsequently, only SWE images were used and as before, the PNN classifier delivered the best result with an accuracy of 87.85% based on 47 features. Finally, we combined SWE and B‐mode USG images. Again, the PNN classifier delivered the best result with an accuracy of 89.72% based on 71 features. These three tests indicate that SWE images contain more diagnostically relevant information when compared with B‐mode USG. Furthermore, there is scope in fusing SWE and B‐mode USG to improve non‐invasive ALN metastasis detection
    corecore